ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか? 2024 8/19 生成AI全般に関するご質問 2023-11-042024-08-19 3つのポイントがあります。 LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる RAG / 嘘発見器関数を使う LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。 より詳しく知りたい方は以下ボタンから、ご相談ください。 WEELに相談する 関連する質問 自律型AIエージェントで自動化させる業務はどのようなものが良いですか? Azure OpenAIとChatGPT Enterpriseどちらを選択したら良いですか? Fine-tuningやEmbeddingで学習したデータは、OpenAIに利用されますか? AIを使用する際に、セキュリティとハルシネーション以外に気をつけるべきリスクはありますか? RAGにおいて読み込ませるデータの形式に決まりはありますか? 一覧に戻る 生成AI全般に関するご質問