ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか?

3つのポイントがあります。

  1. LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる
  2. RAG / 嘘発見器関数を使う
  3. LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる

ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。

より詳しく知りたい方は以下ボタンから、ご相談ください。

関連する質問