ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか?
3つのポイントがあります。
- LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる
- RAG / 嘘発見器関数を使う
- LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる
ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。
より詳しく知りたい方は以下ボタンから、ご相談ください。
3つのポイントがあります。
ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。