ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか?
3つのポイントがあります。
- LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる
- RAG / 嘘発見器関数を使う
- LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる
ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。
より詳しく知りたい方は、こちらからご相談ください。
3つのポイントがあります。
ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。
より詳しく知りたい方は、こちらからご相談ください。
私たちは、AIに関わるすべての人に向けて、透明性の高い適切な情報発信と開発を行います。
「WEELは、一番地に足ついたAI情報を教えてくれる」
と思っていただけるよう、透明性高い事業運営を行なって参ります。
私たちは、AIに関わるすべての人に向けて、
透明性の高い適切な情報発信と開発を行います。
「WEELは、
一番地に足ついたAI情報を教えてくれる」
と思っていただけるよう、
透明性高い事業運営を行なって参ります。