ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか? 2024 8/19 生成AI全般に関するご質問 2023-11-042024-08-19 3つのポイントがあります。 LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる RAG / 嘘発見器関数を使う LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。 より詳しく知りたい方は以下ボタンから、ご相談ください。 WEELに相談する 関連する質問 RAGやファインチューニングに学習させるデータは生データでしょうか? なぜ本開発の前にPoC開発を行う必要があるのでしょうか? デフォルトのAIと、RAGやFine-turnningをしたAIでのハルシネーションの確率の違いを数値化するにはどうすれば良いですか? AIエージェントの開発はお願いできる? AIを使用する際に、セキュリティとハルシネーション以外に気をつけるべきリスクはありますか? 一覧に戻る 生成AI全般に関するご質問