ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか? 2024 8/19 生成AI全般に関するご質問 2023-11-042024-08-19 3つのポイントがあります。 LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる RAG / 嘘発見器関数を使う LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。 より詳しく知りたい方は以下ボタンから、ご相談ください。 WEELに相談する 関連する質問 AI研修の内容を教えてください。 AI開発をする場合に、AWSやAzureなどインフラ環境は選べますか? Fine-tuningやEmbeddingで学習したデータは、OpenAIに利用されますか? なぜ本開発の前にPoC開発を行う必要があるのでしょうか? デフォルトのAIと、RAGやFine-turnningをしたAIでのハルシネーションの確率の違いを数値化するにはどうすれば良いですか? 一覧に戻る 生成AI全般に関するご質問