ハルシネーションを防ぎたいのですが、どうすれば良いでしょうか? 2024 8/19 生成AI全般に関するご質問 2023-11-042024-08-19 3つのポイントがあります。 LLMにわからないことは「わからない」と回答させるようなプロンプトを入れる RAG / 嘘発見器関数を使う LLM自身の知識ではなく、RAGなどの添付情報をベースに回答させる ただ、それでも完全な100%を実現することは難しく、サービス利用規約などで謳う必要があるでしょう。 より詳しく知りたい方は以下ボタンから、ご相談ください。 WEELに相談する 関連する質問 RAGやファインチューニングに学習させるデータは生データでしょうか? RAGにおいて読み込ませるデータの形式に決まりはありますか? AIが生成した画像を使用した際に、訴訟を受けたり、炎上したりする可能性はありますか? Fine-tuningやEmbeddingで学習したデータは、OpenAIに利用されますか? クラウド上でAIを利用して、RPAの設定やエラーの対応を行うシステムではどのくらいのランニングコストがかかるか。 一覧に戻る 生成AI全般に関するご質問