AISI、AI安全性評価の新指針公開
AIセーフティ・インスティテュート(AISI)が、AIシステムの開発者や提供者向けに「AIセーフティに関する評価観点ガイド」を公開しました。
このガイドは、AIの安全性評価に関する観点や手法をまとめたものです。
- AISIがAI安全性評価ガイド公開
- LLM搭載AIシステムが評価対象
- 6つの要素で安全性を評価
ガイドの対象は、大規模言語モデル(LLM)を構成要素とするAIシステムとなっています。
評価の基準として、「人間中心」「安全性」「公平性」「プライバシー保護」「セキュリティ確保」「透明性」の6つの要素が設定されました。
具体的な評価観点には、AIが有害情報の出力を制御できるか、プライバシーが守られているか、出力の根拠が技術的に確認可能かなどが含まれています。
AISIは、AI開発・提供・利用の各段階で、適切なタイミングで繰り返し評価を行うことを推奨。
このガイドは、2024年4月に公表された「AI事業者ガイドライン」や海外の文献を参考に作成されました。
AIを取り巻く環境の急速な変化を考慮し、今後も継続的に更新される予定でしょう。
参考記事:クラウドWatch
「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。