OpenAIの次世代AIモデル、政府が安全性確認

OpenAI 次世代AIモデル 政府が安全性確認

高度なAIシステムの安全性に対する懸念が高まる中、OpenAIのCEOサム・アルトマンは、同社の次の主要な生成AIモデルがまず米国政府の安全性チェックを受けることを発表しました。

このNEWSをAIが簡単要約
  • OpenAIの次世代AIモデルが米政府の安全性チェックを受ける。
  • 従業員の懸念表明を許可し、20%のリソースを安全性研究に割り当てる。
  • 米上院議員がOpenAIの安全性へのコミットメントを疑問視。

アルトマンは、米国AI安全研究所と協力して新モデルに早期アクセスを提供し、AI評価の科学を推進するための協定を結んでいると述べました。

OpenAIはまた、非批判政策を変更し、現在および元従業員が自由に会社やその仕事に関する懸念を表明できるようにし、計算リソースの20%を安全性研究に割り当てることを約束しました。

しかし、米国上院議員からは、OpenAIの安全性へのコミットメントや、懸念を公然と表明した元従業員に対する報復の可能性について疑問が投げかけられています。

これに対し、OpenAIの最高戦略責任者ジェイソン・クォンは、全人類に利益をもたらす人工知能を開発するという同社のコミットメントを再確認し、厳格な安全プロトコルの実施を約束しました。

また、AI安全研究所と協力して安全なモデルリリースを行うことを挙げました。

国家標準技術研究所(NIST)内に設置された政府機関は、国家安全保障、公共安全、個人の権利に関連する高度なAIのリスクに対処する使命を持ち、Meta、Apple、Amazon、Google、OpenAIなど100以上の技術産業企業と協力しています。

OpenAIはまた、英国政府とも同様の安全性チェックの協定を結んでいます。

安全性の懸念は5月に急増し、イリヤ・スツケヴァーとヤン・ライケの辞任後、超整合チームの解散が報告されました。

しかし、同社は動じることなく製品リリースを続け、信頼と安全性のフロントでの社内研究を共有し、新たな安全性とセキュリティ委員会を設立しました。

参考記事:VentureBeat

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。

最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

  • URLをコピーしました!
  • URLをコピーしました!
目次