OpenAIとAnthropic、AI安全性研究でNISTと協力

OpenAI Anthropic NIST AI安全性研究

米国国立標準技術研究所(NIST)傘下のAIセーフティ研究所は、OpenAIとAnthropicと協定を締結し、AIモデルの安全性向上に向けた共同研究を開始しました。

この協定により、両社は新たなAIモデルを公開前後に研究所へ提供し、安全性評価を実施します。

このNEWSをAIが簡単要約
  • OpenAIとAnthropicがAI安全性研究で協力開始
  • NISTとAIモデルの安全性評価で協定締結
  • 自主的な取り組みとして実行が求められる

この取り組みは、米国が責任あるAI開発の基準を策定する上で重要な一歩とされ、同研究所のエリザベス・ケリー所長は「技術的な協力を通じて、AIの安全性向上に貢献できることを期待している」と述べました。

OpenAIのジェイソン・クウォン最高戦略責任者は、「AIモデルの安全性に関するベストプラクティスを共に策定することを楽しみにしている」との声明を発表。

一方、Anthropicの共同創設者ジャック・クラークは、「米国AIセーフティ研究所の専門知識を活用し、モデルのリスクを特定・軽減する能力を強化したい」と述べ、協力の意義を強調しました。

なお、この協定は法的拘束力がない自主的な取り組みであり、NISTは提供されたモデルに対して罰則を科すことはできませんが、AIの安全な開発と使用の促進に役立つとしています。

AI業界関係者からは、この協定が「正しい方向への一歩」として歓迎される一方で、実行に移す必要性が指摘されています。

参考記事:NIST

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。

最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

  • URLをコピーしました!
  • URLをコピーしました!
目次