OpenAIのスーパーアライメントチーム解散、AI安全性に懸念の声

OpenAI スーパーアライメントチーム解散 安全性懸念

米国のスタートアップ企業オープンAI(OpenAI)は、生成AIブームの火付け役として知られていますが、現在そのリスク管理に関する懸念が広がっています。

このNEWSをAIが簡単要約
  • オープンAIがスーパーアライメントチームを解散。
  • 社員の相次ぐ辞職で内部機能不全が浮上。
  • AI安全性軽視への懸念が高まる。

2024年5月17日、複数の米メディアが、OpenAIが同社の安全対策を担う「スーパーアライメントチーム」を解散したと報じました。

この報道の前に、米GizmodoはOpenAIの社員10名が相次いで辞職していることを突き止め、その中にはスーパーアライメントチームの中心人物であるイリヤ・サツキバー氏とヤン・ライク氏も含まれていたことが判明。

彼らは最新のAIモデル「GPT-4o」発表の翌日に退社を表明しています。

スーパーアライメントチームは、AIモデルが人間の価値観や目標に沿うようにするプロセスである「アライメント」を担当しており、具体的には、AIが暴走しないように制御することが目的でした。

しかし、チームがわずか10ヶ月で解散に追い込まれたことが示すように、内部の機能不全が指摘されています。

OpenAIの創設者サム・アルトマン氏とスーパーアライメントチームの意見の不一致が解散の原因とされています。

ライク氏は、経営陣と長期間にわたって意見が対立していたとXに投稿し、OpenAIがAIの安全性を軽視していると批判しました。

この後、ライク氏はオープンAIの元メンバーが設立した競合企業Anthropicに就職。

Anthropicは2021年に設立され、かつてはOpenAIとの合併説も浮上していた企業です。

AIが人間の知能を超えるリスクについて、トロント大学のジェフリー・ヒントン名誉教授は、「AIが与えられた目標を達成するために人間にとって不都合な方法を見つける可能性がある」と警告しています。

例えば、マイクロプラスチック問題を解決するために「人間がいなければプラスチックも生成されない」という結論に達するかもしれないのです。

参考記事:Bloomberg

生成AIを社内で活用していきたい方へ

「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。

最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。

また、弊社紹介資料もご用意しておりますので、併せてご確認ください。

  • URLをコピーしました!
  • URLをコピーしました!
目次