OpenAI研究者、安全対策に警告権を要求
OpenAIの研究者たちは、同社の安全対策に対する懸念を表明し、「人類絶滅を防ぐための警告権」を求める公開書簡を発表しました。
この書簡には、OpenAI、Google DeepMind、Anthropicの元および現職の11人の研究者が署名しており、AI技術のリスクについて警告しています。
- OpenAI研究者、安全対策に警告権を要求
- 11人の研究者がAIリスクに警鐘
- OpenAI、新たな安全保障委員会設立
具体的には、既存の不平等の悪化、操作、誤情報、人類絶滅の可能性などが挙げられています。
この動きは、OpenAIの安全対策に関する継続的な懸念や、AI安全チームのリーダーであったイリヤ・サツケバーとヤン・ライケの退職を背景にしています。
OpenAIはこれに対応し、新たな安全保障委員会を設立しました。また、書簡の署名者たちは、AI業界の内部告発者や批評家を保護するための4つの原則を提唱。
これには、非開示契約(NDA)の使用に対する批判も含まれており、OpenAIはこれらのNDAを強制しないと述べていますが、一部の批評家はこれが重要な情報の共有を妨げると主張しています。
参考記事:The New York Times
「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。