イリヤ・サツケバー、新スタートアップで安全なAIに挑戦
5月にOpenAIのチーフサイエンティストを退任したイリヤ・サツケバーが、新たなプロジェクトに取り組むことを明らかにしました。
- サツケバーが新スタートアップSSIを設立。
- 安全なスーパーインテリジェンスを目指す。
- アルトマン解任に関与し後悔を表明。
彼はOpenAIの同僚ダニエル・レビーと、Appleの元AIリードでCueの共同創設者ダニエル・グロスと共に、Safe Superintelligence Inc.(SSI)を設立しました。
SSIは「一つの焦点、一つの目標、一つの製品」を掲げ、スーパーインテリジェンスの安全な実現を目指しています。
SSIのウェブサイトに投稿されたメッセージで、創業者たちは安全なスーパーインテリジェンスの構築を「我々の時代における最も重要な技術的問題」と位置付けています。
また、「安全性と能力を同時に技術的な問題として捉え、革命的な工学と科学的なブレークスルーを通じて解決を目指す」と述べています。
サツケバーはOpenAI在籍時にスーパーアラインメントチームに所属し、強力なAIシステムの制御方法を研究していましたが、彼の退任に伴いこのチームは解散されました。
この決定は、元リーダーのジャン・ライケによって強く批判されました。
さらに、2023年11月に発生したOpenAIのサム・アルトマンCEOの一時解任に関して、サツケバーは後に自身の関与を後悔していると述べています。
参考記事:SSI Inc
「生成AIを社内で活用したい」「生成AIの事業をやっていきたい」という方に向けて、朝の通勤時間に読めるメルマガを配信しています。
最新のAI情報を日本最速で受け取りたい方は、以下からご登録ください。
また、弊社紹介資料もご用意しておりますので、併せてご確認ください。