元OpenAIの最高科学者であるイリヤ・サツケヴァーは、5月に共同創設したAI研究会社を離れた後の次なる大きなプロジェクトを明らかにしました。
OpenAIの元同僚であるダニエル・レビィとAppleの元AIリードであるダニエル・グロスと共に、三人はSafe Superintelligence Inc.(SSI)を設立しました。このスタートアップは、安全な超知能システムの構築に専念しています。
SSIの設立は、2023年11月に行われたOpenAIのCEOサム・アルトマンの短期間の追放に続くものであり、サツケヴァーはこの過程で中心的な役割を果たした後、後にこの状況に対して後悔を表明しました。
SSIのウェブサイトのメッセージで、創設者たちは次のように述べています:
「私たちは安全性と能力を並行して、革新的なエンジニアリングと科学的な突破口を通じて解決するべき技術的な問題として取り組んでいます。私たちは安全性を常に優先しながら能力をできる限り速く進化させることを計画しています。このようにして、平和なスケーリングを実現します。
私たちの単一の焦点は、管理上の煩わしさや製品サイクルによる気を散らすことなく、安全性、セキュリティ、進歩を短期的な商業的圧力から隔離します。」
SSIでのサツケヴァーの仕事は、OpenAIでの彼の取り組みの延長であり、彼は強力な新しいAIシステムのための制御方法を設計するためのスーパーアライメントチームの一員でした。しかし、サツケヴァーの高名な退任後、そのグループは解散しました。
SSIによると、彼らは「一つの焦点、一つの目標、一つの製品」で安全な超知能を追求するとしています。この単一の焦点は、近年多様化しているOpenAI、DeepMind、Anthropicのような主要なAIラボと対照的です。
サツケヴァーのチームが安全な超知能AIの壮大な目標に向けて実質的な進展を遂げるかどうかは時間が経たなければわかりません。批評家たちは、この課題が哲学の問題であると同時に工学の問題であると主張しています。しかし、SSIの創設者たちの経歴から考えると、彼らの取り組みは大いに注目されることでしょう。
その間、「イリヤは何を見たのか?」というミームが再び浮上するかもしれません。