OpenAIは、その技術の実践と潜在的なリスクに関して、内部の不和と外部からの批判の波に直面しています。
5月には、OpenAIの「スーパーアライメント」(高度なAIシステムを人間の価値観に一致させる取り組み)を担当していた元責任者Jan Leikeを含む、数名の著名な社員が会社を去りました。Leikeの退職は、OpenAIが春のアップデートイベントで「魔法のような」と評した新しいフラッグシップモデルGPT-4oを発表した直後に行われました。
報道によると、Leikeの退職は、セキュリティ対策、監視手法、そして安全性よりも華やかな製品リリースを優先することに対する絶え間ない意見の相違によるものでした。
Leikeの退職により、AI企業にとってのパンドラの箱が開かれました。元OpenAIの取締役が、CEOのサム・アルトマンや会社のリーダーシップに対して心理的虐待の申し立てを行いました。
OpenAI内の内部混乱が増大する中、同社の言語モデルのような生成AI技術がもたらす潜在的なリスクについての外部からの懸念も高まっています。批評家たちは、高度なAIが人間の能力を超えるという差し迫った存在的脅威や、より直接的なリスクとしての雇用の喪失、情報操作や操作キャンペーンにAIが利用される可能性について警告しています。
これに対し、OpenAI、Anthropic、DeepMind、および他の主要なAI企業の現職および元社員が、これらのリスクに対処するための公開書簡を作成しました。
「私たちは最前線のAI企業の現職および元社員であり、AI技術が人類に前例のない利益をもたらす可能性を信じています。同時に、これらの技術がもたらす深刻なリスクを理解しています」と書簡には記されています。
「これらのリスクは、既存の不平等をさらに強化することから、操作や誤情報、さらには自律的なAIシステムの制御の喪失に至り、人類の絶滅の可能性さえ含まれます。AI企業自身も、各国政府や他のAI専門家と同様に、これらのリスクを認識しています。」
Yoshua BengioやGeoffrey HintonなどのAIの先駆者によって支持されたこの書簡には、内部告発者を保護し、AI開発の透明性と説明責任を高めるための4つの主要な要求が記載されています:
- 企業が、リスクに関連する懸念を提起した従業員に対して非難条項を適用せず、報復しないこと。
- 企業が、従業員が取締役会、規制当局、独立した専門家に懸念を提起できる検証可能な匿名プロセスを設けること。
- 企業が、オープンな批判文化をサポートし、従業員がリスクに関連する懸念を公に共有できるようにし、適切に企業秘密を保護すること。
- 他のプロセスが失敗した場合、機密のリスク関連情報を共有した従業員に対して報復しないこと。
「彼らは、’動きを早めて壊す’アプローチを採用しており、これは非常に強力で理解が不十分な技術には逆効果です」と、会社の価値観と責任の欠如に懸念を抱いて退職した元OpenAI社員のDaniel Kokotajlo氏は述べています。
これらの要求は、OpenAIが退職する従業員に対し、会社を批判しないことを条件に退職時の株式を失うリスクを背負わせる機密保持契約に署名させているという報告の中で提出されました。OpenAIのCEOサム・アルトマンは、この状況を「恥ずかしい」と認めながらも、実際に退職時の株式を奪還したことはないと主張しました。
AI革命が進む中で、OpenAIの内部紛争と内部告発者の要求は、技術に関連する成長痛と未解決の倫理的課題を浮き彫りにしています。