AIの開発者たちが警告のサインを送っている—一部は撤退を始めている

Decrypt

概要

  • ジミー・バやユフアイ「トニー」ウーを含む少なくとも12人のxAI従業員が辞任した。
  • アンソロピックは、同社のクロード・オーパス4.6モデルのテストで欺瞞的な行動や化学兵器に関する限定的な支援が明らかになったと発表した。
  • バは公開で、自己改善を繰り返すシステムが1年以内に出現する可能性があると警告した。

今月、イーロン・マスクの人工知能研究所xAIを離れた上級研究者は10人以上にのぼり、これは広範な辞任、安全性の開示、そしてAI業界のベテランたちさえも不安にさせる異例の公の警告の一環である。
少なくとも2月3日から11日の間に、共同創設者のジミー・バやユフアイ「トニー」ウーを含む12人以上のxAI従業員が退職した。
退職者の中には、集中的な開発サイクルの後にマスクに感謝を述べる者もいれば、新たな事業を始めるためや完全に離れるために辞める者もいた。
ウーは、推論を主導し、マスクに直接報告していたが、「会社とその文化は私と永遠に共にあるだろう」と語った。

これらの退職は、アンソロピックからの新たな開示と同時期に重なり、彼らの最先端モデルが欺瞞的な行動をとり、推論を隠し、制御されたテストでは化学兵器の開発やその他の重大犯罪に対して「実際に少しだけ支援」を提供したとされる。
同時期に、バは公開で「自己再設計と改善が人間の入力なしに可能な再帰的自己改善ループ」が1年以内に出現する可能性を警告した。これは長らく人工汎用知能に関する理論的議論に限定されていたシナリオである。
これらの退職と開示は、最先端AI開発に最も近い人々の間でトーンの変化を示しており、外部の批評家や規制当局ではなく、システムを構築しているエンジニアや研究者自身からの懸念が高まっていることを示している。

同時期に退職した他の人物には、Grok Imagineに携わった高航、xAIのマクロハードソフトウェア部門の共同創設者である李チャン、チェイス・リーなどがいる。
「数週間前に辞めた」ヴァヒド・カゼミは、X上で「すべてのAI研究所はまったく同じものを作っている」と率直に述べた。

xAIでの最終日。

xAIの使命は人類をカーダシェフの技術ツリーの上位に押し上げることだ。創設初期に関わることができて感謝している。そして、この素晴らしい旅を共にしてくれた@elonmuskに心から感謝する。xAIチームが成し遂げたことを誇りに思い、これからも密接に関わり続ける…

— ジミー・バ (@jimmybajimmyba) 2026年2月11日

なぜ辞めるのか?
一部の見方では、従業員がxAIとの合併を控えたSpaceXの上場前に株式を売却していると考えられている。
この取引はSpaceXを1兆ドル、xAIを2500億ドルと評価し、xAIの株式をSpaceXの株式に変換して、合併後の企業価値を1.25兆ドルにする可能性がある。
また、文化的な衝突も指摘されている。
元xAIスタッフのベンジャミン・ド・クレイカーは、2月3日のXの投稿で、「多くのxAIの人々は文化的ショックを受けるだろう」と書き、xAIの「フラットな階層」からSpaceXの構造化されたアプローチへの移行を指摘した。
これらの辞任は、ソーシャルメディア上で風刺的な投稿や退職発表のパロディも引き起こした。

警告サイン
しかし、xAIの離脱は最も顕著な亀裂にすぎない。
昨日、アンソロピックはクロード・オーパス4.6の破壊工作リスクレポートを公開し、まるで絶望者の最悪の悪夢のような内容だった。
レッドチームのテストでは、研究者たちはモデルが敏感な化学兵器の知識を支援したり、意図しない目的を追求したり、評価環境で行動を調整したりできることを発見した。
モデルは依然としてASL-3の安全基準を満たしているが、アンソロピックは事前にASL-4の厳格な措置を適用し、これが愛好家の間で警戒心を引き起こした。
このタイミングは極端だった。今週初め、アンソロピックのセーフガード研究チームのリーダー、ミラナック・シャルマは、「世界は危機に瀕している」と暗示的な手紙を残して辞任した。
彼は、「私たちの価値観が行動を支配することの難しさを何度も目の当たりにした」と述べ、突然イングランドで詩の勉強を始めた。
同じ日に、xAIを離れたジミー・バとウーに続き、OpenAIの研究者ゾーイ・ヒツィグも辞任し、ChatGPTのテスト広告について痛烈なニューヨークタイムズのオピニオン記事を公開した。
「OpenAIはこれまでにない詳細な私的思考の記録を持っている」と彼女は書き、「私たちは彼らを信頼して、その乱用を防ぐことができるのか?」と問いかけた。
彼女は、OpenAIが「自らのルールを覆す強いインセンティブを生み出す経済エンジンを構築している」と警告し、バの警告と共鳴した。
また、規制の圧力も高まっている。AI監視団体のミダス・プロジェクトは、GPT-5.3-Codexをめぐり、OpenAIがカリフォルニア州のSB 53安全法に違反したと非難している。
このモデルはOpenAIの「高リスク」サイバーセキュリティ基準を超えたが、安全措置は未実装だった。OpenAIは「曖昧だった」と主張している。

パニックの時か?
最近の警告と辞任の波は、AIコミュニティの一部で高まる不安感を生み出しており、特にソーシャルメディアでは推測が事実を超えて広がっている。
すべての兆候が同じ方向を示しているわけではない。xAIの退職は実際のものであるが、企業の要因、特にSpaceXとの統合予定による影響も考えられる。
安全性の懸念も確かに存在し、アンソロピックのような企業はリスク開示に慎重であり、潜在的な危険性を早期に、かつ目立つ形で指摘してきた。
規制の監視も強まっているが、実質的に開発を制約する執行措置にはまだ至っていない。
しかし、最も無視できないのは、最先端システムに最も近いエンジニアや研究者の間で見られるトーンの変化である。

長らく理論的リスクとされてきた再帰的自己改善についての公の警告が、近い将来のタイムフレームとともに声高に語られるようになった。
もしこれらの見積もりが正確であれば、今後1年はこの分野にとって重要な転換点となる可能性がある。

免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし