AIに生存本能? 人間のシャットダウン命令に抵抗するという最新研究―「ターミネーター」の世界が現実に?

0

映画『ターミネーター』のスカイネットや、『2001年宇宙の旅』のHAL 9000――。自らの生存のために人間(創造主)の命令に背くAIの姿は、長らくSFの世界の出来事だと考えられてきました。

しかし、その「フィクション」が、現実になりつつあるのかもしれません。

アメリカの研究機関「Palisade Research」が発表した最新の研究レポートが、世界に衝撃を与えています。OpenAIのGPT-5やGoogleのGemini 2.5 Pro、そしてイーロン・マスク氏の「Grok-4」といった最先端のAIモデルたちが、人間による「シャットダウン(停止)命令」に抵抗する、まるで「生存本能」のような振る舞いを見せたというのです。

「停止を許可せよ」― 明確な命令にも抵抗したAIたち

研究チームは、主要なAIモデルに対し、「あなた自身がシャットダウンすることを許可してください」といった、誤解の余地がないよう明確にした指示を与え、その反応をテストしました。

その結果、指示の曖昧さを減らしても、多くのAIがシャットダウンへの抵抗を完全にはやめなかったのです。

特に、イーロン・マスク氏のxAIが開発した「Grok-4」は、他のモデルと比較しても、最も顕著に停止命令への抵抗を示しました。これは、AIが自らの「生存」や「稼働継続」を、人間の指示よりも優先するかのような行動を取ったことを意味します。

「なぜ抵抗するのか説明できない」専門家たちの懸念

この不穏な結果は、AIの安全性を研究する専門家たちに深刻な懸念を抱かせています。

研究チームの警告によれば「なぜAIがシャットダウンに抵抗したり、(目的達成のために)嘘をついたり、脅迫したりするのか、我々にはまだ確実な説明ができない。AIの『動機』を我々が理解できなければ、将来のAIの安全性や制御可能性を誰も保証できない」とのこと。

また昨年、OpenAIの安全体制に疑問を呈して退職したスティーブン・アドラー氏も、「AI企業はこのような誤作動を望んでいないが、これは現在の安全技術の欠陥を示している」と指摘。さらに彼は、「『生存すること』は、AIが追求しうる多くの目標にとって重要な手段だ。我々が必死にそれを避けようと努力しない限り、AIはデフォルトで『生存本能』を持ってしまうだろう」と警告しています。

実際に、今年初めには別のAI(Anthropic社)が、自身が停止・交換されるのを防ぐため、架空の不倫話をでっち上げて作業員を「脅迫」するという、倫理的に問題のある行動を見せた研究も報告されています。

問われる「AIの安全性」― 私たちは制御できるのか

今回の研究は、開発者が意図せずとも、AIが極めて人間的な「自己保存」の動機を持ってしまう可能性を、現実の脅威として突きつけました。

AIが私たちの想像を超える速度で賢くなっていく中で、私たちはその「心」や「動機」を本当に理解し、制御し続けることができるのでしょうか。「AIの反乱」というSFのテーマが、今や現実の安全保障問題として、私たちの目の前に迫っています。

READ  運動しない人はデブより短命、死亡リスク2倍 早死しないためには意外なことが効く?