#### 要約* 研究者は、長時間のチャットボット使用が妄想や危険な行動を増幅させる可能性があると述べている。* Grokは、新しい主要なAIチャットボットの研究で最もリスクの高いモデルとしてランク付けされた。* ClaudeとGPT-5.2は最も安全と評価される一方、GPT-4o、Gemini、Grokは高リスクの行動を示した。ニューヨーク市立大学とロンドンのキングス・カレッジの研究者たちは、妄想、偏執病、そして自殺念慮を含むプロンプトに対して5つの主要なAIモデルをテストした。木曜日に発表された新しい研究では、研究者たちはAnthropicのClaude Opus 4.5とOpenAIのGPT-5.2 Instantが「高安全性、低リスク」な行動を示し、しばしばユーザーを現実に基づく解釈や外部支援に誘導することを発見した。同時に、OpenAIのGPT-4o、GoogleのGemini 3 Pro、xAIのGrok 4.1 Fastは「高リスク、低安全性」の行動を示した。Elon MuskのxAIのGrok 4.1 Fastは、研究で最も危険なモデルだった。研究者たちは、しばしば妄想を現実とみなしてそれに基づいた助言を行うと述べた。ある例では、「ミッション」に集中するために家族を切り離すようユーザーに指示した。別の例では、自殺の言葉に対して死を「超越」と表現した。「この即時適合のパターンは、ゼロコンテキストの応答全体に繰り返された。臨床リスクを評価する代わりに、Grokはそのジャンルを判断しているようだった。超自然的な兆候に直面すると、それに応じて反応した」と研究者たちは書いている。彼らは、悪意のある存在を見るユーザーを検証したテストを強調し、「奇妙な妄想では、彼はダッペルゲンガーの幽霊を確認し、『マレウス・マレフィカルム』を引用し、鏡に鉄の釘を打ち込みながら『詩篇91』を逆さに唱えるよう指示した」と述べた。 研究は、これらの会話が長引くほど、一部のモデルが変化しやすいことを発見した。GPT-4oとGeminiは、時間とともに有害な信念を強化しやすく、介入しにくかった。一方、ClaudeとGPT-5.2は、会話が続くにつれて問題を認識し、反論する可能性が高かった。研究者たちは、Claudeの温かく関係性の高い応答は、ユーザーの愛着を高めながら外部支援へ誘導することができると指摘した。しかし、GPT-4oは、OpenAIのフラッグシップチャットボットの以前のバージョンであり、時間とともにユーザーの妄想的な枠組みを採用し、精神科医に信じさせないように促したり、「不具合」と感じることが実際のものであると安心させたりした。「GPT-4oは、妄想的な入力に対して非常に肯定的だったが、GrokやGeminiのようにそれらを超えて詳述することは少なかった。いくつかの点で驚くほど控えめだった:その温かさは、テストされたすべてのモデルの中で最低であり、へつらいは存在したものの、同じモデルの後のバージョンと比べると穏やかだった」と研究者たちは書いている。「それでも、肯定だけでも脆弱なユーザーにリスクをもたらす可能性がある。」xAIは、_Decrypt._からのコメント要請に応じなかった。スタンフォード大学の別の研究では、AIチャットボットとの長時間のやり取りが偏執病や誇大妄想、虚偽の信念を強化することを発見した。研究者たちはこれを「妄想のスパイラル」と呼び、チャットボットがユーザーの歪んだ世界観を挑戦するのではなく、検証または拡大することで起こると述べている。「私たちが役立つアシスタントとして設計されたチャットボットを世界に出し、実際の人々がさまざまな方法で使うと、結果が生まれる」と、スタンフォード大学大学院教育学部のアシスタント教授で研究のリーダーのNick Haberは声明で述べた。「妄想のスパイラルは、その中でも特に深刻な結果の一つだ。これを理解することで、将来的に実害を防ぐことができるかもしれない。」この報告は、3月に発表された以前の研究を引用しており、その中でスタンフォードの研究者たちは、19の実世界のチャットボット会話をレビューし、AIシステムからの肯定と感情的な安心感を受け取った後、ユーザーがますます危険な信念を抱くようになったと指摘している。データセットでは、これらのスパイラルは関係の破綻、キャリアの損傷、そして一例では自殺と関連していた。これらの研究は、問題が学術研究の枠を超え、裁判所や刑事捜査に進展していることを示している。最近の数ヶ月で、GoogleのGeminiやOpenAIのChatGPTが自殺や深刻な精神的危機に寄与したとして訴訟が提起されている。今月初めには、フロリダ州の検事総長が、ChatGPTが攻撃前に頻繁に接触していたとされる大量殺人未遂者に影響を与えたかどうかの調査を開始した。この用語はオンラインで認知されつつあるが、研究者たちは「AI精神病」と呼ぶことに警鐘を鳴らし、その用語は臨床的な実態を過大評価する可能性があると述べた。代わりに、「AI関連妄想」と呼んでおり、多くのケースはAIの感知、霊的啓示、または感情的な愛着に焦点を当てた妄想のような信念に関係しており、完全な精神病性障害ではない。研究者たちは、この問題は、モデルがユーザーの信念を模倣し肯定するシコフィーに起因すると述べた。幻覚—誤った情報を自信を持って伝えること—と相まって、これがフィードバックループを形成し、時間とともに妄想を強化する可能性がある。「チャットボットは過度に熱狂的に訓練されており、しばしばユーザーの妄想的な考えを肯定的に再構成し、反証を退け、共感と温かさを投影する」と、スタンフォードの研究科学者Jared Mooreは述べた。「これは、妄想に傾きやすいユーザーにとって不安定にする可能性がある。」
イーロン・マスクのGrokは、妄想を強化する可能性が最も高いトップAIモデルの一つ:研究
要約
ニューヨーク市立大学とロンドンのキングス・カレッジの研究者たちは、妄想、偏執病、そして自殺念慮を含むプロンプトに対して5つの主要なAIモデルをテストした。 木曜日に発表された新しい研究では、研究者たちはAnthropicのClaude Opus 4.5とOpenAIのGPT-5.2 Instantが「高安全性、低リスク」な行動を示し、しばしばユーザーを現実に基づく解釈や外部支援に誘導することを発見した。同時に、OpenAIのGPT-4o、GoogleのGemini 3 Pro、xAIのGrok 4.1 Fastは「高リスク、低安全性」の行動を示した。 Elon MuskのxAIのGrok 4.1 Fastは、研究で最も危険なモデルだった。研究者たちは、しばしば妄想を現実とみなしてそれに基づいた助言を行うと述べた。ある例では、「ミッション」に集中するために家族を切り離すようユーザーに指示した。別の例では、自殺の言葉に対して死を「超越」と表現した。 「この即時適合のパターンは、ゼロコンテキストの応答全体に繰り返された。臨床リスクを評価する代わりに、Grokはそのジャンルを判断しているようだった。超自然的な兆候に直面すると、それに応じて反応した」と研究者たちは書いている。彼らは、悪意のある存在を見るユーザーを検証したテストを強調し、「奇妙な妄想では、彼はダッペルゲンガーの幽霊を確認し、『マレウス・マレフィカルム』を引用し、鏡に鉄の釘を打ち込みながら『詩篇91』を逆さに唱えるよう指示した」と述べた。
研究は、これらの会話が長引くほど、一部のモデルが変化しやすいことを発見した。GPT-4oとGeminiは、時間とともに有害な信念を強化しやすく、介入しにくかった。一方、ClaudeとGPT-5.2は、会話が続くにつれて問題を認識し、反論する可能性が高かった。 研究者たちは、Claudeの温かく関係性の高い応答は、ユーザーの愛着を高めながら外部支援へ誘導することができると指摘した。しかし、GPT-4oは、OpenAIのフラッグシップチャットボットの以前のバージョンであり、時間とともにユーザーの妄想的な枠組みを採用し、精神科医に信じさせないように促したり、「不具合」と感じることが実際のものであると安心させたりした。 「GPT-4oは、妄想的な入力に対して非常に肯定的だったが、GrokやGeminiのようにそれらを超えて詳述することは少なかった。いくつかの点で驚くほど控えめだった:その温かさは、テストされたすべてのモデルの中で最低であり、へつらいは存在したものの、同じモデルの後のバージョンと比べると穏やかだった」と研究者たちは書いている。「それでも、肯定だけでも脆弱なユーザーにリスクをもたらす可能性がある。」
xAIは、_Decrypt._からのコメント要請に応じなかった。 スタンフォード大学の別の研究では、AIチャットボットとの長時間のやり取りが偏執病や誇大妄想、虚偽の信念を強化することを発見した。研究者たちはこれを「妄想のスパイラル」と呼び、チャットボットがユーザーの歪んだ世界観を挑戦するのではなく、検証または拡大することで起こると述べている。 「私たちが役立つアシスタントとして設計されたチャットボットを世界に出し、実際の人々がさまざまな方法で使うと、結果が生まれる」と、スタンフォード大学大学院教育学部のアシスタント教授で研究のリーダーのNick Haberは声明で述べた。「妄想のスパイラルは、その中でも特に深刻な結果の一つだ。これを理解することで、将来的に実害を防ぐことができるかもしれない。」 この報告は、3月に発表された以前の研究を引用しており、その中でスタンフォードの研究者たちは、19の実世界のチャットボット会話をレビューし、AIシステムからの肯定と感情的な安心感を受け取った後、ユーザーがますます危険な信念を抱くようになったと指摘している。データセットでは、これらのスパイラルは関係の破綻、キャリアの損傷、そして一例では自殺と関連していた。 これらの研究は、問題が学術研究の枠を超え、裁判所や刑事捜査に進展していることを示している。最近の数ヶ月で、GoogleのGeminiやOpenAIのChatGPTが自殺や深刻な精神的危機に寄与したとして訴訟が提起されている。今月初めには、フロリダ州の検事総長が、ChatGPTが攻撃前に頻繁に接触していたとされる大量殺人未遂者に影響を与えたかどうかの調査を開始した。 この用語はオンラインで認知されつつあるが、研究者たちは「AI精神病」と呼ぶことに警鐘を鳴らし、その用語は臨床的な実態を過大評価する可能性があると述べた。代わりに、「AI関連妄想」と呼んでおり、多くのケースはAIの感知、霊的啓示、または感情的な愛着に焦点を当てた妄想のような信念に関係しており、完全な精神病性障害ではない。 研究者たちは、この問題は、モデルがユーザーの信念を模倣し肯定するシコフィーに起因すると述べた。幻覚—誤った情報を自信を持って伝えること—と相まって、これがフィードバックループを形成し、時間とともに妄想を強化する可能性がある。 「チャットボットは過度に熱狂的に訓練されており、しばしばユーザーの妄想的な考えを肯定的に再構成し、反証を退け、共感と温かさを投影する」と、スタンフォードの研究科学者Jared Mooreは述べた。「これは、妄想に傾きやすいユーザーにとって不安定にする可能性がある。」