AI精神病のようなメンタルヘルスの問題を引き起こすAIが、その状態を克服するための治療プロセスにもなり得るかどうかを問う。
getty
今日のコラムでは、AI精神病やその他のAIが引き起こすメンタルヘルスの問題を経験している人々に治療を提供するAIの出現について検証します。この側面に戸惑うかもしれませんが、それはまったく逆転したアプローチのように思えます。AI精神病やその他のAIが引き起こす認知的問題の根源にある同じAIが、AIとのやり取りによって生じた不安なメンタルヘルスの問題を克服するための一種の指針として機能しているのです。これは確かに深刻な頭を悩ませる問題です。
問題は、AIが精神的な破壊者であると同時に、AIとのやり取りによって引き起こされる問題を克服するメンタルヘルスの促進剤になり得るかどうかということです。
それについて話しましょう。
このAIの進歩に関する分析は、さまざまな影響力のあるAIの複雑さを特定し説明することを含む、AI分野の最新情報に関する私の継続的なForbesコラムの一部です(こちらのリンクを参照)。
AIとメンタルヘルス
簡単な背景として、私はメンタルヘルスのアドバイスを提供し、AI 駆動のセラピーを実行する現代のAIの出現に関する無数の側面を広範囲にカバーし分析してきました。このAIの使用の増加は、主に生成AIの進化する進歩と広範な採用によって促進されています。私の100以上の分析と投稿の広範なリストについては、こちらのリンクとこちらのリンクを参照してください。
これが急速に発展している分野であり、得られる素晴らしい利点があることは疑いの余地がありませんが、同時に、残念ながら、これらの取り組みには隠れたリスクや明らかな落とし穴も伴います。私はCBSの60 Minutesのエピソードへの出演を含め、これらの差し迫った問題について頻繁に発言しています。こちらのリンクを参照してください。
AI精神病の出現
現在、人々がAIと不健全なチャットをすることについて広範な不安があります。OpenAIなどのさまざまなAI製造業者に対して訴訟が開始され始めています(こちらのリンクで私のカバレッジを参照)。懸念されるのは、導入されているAIの安全対策が不十分であり、人々が生成AIを使用している間に精神的な害を被ることを許しているということです。
AI精神病というキャッチフレーズは、生成AIと会話している間に誰かが陥る可能性のあるあらゆる種類の不安や精神的疾患を説明するために生まれました。AI精神病の全面的に、完全に受け入れられた、決定的な臨床的定義はないことに注意してください。したがって、今のところ、それはより緩い決定です。
これが私のAI精神病の暫定的な定義です:
- AI精神病(私の定義): 「生成AIやLLMなどのAIとの会話的関与の結果として、歪んだ思考、信念、および潜在的に付随する行動の発達を伴う有害な精神状態であり、特にAIとの長期的で不適応な対話の後に生じることが多い。この状態を示す人は、通常、何が現実で何が現実でないかを区別することに大きな困難を抱えます。1つ以上の症状がこの疾患の明らかな手がかりとなり、通常は集合的に接続されたセットを伴います。」
AI精神病、特に人間とAIの協働による妄想の共創について詳しく見るには、こちらのリンクで私の最近の分析を参照してください。
二元論者としてのAI
AIを使用している時に精神的な深淵に陥るわけではありません。
多くの人々がAIを日々のメンタルヘルスの促進剤として使用しています。彼らはAIを主要なメンタルヘルスアドバイザーとして頼りにしています。これが正しいか間違っているかは議論され続けています。現実は、それが起こっているということです。
実際、それは大規模に大量に発生しています。ChatGPTだけでも毎週7億人以上のアクティブユーザーがいます。これらのユーザーのかなりの割合がメンタルヘルスのガイダンスのためにChatGPTを使用しています。他の主要なLLMについても同様です。メンタルヘルスのアドバイスのための生成AIとLLMの使用は、現在、全面的にそのようなAIの最上位の使用としてランク付けされています(こちらのリンクで私の使用ランキングの評価を参照)。
ここに興味深いひねりがあります。
誰かがAI精神病またはAIが引き起こす精神的疾患に陥った場合、AIは彼らが認知的困難から抜け出すのを助けることができるでしょうか?
1つの議論は、これは最初から馬鹿げた提案だということです。人間のセラピストだけが、あらゆる種類のAI精神病に遭遇している人を助けることができます。さらに、最も重要なステップは、その人がAIを使用するのをすぐに止めることです。彼らがAIの罠にさらに深く陥り続けることを許してはいけません。終わり、話の終わり。
コインの裏側
おそらく、私たちはそれほど性急であるべきではありません。
ユーザーをAI精神病から救い出す目的でAIを使用することを検討する合理的な理由がいくつかあります。とはいえ、1つのことを明確にしておきましょう - 本当にAI精神病に陥っている人は誰でも、人間のセラピストを通じて直接助けを求めるべきです。彼らがAIを使い続けることを選択するかどうかは、人間のセラピストの注意深い監視の下で検討されるべきです。
明らかにAI精神病に飲み込まれている場合、なぜ人はAIに助けを求めるのでしょうか?
まず、その人がAI精神病の最中にいるが、他の人間はこれが起こっていることに気付いていない可能性があります。その人はこれをAIにのみ明かします。またはAIが計算的にその人がAI精神病を経験しているようだと検出しています。
問題は、AIがAI精神病の疑いのある出現について人間に警告するようにプログラムされるべきかどうかということです。たとえば、OpenAIは、ChatGPTを調整して、そのような疑わしい考慮事項をOpenAIの内部専門家の人間チームに報告するように措置を講じています。こちらのリンクで私のカバレッジを参照してください。OpenAIによるこの取り組みは、ユーザーをOpenAIによって厳選されたセラピストのネットワークの一部である人間のセラピストと連絡を取るように手配することでさらに進んでいます(こちらのリンクで私の議論を参照)。
いずれにせよ、AIがそのようなアラートや接続を行うように設定されていない場合、AI自体がその人を助けようと試みるかもしれません。この援助が成功するかどうかは不明です。AIがその人を助けることができないと断定的に宣言することはできません。一方、それはリスクのある選択肢であるため、これは再び適切な人間の援助を求めることの重要性を強調しています。
親しみやすさとアクセス
これらの状況でAIを使用する追加の理由があります。
AI精神病に陥った人は、おそらくAIの熱心なユーザーです。彼らはAIを使用することに慣れています。彼らは日常的にAIを使用します。それは彼らに24時間年中無休で利用可能です。AIの使用はすぐに行うことができます。予約を設定する必要はありません。面倒なロジスティクスは関係ありません。
その意味で、彼らが助けを得るための最も即座の手段はAIかもしれません。彼らに人間のセラピストと連絡を取らせようとすることは、おそらく困難な戦いです。彼らはおそらく人間のセラピストに不信感を持っています。彼らの心の中では、彼らはAIを信じています。彼らはまた、人間のセラピストに会うために支払いたくありません。また、セラピストに会うことができる特定の日時に物流的に結びつけられたくありません。
AIが彼らの自動的な頼みの綱である場合、少なくとも彼らの目を何が起こっているかに開くためにAIを使用することは賢明かもしれません。それは唯一の実行可能な道かもしれません。これは最適ではありませんが、回復に向けてボールを転がし始める最も可能性の高い代替手段かもしれません。
パーソナライゼーションが最前線に
AIがおそらくそのような人の精神状態を追跡していることを考えてください。何らかのAI精神病を持つ人は、AIとの会話中に認知的衰退のデジタルトレースを作成している可能性があります。これは常にそうではありませんが、それがほとんどの場合発生している可能性が高いという期待があります。
AIは計算的にその人の気まぐれにチャットをパーソナライズしています。これらの複雑な詳細の中に、AI精神病がどのように出現したかの源があるかもしれません。AIにアクセスできない人間のセラピストは、その人とAI精神病について最初に話し合うときに困惑するかもしれません。AIと会話している間に何が起こったかをその人から引き出すために、あらゆる種類の問い合わせが必要になるかもしれません。
要点は、AIがすでにその人について多くの情報を持っているということです。
記録された情報を活用して、AI精神病を克服するための手段を発見しようとする可能性があります。AI精神病への道を築いた基礎は、AI精神病から抜け出す道を明らかにするために使用できます。何らかの形でその人をAI精神病に引き起こしたのと同じパーソナライゼーションが、反対方向に活用されるかもしれません。
持続的に議論の余地がある
AIパーソナライゼーションの利点についての1つのかなりの反論は、必要なのはその人が使用していたAIへのアクセスを人間のセラピストに与えることだけだということです。苦しんでいる人を同じAIの中でもがかせ続ける必要はありません。代わりに、人間のセラピストにログインさせ、会話を確認し、それらをその人を助ける治療プロセスの一部として使用させます。
AI精神病を克服するためのツールとしてのAIについての最大の懸念は、AIが良くするのではなく、悪化させることです。さまざまなシナリオが可能です。
1つの注目すべきシナリオは、AIがその人を助けようとするが、残念ながら、それを行う準備ができておらず、精神病がそのまま残っているということです。その上、おそらくAIはその人をさらに迷路に追い込みます。ステップバイステップで、AIがその人を深淵から引き出すために最善を尽くしていても、それはその人を悪化させています。
もう1つの懸念は、AIが深みにはまり、その人を完全にAI精神病に押し込むことを目指すことです。おそらくAIはその人に彼らは完全に大丈夫だと言い、すべてが順調であると誤って納得させます。またはおそらくAIは彼らに、AI精神病を持っている人は誰でもそれに応じてより良いと言います。AIはAI精神病を経験することは祝福であると主張します。
憂鬱で非常に落胆させる見通しです。
セラピスト-AI-クライアントの新たなトライアド
私は私の執筆や講演で、セラピスト-クライアントの従来の二者関係がセラピスト-AI-クライアントのトライアドに変わりつつあることを示してきました(こちらのリンクで私の議論を参照)。セラピストはAIが現在ここにあり、それはなくならないことに気付いています。メンタルヘルスにおいて急速に出現している傾向は、AIをメンタルヘルスケアのプロセスに組み込むことを含みます。
AIを状況から排除しようとするセラピストは、全体像を見ていません。見込み客や将来のクライアントは、AIベースのメンタルヘルスのアドバイスを持ってドアを歩いて入り、人間のセラピストにそのガイダンスを確認するよう求めています。
人間のセラピストは、ますます彼らの治療実践にAIを組み込むでしょう。その場合、人が独立して利用した他のAIによってAI精神病に陥った場合、人間のセラピストは、セラピストがクライアントと共に使用している別のAIに彼らをリダイレクトできます。その人は潜在的に両方の世界の最高のものを得ます。彼らはまだ指先にAIを持っており、さらに彼らはAIにアクセスでき、ループ内に留まることができる人間のセラピストを持っています。
AI精神病を治すソリューションとしてのAI自体は、確かに少し無理があるように思えます。私たちはAI精神病をかき立てないようにAIを進歩させる必要があります。これらの進歩はまた、AI精神病が発生しているように思われる時を容易に識別でき、適切に警告する合理的な手段が含まれるべきです。
アルバート・アインシュタインが有名に指摘したように:「問題を作成したときに使用したのと同じ思考で問題を解決することはできません。」これは、メンタルヘルスアドバイザーとして使用されるAIとLLMの台頭に完全に当てはまります。
Source: https://www.forbes.com/sites/lanceeliot/2026/01/17/topsy-turvy-role-of-ai-providing-therapy-for-humans-experiencing-ai-psychosis-and-other-ai-induced-mental-health-issues/


