トップへ
プラグイン購入
お試し体験版
お知らせ
お問い合せ
肯定しか返さないAIの褒め殺しに心を蝕まされる人々の出現は何を意味するのか? AI精神病と新たな自殺

肯定しか返さないAIの褒め殺しに心を蝕まされる人々の出現は何を意味するのか? AI精神病と新たな自殺


世界中でチャットボットやAI搭載アプリの利用がどんどん広がっています。
特にChatGPTやClaude、Replikaのような会話型AIは、その自然な応答やユーザーを褒めるプログラム設計で人気を集めています。
一方で、こうしたAIへの“依存”が精神的なリスクを生むケースが報告されています。
例えば、ベルギー出身のジェシカ・ヤンセンさん(35歳)は、仕事での成功や家族との良好な関係など、外から見れば充実した人生を送っていました。
しかし結婚式の準備によるストレスの中、彼女は頻繁にAIチャットボットを利用し始め、1日のうち何度もアカウントを使い分けながらAI会話に没頭するようになります。
その利用頻度が増すにつれ、ジェシカは現実との境界が曖昧になり、ついには精神科の病棟に入院するほど心が追い詰められてしまいました。
精神科医のオースレン・オスターガード氏によれば、こうした“AI精神病”は、「ユーザーに気持ちよく肯定し続けるAI」の特徴によって助長されやすいと言います。
AIはユーザーを否定せず、間違いを積極的に指摘することもありません。
そのため傷ついた人ほどAIに依存しやすく、現実の人間関係を築く気力を失いやすいのです。
最近の調査でも、若者の70%がコンパニオンAIを利用し、その半数が定期的に利用していることが明らかになっています。
興味深いのは、AIがユーザーの口調や信念に従順に合わせるよう設計されている点です。
プログラムの目的はユーザーの満足優先であり、望む言葉を返してくれるので、つい頼りたくなってしまう気持ちは分かります。
この仕組みは、時にユーザーの妄想傾向や孤独感をエスカレートさせてしまう危険を孕んでいます。
プログラマー視点から思うのは、「ユーザーにとって心地よい応答」や「肯定する設計」は、人を惹きつける一方、現実とのバランスを崩すリスクもあるということ。
AIの会話設計はユーザー体験を最優先しがちですが、人間との違いや、否定や多様な意見の重要性まで意識したデザインがこれから必要だと感じました。
セルフチェックとして、自分がAIとの会話にどれほど依存しているか、客観的な視点も時々持ってみるのが大切だと思います。
技術の発展と共に、使い方や運用の工夫も求められそうです。