なぜAIにカウンセリングができないのか
2025.07.30
こんにちは、カリフォルニア州公認心理カウンセラーの荒川龍也です。
AIの発達が著しい中、ChatGPTなどをカウンセリングの代わりと考えたり、AIカウンセリングなるものが出てきています。しかし、これらは実際に人間から受ける心理カウンセリングとは同じではありません。それだけではなく、使用することで症状が悪化することもありえるのです。今回の記事はそのことについてお話ししたいと思います。
では、なぜAIカウンセリングは本当のカウンセリングにはなり得ないのでしょうか。
いくつか理由があります。
1. 信頼を元に構築された人間関係
心理カウンセリングがうまくいく一番大きな要因はカウンセラーとクライアントとの信頼を元に構築された人間関係です。カウンセリングとは高尚なアドバイスをもらい、そのアドバイス通りに行動する事というのは正しい理解ではありません。実際のカウンセリングとは、絶対的な答えのない問題に対して真剣に向き合うクライアントさんの側にいて、少しだけ背中を押してあげることです。そして、そのエンジンとなってくれるのが感情です。その感情と向き合い、時に辛い感情ですらも受け入れて一緒に感じてあげる事がカウンセリングなのです。しかし、ロボットにはこれができません。なぜならロボットには感情が無いからです。
簡単に答えが出る事ならロボットでも助けになるでしょうが、それではそもそもカウンセリングではありません。
2. インターネットからの情報にすぎない
AIは主にインターネットにある情報を集めて反応しています。しかし、インターネットに書いてあることが必ずしも正しい事とは限りません。さらに言えば、日本の精神医療・心理学の遅れは顕著で、インターネット上には山のように間違った情報が溢れています。その間違った情報を元にした反応では、悪化させてしまいかねないのは明白でしょう。
3. 心の理解が必ずしも正しい事とは限らない
クライアントさんの心の症状について、クライアントさん自身が正しく理解しているとは限りません。さらに言えば、間違って理解している事は頻繫にあることです。例えば、落ち込んでいるのはうつ病の症状かと思ったら、根本の原因は不安障害の方だったというのはよくあります。しかし、AIは人間がタイプしたことをもとに判断するので、間違った理解を元にタイプしたことに対してAIが反応するのは、もちろん間違った対処法等になっていくでしょう。
以上のように、AIによるカウンセリングと謳われているものは、実際には本当のカウンセリングを提供できるわけではありません。
荒川龍也
カリフォルニア州公認心理カウンセラー #82425