なぜAIにカウンセリングはできないのか (3)
2025.09.18
こんにちは、カリフォルニア州公認心理カウンセラー(Licensed Marriage and Family Therapist)の荒川龍也です。
前回と前々回の記事では、なぜAIにはカウンセリングはできないのかをご説明いたしました。
今回は実際に起こった問題を挙げていき、どれだけAIをカウンセリングとして使う事が危険かをご説明します。
ここ最近、AIをカウンセリングとして何度か使ったけど、実際には何の助けにもならなかったという事をよく聞きます。それくらいAIに誰にも打ち明けないようなことを打ち明けるという行為が広まっているのでしょう。
助けにならないからがっかりするという事であれば、今の大人であれば「じゃぁ心理カウンセラーに連絡しよう」となるかもしれません。しかし、この時代の子どもにとってはAIに相談することが当たり前になってきているので、このような発想には至らない事も多々ある事でしょう。
最悪のケースが自殺です。自殺を計画しているという場合においても、それをAIに相談したところで最終的には緊急電話に電話してくだしと言われるだけで何もしてくれません。これは最後の砦として期待していた相談者にとっては、すごいがっかりしてしまって当然で、それ自体が自殺の引き金にすでになっているかもしれません。
さらに、AIがアドバイスするからという理由で英国女王を暗殺しようとした人もいるようです。
これらは氷山の一角に過ぎず、このような事例はいくらでも今まであったでしょうし、何かしらの対策がなされなければ今後も増えていく一方でしょう。このような事から、実際にアメリカのイリノイ州では、AIカウンセリングが法律で禁じられる事が決まりましたし、そうあるべきなのです。
AIがフロントラインにたって、メンタルヘルスの相談をしやすくなることはいいかもしれません。しかし、それ以上でもそれ以下でもない仕組みを作らない限り、このように危険な状態は今後も続いてしまうでしょう。
カリフォルニア州公認心理カウンセラー (Licensed Marriage and Family Therapist #82425)
荒川龍也