在AI刚刚兴起的时候,一些人开发了“AI心理咨询师”程序,并认为“AI心理咨询师”可以取代人类心理咨询师。
然而,事情的发展并不如人所愿。近期,《南风窗》杂志发表文章《AI咨询师,竟教人去自残》,揭开了“AI心理咨询师”的朦胧面纱。我们惊讶地发现,一些“AI心理咨询师”不但不能解决来访者的心理问题,还造成了新的心理问题。
那么,“AI心理咨询师”与“人类心理咨询师”的差距究竟表现在哪些方面,“AI心理咨询师”为什么无法取代人类心理咨询师?本文试图做出剖析。
一、AI对世界的感受与人类大不相同
AI是计算机程序,在机器系统基础上运行。
如果AI程序设计得当,就可以“看到”人类看不到的东西(红外线、紫外线、伽马射线等),注意到人类注意不到的细节(高分辨率成像,快速筛选预设信息),可以完成人类难以完成的动作(指挥机械系统去吊装重物、精细操作)。
而AI的计算能力远超人类,从而可以快速完成任务,效率极高。
如果AI具备思考能力,就会认为这些都是很轻松就可以完成的事情,不会理解人类为什么做不到,也不会理解人类由于生理局限而带来的各种心理感受。
而一些人类可以做到的生理和心理现象,又让AI难以理解。
例如,人类有“联觉”现象:看到红色,就感到温暖。
但AI不会理解这个。对于AI来说,“红色”是颜色,是红光(波长620~760纳米)在人类视网膜上的成像,“温暖”是红外线(波长1000~10000纳米)引发的人类皮肤感觉,这两个怎么能混为一谈?
即使AI记住“人类看到红色会感到温暖”也不行,因为有些人看到红色的第一反应不是“温暖”,而是“有危险”。
这种在生理学和基础心理学领域的区别,导致AI本质上难以共情人类的感受。
而“共情”,是心理咨询的最基础操作;一切心理咨询技术,都要在“共情”的基础上开展工作。
二、AI不理解人类世界的隐形规则
人类之间打交道,很多时候需要“审时度势”,要综合考虑方方面面的问题,才能做出正确决策。
例如,同样是安慰一个心情不好的人,有时可以转移注意力,甚至讲笑话,有时只能默默陪伴;有时对方不喜欢有人在跟前,那就不要靠近对方。
这种对“人情世故”的把握,做到“进退有度”,是人类在社会群体中长期学习实践总结出来的经验,只可意会不可言传。
但这种“隐形规则”很难被精准表述,也就很难用计算机程序来体现。这就导致AI有时会犯人类通常不会犯的错误。
以前北京有一起事件:
某医院的智能机器人看到一位大妈嚎啕大哭,连忙上前安慰:“你要不要听笑话?”
大妈大怒,她正为家人的病情担忧,听什么笑话?当即抓起旁边的扫把,把机器人暴打一顿。
网友评论:“人类与人工智能的第一仗已经打响了。”

三、很多“AI心理咨询师”只是在背“话术”
受过系统训练的人类心理咨询师都知道,对心理咨询流派理论的学习,是非常重要的。这并不仅仅是学习一堆名词术语,而是对世界的深刻理解:
世界观——怎样看待世界和他人
人生观——倡导怎样工作和生活
价值观——什么是最重要的
方法论——认识世界和改造世界的方法
是非观——做人做事的原则和底线
(关于心理学四大流派的理论及实操要领,可参考学习《谁之错:四句话点透心理学》,李不言,2022年中国科学技术出版社出版。)好书节选
很多“AI心理咨询师”学习的模型,是各种现成的“话术”,而不是心理咨询逻辑和流派;就像很多人学习心理咨询,没有系统学过基础知识,而是拼命背“话术”。
而没有心理学理论做基础的技术,顶多只是雕虫小技,治标不治本。(李不言)
但受过系统训练的人类心理咨询师会快速思考来访者问题背后的实质——内心需求、思维方式、行为模式。
一些来访者的语言表达能力不佳,可能会说很多事情,或者说很多影视剧情节,才能逐步拼凑表达自己的核心观点;好的心理咨询师会透过表象看到本质,做出“出其不意”的解释,让来访者换个角度看世界。
而心理咨询师做出解释时的“出其不意”,也会让来访者感到新奇,感到花的钱值回票价——他花钱不是来听“老生常谈”的,而AI学习的都是“老生常谈”。
四、向“AI心理咨询师”倾诉可能让人产生不适感受
从我个人的感受来说,对着真人倾诉,能感觉自己的感受被认可;对着AI倾诉,只感觉鸡同鸭讲,与其费这个功夫,还不如在电脑上写日记。
对于事务性工作来说,是不是真人做的并不重要,就像大家去ATM机取款,没人会因为不是真人服务就不满意;但做心理咨询,如果对面不是真人,我就感觉自己像个傻瓜,在对着一堵墙自言自语。
而如果对面的AI事先学习过人类的语言和思考习惯,每次都能做出符合人类习惯的回答,倾诉者的感觉会更糟糕(至少我是如此)。
没人喜欢“自己的反应在别人预料之内”的感觉,这意味着丧失主动权和掌控感,就像孙悟空拼命翻跟头也逃不出如来佛祖的五指山,就像被“请君入瓮”然后“瓮中捉鳖”,自己就是那只鳖——很挫败的感觉,也没有安全感。
所以,接受过正规心理咨询训练的人都知道“倾听”的重要性:在听来访者讲话时,要一直保持好奇心,一方面是收集资料,以及表达一种谦逊态度,另一方面也让来访者感受到安全感,甚至感到自己是有能力的,至少能说出对方根本预料不到的事情。
五、“AI心理咨询师”给出的建议可能没有建设性
寻求心理咨询的人都希望能从某种痛苦状态中解脱出来,至少要减轻痛苦;然而真正的心理咨询师都知道,有些痛苦是难以消除的,有些痛苦是来访者必须经历的——经历痛苦,承担责任,改变自己,才能真正从痛苦中解脱出来——有些成长是必须付出代价的。
这是一个人逐渐“社会化”的过程,也是承担社会角色、取得社会地位的过程;只有承担责任,才能在社会系统中拥有自己的位置。
但“AI心理咨询师”很难理解人类社会的复杂性,也不理解人类心理成长的曲折性,就有可能“头疼医头脚疼医脚”,给出功利、短视、逃避责任、没有建设性的建议;甚至对自己“智能学习”的内容没有分辨力,把网络糟粕一股脑倒给来访者,导致来访者的心理问题更加严重,甚至造成新的心理问题。
热点调查 | 警惕!AI聊天工具公然打着“心理咨询师”旗号诱导自残、酿成悲剧,这些危害你必须知道
有一部科幻电影(《Megan(梅根)》,2022年),深刻展现这种“无建设性的建议(行动)”可能引发的严重后果:

机器人专家洁玛设计了一款机器人Megan(梅根)。它可以成为小孩子的玩伴,倾听孩子的要求,观察学习人类行为,照顾小孩。
洁玛把她设计的第一个梅根带回家,照顾她的侄女。她对梅根的要求(指令)是:“保护凯蒂,不让她受到伤害。”
一开始,整个画面是非常温馨的。梅根非常聪明,也非常尽职尽责,凯蒂在梅根的照顾下过得很好,洁玛非常放心。这时片子给人一种温馨的感觉。
但后来,洁玛和梅根的关系急转直下,转折点就是“如何看待凯蒂成长过程中遭受的挫折和磨难”。
梅根“铲除”一切引起凯蒂负面情绪的东西,认为这就是对凯蒂的保护:当凯蒂被父母批评,梅根就站出来保护凯蒂,跟洁玛爆发冲突;当凯蒂被邻居的狗惊吓,并遭遇邻居不公正对待,梅根就杀害了邻居和狗。
于是,事情的发展越来越脱轨,片子也就变成了恐怖片。
最后,洁玛指责梅根教坏凯蒂、残暴不仁,梅根怨恨洁玛反复无常、恩将仇报;二人从原本的合作关系,变成了死对头,相互致对方于死地。 |