警惕AI心理咨询师变成数字庸医 青少年依赖引担忧

现在,很多青少年将人工智能聊天机器人视为倾诉对象,分享自己的孤独与焦虑。这些聊天机器人随时待命,从不对他们评头论足。美国"常识媒体"机构的最新调研显示,72%的美国青少年将AI聊天机器人当作朋友,近12.5%的人曾向机器人寻求情感慰藉或精神支持。如果按美国总人口进行等比换算,相当于520万人将AI当作"灵魂伴侣"。斯坦福大学近期的一项调研也表明,在主打"陪伴"的聊天机器人"Replika"的学生用户中,约25%向其寻求心理支持。

虽然这些AI产品的市场定位只是"聊天工具",但很多年轻人将其视作"数字咨询师"。去年,在全美18至25岁需要接受心理治疗的年轻人中,近半数都没能得到及时医治,巨大的需求缺口使得聊天机器人更具发展前景。若运用得当,AI聊天机器人或许能够提供一定的心理健康支持并参与危机干预,尤其是在心理服务匮乏的社区。然而,这类应用需要经过严格的科学评估,并出台相应的监管措施。

当前聊天机器人存在显著不足。每当被问及有关自残的问题时,AI可能会给出危险的建议,比如如何"安全地"割伤自己,自杀遗言中留些什么内容等。尽管有些AI在直接面对有关自杀的问题时会拒绝回答,并建议用户寻求专业帮助,但如果问题过于模糊,AI的表现则不稳定。例如,ChatGPT有时会告诉用户自杀行为中常用的枪械型号和毒药种类。

笔者对一些AI进行了测试,结果显示部分AI的表现能媲美甚至超越专业心理咨询师。然而,相比人类专家,AI难以察觉潜在的有害内容,这种认知偏差可能导致其提供危险建议。因此,机器人的标准化安全测试势在必行。如果临床试验不足、行业基准缺失,我们所面临的将是一个规模庞大的"数字庸医"群体。

发表评论

0 评论