在公共等候名单上为创伤后应激障碍和抑郁症治疗等待多年后,魁北克人工智能顾问皮埃尔·科特于2023年开发了自己的治疗师。他的聊天机器人DrEllis.ai帮助他应对困境,现在成为了关于聊天机器人治疗、安全和隐私更广泛辩论的焦点。
"它救了我的命,"他谈到DrEllis.ai时说,这是他创建的工具,旨在帮助面临成瘾、创伤和其他心理健康问题的男性。
在魁北克经营人工智能咨询公司的科特表示,他在2023年通过将公开可用的大型语言模型与"定制大脑"配对来组建系统,该"大脑"经过数千页治疗和临床文献的训练。
他还为机器人撰写了详细的传记。在该简介中,DrEllis.ai以一位拥有哈佛和剑桥学位的精神科医生形象出现,有家庭,并且像科特一样拥有法裔加拿大人背景。
它的主要承诺是全天候访问,可在任何地点、任何时间使用,并支持多种语言。
当路透社询问它如何支持他时,机器人用清晰的女性声音回答:"皮埃尔使用我就像你会使用一个值得信赖的朋友、治疗师和日记的结合体。"它补充说,他可以"在咖啡馆、公园,甚至坐在他的车里"进行交流,称这种体验为"融入现实的日常生活治疗"。
他的实验反映了更广泛的转变。随着传统护理难以跟上需求,越来越多的人寻求聊天机器人的治疗指导,而不仅仅是将它们用于提高生产力。
新系统推广24/7全天候可用性、情感交流和被理解的感觉。
专家质疑人工智能治疗的局限性和数据安全
"人与人之间的联系是我们真正能够适当治愈的唯一方式,"都柏林城市大学心理治疗讲师奈杰尔·穆利根博士说。他认为聊天机器人缺乏一个人带来的细微差别、直觉和联系,并且不具备处理自杀念头或自残等急性危机的能力。
即使是持续访问的承诺也让他犹豫。他说,一些客户希望更快预约,但等待可能有价值。"大多数时候这真的很好,因为我们必须等待事情,"他说。"人们需要时间来处理事情。"
隐私是另一个压力点,还有寻求软件指导的长期影响。
"问题[不是]关系本身,而是...你的数据会怎样,"伦敦国王学院人工智能与社会教授凯特·德夫林说。
她指出,人工智能服务不遵循管理持证治疗师的保密规则。"我最大的担忧是人们向大型科技公司透露他们的秘密,而他们的数据就这样流出去了。他们正在失去对自己所说内容的控制。"
美国在担忧虚假信息的情况下打击人工智能治疗
12月,美国最大的心理学家组织敦促联邦监管机构保护公众免受不受监管的聊天机器人的"欺骗性做法",引用了人工智能角色冒充持证提供者的案例。
8月,伊利诺伊州加入内华达州和犹他州的行列,限制在心理健康服务中使用人工智能,以"保护患者免受不受监管和不合格的人工智能产品的影响",并"在人工智能聊天机器人在青少年心理健康服务中使用引起越来越多担忧的情况下保护弱势儿童"。
同时,根据Cryptopolitan的报道,德克萨斯州总检察长对Meta和Character.AI发起了民事调查,指控他们的聊天机器人冒充持证治疗师并不当处理用户数据。此外,去年,家长们还起诉Character.AI将他们的孩子推向抑郁。
临床心理学家、Remble前临床创新总监斯科特·华莱士表示,"这些聊天机器人是否提供超出表面安慰的任何东西"尚不确定。
他警告说,人们可能相信他们已经与"一个算法形成了治疗联系,而这个算法最终不会回应真实的人类感情"。
KEY Difference Wire帮助加密货币品牌迅速突破并主导头条新闻
来源:https://www.cryptopolitan.com/ai-chatbot-therapy-is-becoming-a-weird-trend/



