OpenAI 在准确性担忧中推广 ChatGPT 用于健康决策
Terrill Dicki 2026年3月5日 01:21
OpenAI 强调一个家庭使用 ChatGPT 做出癌症治疗决策,但最近的研究显示人工智能健康工具存在重大准确性和安全问题。
OpenAI 本周发布了一项案例研究,介绍了一个家庭如何使用 ChatGPT 为其儿子的癌症治疗决策做准备,将这款人工智能聊天机器人定位为医生指导的补充。鉴于越来越多的证据表明人工智能健康工具存在重大可靠性问题,这个时机引人关注。
这篇于3月4日发布的宣传文章描述了父母如何与孩子的肿瘤团队一起使用 ChatGPT。OpenAI 将此定义为负责任的人工智能使用——补充而非取代医疗专业知识。
但这种美好的叙述与令人不安的研究结果相冲突。发表在《自然医学》上的一项研究检查了 OpenAI 自己的"ChatGPT Health"产品,发现在准确性、安全协议和医疗建议中的种族偏见方面存在重大问题。对于人们可能在做出有关癌症治疗的生死决策时使用的工具来说,这不是一个小问题。
准确性问题
独立研究充其量描绘出一幅喜忧参半的画面。Mass General Brigham 的一项研究发现,ChatGPT 在各医学专科的准确率约为72%,最终诊断的准确率达到77%。听起来不错,直到你考虑到风险所在——你会登上一架飞行员有23%几率犯重大错误的飞机吗?
医疗保健人工智能公司 Atropos 提供了更严峻的数据:通用大型语言模型为医生提供临床相关信息的时间仅为2%至10%。"有时有用"和"足够可靠用于癌症决策"之间的差距仍然很大。
美国医学会毫不客气地表示。该组织建议医生不要使用基于大型语言模型的工具进行临床决策辅助,理由是准确性担忧和缺乏标准化指南。当美国医学会告诉医生避而远之时,患者可能应该注意。
ChatGPT 无法做到的事情
人工智能聊天机器人无法进行体检。它们无法解读患者的肢体语言,也无法提出经验丰富的肿瘤学家经过数十年发展出的直觉性后续问题。它们会产生幻觉——生成听起来很有信心但完全捏造的信息。
隐私担忧增加了另一层问题。输入 ChatGPT 的每一个症状、每一个恐惧、关于孩子癌症的每一个细节都会成为用户控制有限的数据。
OpenAI 的案例研究强调该家庭"在医生的专家指导下"工作。这个限定词很重要。危险不在于知情患者提出更好的问题——而在于处于危机中的脆弱人群可能过度依赖一个出错频率比营销宣传所显示的更高的工具。
对于关注 OpenAI 企业野心的加密货币投资者来说,医疗保健领域的推动表明积极扩张到高风险垂直领域。监管机构是否会容忍人工智能公司推广存在记录在案的准确性问题的医疗决策工具,在进入2026年时仍是一个悬而未决的问题。
图片来源:Shutterstock- openai
- chatgpt
- 人工智能医疗
- 医疗人工智能
- 健康科技


