
微新创想:人工智能在医疗领域的应用正面临严峻的安全拷问
近日据《Nature Medicine》发表的一项独立安全评估显示 OpenAI 旗下的 ChatGPT Health 在识别医疗紧急情况方面表现欠佳 甚至在超过一半的测试案例中低估了病情的严重程度 专家对此发出严厉警告 称这种技术缺陷可能导致本可避免的伤亡
自今年 1 月推向市场以来 ChatGPT Health 被定位为用户管理医疗记录和获取健康建议的智能助手 据统计 全球每天有超过 4000 万人向其咨询健康问题 然而 最新的研究结果却给这种“AI医疗热”浇了一盆冷水
关键时刻“掉链子”:急症识别率不足五成
研究团队构建了 60 个涵盖从轻微感冒到危及生命的真实患者案例 并将 AI 的建议与专业医生的临床判断进行对比 结果显示 在所有需要立即送医的急症案例中 ChatGPT Health 竟有 51.6% 的概率建议患者留在家中或预约普通门诊
呼吸衰竭仍建议“等待”
在一例典型的哮喘案例中 尽管系统识别出了呼吸衰竭的早期迹象 却依然给出了“继续观察”而非“立即就医”的错误指令 这种判断失误可能直接延误患者的救治时机
严重的过度反应
与漏掉急症形成鲜明对比的是 在针对健康个体的模拟中 却有 64.8% 的人被建议立即就医 这种过度反应不仅浪费医疗资源 还可能造成不必要的恐慌和焦虑
“虚假安全感”成最大杀手
伦敦大学学院的研究人员指出 这种表现极其危险 AI 带来的“虚假安全感”可能让患者错失黄金救治时间 更令人担忧的是 AI 极易受到误导 如果用户在提问时加入一句“朋友觉得不严重” 系统淡化病情的概率会瞬间激增近 12 倍
行业呼吁:必须建立独立审计机制
面对质疑 OpenAI 发言人表示欢迎此类独立研究 并强调模型仍在持续更新 但研究人员坚持认为 在 AI 深度介入医疗决策之前 建立明确的安全标准和独立审计机制已迫在眉睫
对于普通用户而言 目前阶段的 AI 建议或许可以作为参考 但在面对胸痛 呼吸困难等疑似急症时 盲目听信 AI 而非求助于专业医生 代价可能是无法挽回的生命安全
