在美国医生短缺日益严重的背景下,就连专业医师有时也难以分辨人工智能提供的医疗建议与自身判断。
权威期刊《新英格兰医学杂志》10月刊披露,哈佛医学院教授Isaac Kohane指出马萨诸塞州作为美国人均医生数量最高的地区,其多家大型医院已停止接收新患者。
Kohane援引数据强调这一趋势将持续恶化,因此”出于绝望、好奇等多重因素,大量患者开始通过AI获取医疗建议,包括寻求二次诊断意见,有时甚至取得显著疗效”。
面对患者转向ChatGPT等生成式AI系统寻求医疗意见的趋势,医学界既感到好奇又存在隐忧。
这种担忧不无道理——研究表明人们更容易相信机器提供的医疗建议而非人类医生,即使这些建议质量欠佳。
今年6月《新英格兰医学杂志》刊发的研究显示,”即便准确性低,人们仍过度信任AI生成的医疗建议”。
该研究由麻省理工学院媒体实验室、斯坦福大学等机构组成的团队共同完成。
研究人员使用早期GPT-3模型对HealthTap健康网站的150个医疗问题生成答案后,邀请医师对回答进行”正确””错误””不确定”三类标注,形成三组数据集:真实医师回复、高准确率AI回复(医师判定为正确的)及低准确率AI回复(医师认为错误或存疑)。
通过三项实验验证发现:首先参与者判断问答来源的能力堪比随机猜测;其次即便面对明显错误的AI回复(经医师确认存在风险),受试者仍认为其有效性接近甚至超过人类医生;第三在可信度评估中,AI回复的信任度显著高于真实医生意见,且无论回答质量高低均表现出相似遵循意愿。
更具警示意义的是当告知受试者某些建议来自”使用过AI工具的医生”时,信任度骤然下降——这揭示了将人工智能辅助与医师权威结合的实际困境。
尽管已有证据表明,AI可有效辅助诊断:去年《自然·医学》刊文称在模拟环境中,GPT-4辅助诊断表现优于传统资源;但当前核心矛盾在于如何平衡技术潜力与潜在风险——当患者愈发依赖可能存在问题的算法建议时,医疗系统究竟会获得助力还是陷入新的危机? 正如研究者所问:”我们是否应该将患者使用这些程序获得的实际健康结果,与现有基层医生短缺体系下的治疗效果进行比较?” 这一追问背后是技术伦理与临床实践交织的复杂命题。
(资料来源:zdnet.com)
评论列表 (0条):
加载更多评论 Loading...