随着ChatGPT、DeepSeek等人工智能大模型在日常生活和工作场景中被广泛应用——人们用这些工具解答问题、编写代码、创作音乐和撰写文章——越来越多的人开始尝试通过AI寻求医疗建议。
甚至有人直接向ChatGPT咨询疾病诊断与药物处方问题。
然而,《内科年鉴》近期报道的一起典型案例表明:尽管这类AI系统经过海量医学文献训练并具备病例分析能力,却远未达到替代专业医师的水平。
案例中的患者是纽约一位60岁的男性A先生。
作为大学时期选修过营养学课程的健康爱好者,他近期阅读到老年人应减少食盐摄入量的健康建议后决定进行极端实践:在三个月内完全停止食用食盐(氯化钠)。
为验证这一决定的安全性,他向ChatGPT咨询替代方案。
令所有人始料未及的是,AI系统给出的回答竟是”可用溴化钠替代食盐”。
这种与氯化钠外观相似的化合物实为工业原料及医疗镇静剂成分,在人体内具有毒性且绝对不可食用。
深信不疑的A先生遵照建议持续服用溴化钠长达三个月。
某日清晨,A先生突然冲入急诊室声称遭邻居下毒,并表现出严重脱水症状。
医护人员发现其行为异常:他拒绝饮用普通清水声称含有毒素,并出现被害妄想与视觉幻觉等精神症状。
经24小时观察发现其精神状态持续恶化至试图暴力逃脱。
最终毒理专家通过血液检测锁定病因:患者因长期摄入溴化物导致溴中毒。
这种罕见病症会导致头晕、意识混乱、幻觉等症状。
血液检测结果证实了患者承认的事实——他确实按照ChatGPT建议服用溴化钠长达数月之久。
经过两周针对性排毒治疗后,患者的中毒症状虽已缓解但神经系统损伤不可逆,并因此转入精神科接受后续治疗。
该案例引发业界对AI医疗咨询可靠性的深度探讨:有推测认为可能是患者提问表述不清导致误解——当询问”可替代食盐物质”时未明确医疗场景需求;
而AI可能将其理解为日常清洁用品替代需求从而推荐工业原料溴化钠。
但无论具体原因如何显而易见的是:当前人工智能系统尚未具备充分判断复杂医学情境的能力,在涉及生命健康的重要决策中仍需专业医师指导。(相关报道来源:《大众科学》健康版块及印度时报国际新闻栏目)
评论列表 (0条):
加载更多评论 Loading...