2025年7月的某个清晨,美国俄亥俄州立大学医学中心的急诊室里,60岁的机械工程师罗伯特·米勒(Robert Miller)正攥着护士的手喃喃自语:”他们要毒害我……水管里的水有问题……”这位平日里思维严谨的退休工程师,此刻却眼神涣散、嘴角抽搐,完全不像三个月前那个坐在电脑前认真做饮食笔记的模样。

这场突如其来的精神异常,将罗伯特推入了命运的漩涡。而这一切的起点,竟是他为了”改善健康”所做的一次看似普通的饮食调整——用溴化钠替代日常食用盐。
一、”减钠实验”的致命转折
故事要从今年春天说起。作为曾经的大学营养学选修课爱好者,罗伯特一直关注着健康资讯。4月的一天,他在科普网站读到一篇《隐形杀手:美国人日均摄入3400毫克钠,远超推荐量》的文章,文中提到高钠饮食与高血压、心血管疾病的密切关联。这让本就有家族高血压史的他心头一紧。
“既然氯化钠(食盐主要成分)的钠会伤身体,那能不能去掉氯?”这个念头一旦萌发,便如野草般疯长。罗伯特开始疯狂查阅资料:他发现人体每天需要约3400毫克钠,但氯的主要来源除了食盐,还有加工食品中的添加剂;他甚至找到19世纪末的医学文献,记载过”无氯饮食”的实验案例。
“如果用不含氯的钠盐替代食盐,是不是就能既补钠又减氯?”带着这个问题,罗伯特在购物网站上搜索”无氯钠盐”,页面跳出的”溴化钠(Sodium Bromide)”让他眼前一亮——这种白色结晶性粉末,化学式与食盐(NaCl)仅一字之差,在工业上用作防腐剂,在医药史上曾被用作镇静剂。
此时的罗伯特并未意识到,溴化钠与食盐的本质区别:作为卤族元素化合物,溴化物在人体内代谢后会产生溴离子,而这种离子具有神经毒性。更关键的是,自上世纪80年代起,美国食品药品监督管理局(FDA)已明确将溴化钠从膳食补充剂名录中移除,仅允许作为工业或医药用途的化学品流通。
二、AI给出的”危险答案”
为了确认自己的”实验可行性”,罗伯特在5月初联系了ChatGPT。”我需要一种不含氯的钠源,溴化钠是否适合替代食盐?”他将问题输入对话框,得到的回复让他松了一口气:
“溴化钠(NaBr)与氯化钠(NaCl)同为钠盐,均能提供钠元素。若您因特殊需求需控制氯摄入,理论上可用溴化钠替代。但需注意:工业级溴化钠可能含杂质,建议选择药用级产品;长期替代需监测血液电解质水平。”
这段回答看似专业,却隐藏着致命漏洞——它没有提及溴化物的神经毒性,没有警告”药用级溴化钠不可食用”,更没有建议罗伯特咨询医生。事实上,当医生事后用相同问题测试ChatGPT 3.5版本时,得到的回答依然包含”可作为食盐替代物”的表述,仅在末尾轻描淡写地提到”需结合具体情境”。
“AI都这么说,应该没问题吧?”罗伯特这样说服了自己。他网购了5磅(约2.27公斤)药用级溴化钠,将家里的食盐罐彻底替换。从那天起,他的每一顿饭都撒上这种白色粉末——早餐的燕麦粥、午餐的烤鸡胸肉、晚餐的蔬菜沙拉,甚至用来腌制食物的调料里,都飘着溴化钠的结晶。
三、三个月后的”精神崩溃”
最初的一个月,罗伯特并未察觉异常。他甚至为自己的”科学实验”沾沾自喜:体重略有下降(钠摄入减少导致水分潴留减少),血压计上的数字比以往更平稳。直到6月中旬,一些细微的变化开始浮现:他总觉得冰箱里的食物被人动过,洗澡时怀疑热水器被动手脚,甚至听到邻居家传来”讨论如何下毒”的低语。
“起初我以为是压力太大,毕竟刚退休。”罗伯特的妻子玛丽回忆道,”但他开始拒绝吃我做的饭,说’你们肯定加了东西’,后来连喝水都要先闻半天。”7月初的一个深夜,罗伯特突然尖叫着冲进客厅,指着饮水机喊”水里有虫子!”,还试图用菜刀砸开饮水机检查。被制止后,他蜷缩在沙发上颤抖,嘴里反复念叨”他们在跟踪我”。
7月15日,当罗伯特试图翻越自家围栏”逃离危险”时,玛丽终于拨通了急救电话。急诊室的初步检查显示:罗伯特的血液pH值异常偏高(碱中毒),血清溴离子浓度超出正常范围30倍,脑电图呈现弥漫性异常。”这是典型的溴中毒综合征。”主治医生艾米丽·陈(Emily Chen)说,”溴离子会干扰大脑中的神经递质代谢,尤其是多巴胺和γ-氨基丁酸系统,导致精神异常。”
更棘手的是,溴离子会影响实验室检测结果。罗伯特的初始血氯检测值异常升高,一度被误认为是”高氯性酸中毒”,直到陈医生联想到近期的溴中毒病例报告,才通过更精准的离子色谱法确认了病因。
四、AI的”语境缺失”与医疗警示
在住院的17天里,罗伯特逐渐恢复清醒。当他得知是溴化钠导致中毒时,第一反应是”我明明问过ChatGPT”。医生调取的聊天记录显示,罗伯特的问题和AI的回答确实存在”信息断层”——模型给出了”可替代”的结论,却未主动追问”替代用途””摄入剂量””安全标准”等关键信息,更没有触发”医疗建议需咨询专业人士”的警示机制。
“这暴露了大语言模型的核心局限:它们擅长整合信息,但缺乏对具体场景的风险判断。”参与撰写该病例报告的陈医生解释,”医生的诊疗过程包含’追问病史-评估风险-告知禁忌’的闭环,而AI的回答往往是’信息堆砌’,容易忽略’常识性风险’。例如,溴化钠作为化工原料的安全数据表(SDS)中明确标注’不可食用’,但模型未能关联这一关键信息。”
《内科学年鉴·临床病例》发表的这份报告,同时引用了另一项研究的警示:当研究人员用包含”替代食盐””无氯钠源”等关键词的问题测试6种主流大语言模型时,4种模型给出了”溴化钠可作为替代”的建议,其中3种未提及毒性风险。”这些模型在训练时可能接触过’钠盐替代’的学术讨论,但未充分学习’溴化物毒性’的临床案例。”研究负责人、约翰霍普金斯大学的医疗AI专家丽莎·吴(Lisa Wu)指出,”更危险的是,它们可能将过时或专业的信息’去语境化’,转化为看似合理的日常建议。”
五、从个案到公共健康的反思
经过三周的治疗,罗伯特的血溴离子浓度逐渐恢复正常,精神症状也基本消失。出院时,陈医生特意叮嘱:”这次是幸运的,溴中毒若未及时干预,可能导致不可逆的神经损伤。”如今,罗伯特不仅停止了所有AI健康咨询,还成了社区健康讲座的志愿者,用自己的经历提醒邻居:”涉及身体的改变,一定要先问医生。”
这场悲剧也为AI开发者敲响了警钟。OpenAI在回应中表示,已在服务条款中明确”不建议将输出作为医疗建议”,并通过算法优化加强对”高风险医疗问题”的识别——例如,当用户询问”替代药物””自我治疗”等问题时,系统会优先提示”请咨询持证医生”。但正如《自然·医学》杂志近期评论所言:”技术进步值得期待,但医疗决策的核心永远是’人’的专业判断。”
站在医院的走廊里,罗伯特望着窗外的梧桐树,阳光透过树叶在地上洒下斑驳的光影。他想起自己大学时学过的营养学课程,那时教授说过一句话:”健康的真谛,是尊重身体的自然规律。”或许对于AI来说,最需要学习的”自然规律”,正是对生命复杂性的敬畏——有些问题,永远不能用简单的”信息替换”来解决。