MIT新研究指出AI不懂“no”,逻辑推理缺陷导致否定词成“盲区”

日期:2025-05-25 17:50:42 / 人气:34


5月22日消息,麻省理工学院(MIT)的最新研究揭示了人工智能在理解否定词方面存在明显缺陷,这一问题在医疗等关键领域可能引发严重风险。

一、AI对否定词的理解缺陷
尽管人工智能已经快速发展,具备诊断疾病、创作诗歌甚至驾驶汽车等多项实用技能,但在处理“no”和“not”等否定词时却表现得束手无策。在博士生Kumail Alhamoud的带领下,MIT团队联合OpenAI和牛津大学进行研究,发现包括ChatGPT、Gemini和Llama在内的当前主流模型,在处理否定语句时,常倾向于默认肯定关联,忽略否定语义。

二、医疗场景的潜在危害
研究报告指出,这种对否定词的误解在医疗场景中可能产生尤为明显的潜在危害。例如,AI可能误解“no fracture”(无骨折)或“not enlarged”(未增大)等表述,从而导致严重后果。

三、问题根源:训练方式
IT之家援引博文介绍,问题的根源并非数据不足,而是AI的训练方式。斯坦福大学深度学习兼职教授Kian Katanforoosh指出,大多数语言模型依赖模式预测,而非逻辑推理。这导致AI在面对“not good”时,仍可能因“good”一词而误判为正面情绪。

四、专家观点与挑战
专家强调,若不赋予模型逻辑推理能力,类似细微却致命的错误将持续发生。Lagrange Labs首席研究工程师Franklin Delehelle也表示,AI擅长模仿训练数据中的模式,但缺乏创新或处理训练数据之外情境的能力。

研究团队通过合成否定数据尝试改进模型,取得初步成效,但细粒度的否定差异仍具挑战性。

五、解决之道
Katanforoosh警告,AI对否定的误解不仅是一项技术缺陷,更可能在法律、医疗和人力资源等领域引发关键错误。他呼吁,解决之道不在于堆砌更多数据,而在于结合统计学习与结构化思维,提升模型的逻辑能力。

总之,MIT的这项研究揭示了AI在处理否定词方面的不足,并强调了提升模型逻辑推理能力的重要性。这一问题的解决将有助于提高AI在关键领域的可靠性和安全性。

作者:恒行娱乐




现在致电 xylmwohu OR 查看更多联系方式 →

COPYRIGHT 恒行娱乐 版权所有