MIT新研究指出AI不懂“no”,逻辑推理缺陷导致否定词成“盲区”
日期:2025-05-25 17:50:42 / 人气:34
5月22日消息,麻省理工学院(MIT)的最新研究揭示了人工智能在理解否定词方面存在明显缺陷,这一问题在医疗等关键领域可能引发严重风险。
一、AI对否定词的理解缺陷
尽管人工智能已经快速发展,具备诊断疾病、创作诗歌甚至驾驶汽车等多项实用技能,但在处理“no”和“not”等否定词时却表现得束手无策。在博士生Kumail Alhamoud的带领下,MIT团队联合OpenAI和牛津大学进行研究,发现包括ChatGPT、Gemini和Llama在内的当前主流模型,在处理否定语句时,常倾向于默认肯定关联,忽略否定语义。

二、医疗场景的潜在危害
研究报告指出,这种对否定词的误解在医疗场景中可能产生尤为明显的潜在危害。例如,AI可能误解“no fracture”(无骨折)或“not enlarged”(未增大)等表述,从而导致严重后果。
三、问题根源:训练方式
IT之家援引博文介绍,问题的根源并非数据不足,而是AI的训练方式。斯坦福大学深度学习兼职教授Kian Katanforoosh指出,大多数语言模型依赖模式预测,而非逻辑推理。这导致AI在面对“not good”时,仍可能因“good”一词而误判为正面情绪。
四、专家观点与挑战
专家强调,若不赋予模型逻辑推理能力,类似细微却致命的错误将持续发生。Lagrange Labs首席研究工程师Franklin Delehelle也表示,AI擅长模仿训练数据中的模式,但缺乏创新或处理训练数据之外情境的能力。
研究团队通过合成否定数据尝试改进模型,取得初步成效,但细粒度的否定差异仍具挑战性。
五、解决之道
Katanforoosh警告,AI对否定的误解不仅是一项技术缺陷,更可能在法律、医疗和人力资源等领域引发关键错误。他呼吁,解决之道不在于堆砌更多数据,而在于结合统计学习与结构化思维,提升模型的逻辑能力。
总之,MIT的这项研究揭示了AI在处理否定词方面的不足,并强调了提升模型逻辑推理能力的重要性。这一问题的解决将有助于提高AI在关键领域的可靠性和安全性。
作者:恒行娱乐
新闻资讯 News
- 《扫毒风暴》:周少雄杀妻灭子的...07-25
- Lisa 的圈层困境:主动付出难破...07-25
- 舒淇:从“风月明星”到国际导演...07-25
- 75 岁黎彼得仍在拼命:当港星传奇...07-25