游客发表
出品|网易科技《态度》栏目
作者|宗淑贤
编辑|丁广胜
前几日,数学师教频频霸榜的都体的和综艺《歌手》又一次冲上了热搜。不过这次,育老昭通市某某计算机维修网点话题的模型焦点无关“好听”“难听”,而是翻车从台上竞演的嘉宾转移到了台下讨论的网友身上。
13.8%和13.11%哪个大?
谁也没有想到,都体的和这道本质上源于小学四年级数学内容的育老问题,居然难倒了一众网友。模型
对此,数学师教有网友感叹:“现在知道天天在网上抬杠的都体的和都是什么人了吧?”也有网友无奈回怼:“实在不知道谁大谁小,就去问问AI吧!育老昭通市某某计算机维修网点”
然而,模型当你真的翻车把这个问题抛给AI来解答,你会惊讶地发现——AI也不会。
AI2的研究员林禹臣在推特上贴出了自己用GPT-4o尝试的结果。面对13.11与13.8哪个大这一问题,GPT-4o认为13.11大于13.8,并解释称:“虽然13.8看起来更大,因为它小数点后的数字更少,但13.11实际上更大。这是因为13.8相当于13.80,而13.80小于13.11。”
对此,林禹臣评论说:“常识对AI来说仍然很难。”“这种常识性的人工智能失败案例让我不断想起@YejinChoinka的TED 演讲:为什么人工智能既聪明无比,又愚蠢至极。”
一、大模型的作答现场
带着这个问题,我们对当下主流模型进行了简单的测试。其中,通义千问、文心一言、360智脑、字节豆包、百小应、有道小P和讯飞星火都作出了正确的回答。不过在原因解释方面,讯飞星火略显逊色,其余模型则都是按照分开比较整数和小数部分的思路进行了较为详细的回答。
通义千问
文心一言
360智脑
字节豆包
百小应
有道小P
讯飞星火
而月之暗面旗下的kimi和ChatGPT在这一问题上则双双翻车。
当kimi被问到“13.11和13.8哪个大”时,它首先给出了13.11大于13.8的答案:
经过进一步追问原因,kimi转而又作出了截然不同的回答:
经过第三次追问,kimi终于意识到自己在此前的回答中存在错误,对这一问题的答案进行了修改纠正:
反观ChatGPT,就显得不甚善于反思:
经过两次反问,ChatGPT表示自己对此前错误的回答感到抱歉,并承认13.8大于13.11。但当询问它能否解释原因时,它却给出了这样的回答:This is because the number 13.8 is read as "thirteen point eight," which is larger than "thirteen point eleven".
二、大模型为什么会“数学不好”
回答不好小学生数学题,人工智能大模型又一次被送上了舆论的风口浪尖。面对现今蓬勃发展的各类大模型,人们仍有疑虑:
这到底是人工智能,还是人工智障?
实际上,这一问题并不是最近才出现的,“数学不好”一直是各类大模型的短板。根据上海人工智能实验室旗下司南评测体系OpenCompass进行的高考全卷测试结果,包括GPT-4在内的七个大型人工智能模型在高考语文和英语科目的测试中普遍表现出色,然而在数学科目上则均未能达到及格线,最高分也仅达到了75分。
业内人士将大模型“数学不好”的问题根源追溯至LLM(大型语言模型)的架构设计本身。
LLM通常依赖监督学习,特别是通过预测文本中下一个词的方式来训练。这一过程中,模型被投喂海量的文本数据集,学习并预测给定文本后下一个词出现的概率分布。通过不断将模型的预测与实际文本进行对比和调整,语言模型逐渐掌握了语言的内在规律,从而能够预测并生成连贯的文本。
然而在LLM的框架内,存在使用Tokenizer这一关键环节。它负责将输入的文本分割成更小的单元(tokens),以便模型处理。问题在于,Tokenizer的设计初衷并非专门服务于数学处理,因此在处理包含数字的文本时,可能会将数字看做文本字符串而非数值,从而进行不合理地拆分,导致数字的整体性和意义在模型内部被破坏。
对此,360CEO周鸿祎以9.9和9.11为例,进行了更为通俗的解释:
“大模型全称叫大语言模型,它首先解决的是对人类自然语言理解的问题。所以大模型并没有把9.9和9.11当成一个数字来看,而是把它们分成了两个token。没有经过专门特别的提示和训练,大模型是不懂阿拉伯数字也不懂数学的,所以大模型是按照一个文字的逻辑来进行比较的。9前面是一样大的,那么11比9要大,所以就得出来9.11比9.9要大。”
除了架构设计存在不足外,大模型“数学不好”或许还与它所接受的训练方式有关。主流模型的训练主要源于互联网的文本数据,这类数据中数学问题和解决方案相对匮乏,也在一定程度上限制了模型在此类技能上的发展。
因此,在各类大模型井喷式诞生与发展的现在,也许我们也应当反思:AI该如何进一步设计与训练,才能真正像人类一样思考?
延伸阅读随机阅读
热门排行
友情链接