卡卷网
当前位置:卡卷网 / 每日看点 / 正文

LLM(大语言模型)无法对数字进行准确运算的底层原因是什么?

作者:卡卷网发布时间:2025-01-09 18:34浏览数量:105次评论数量:0次

来,告诉我:

21390171757326289237901831890170857902830328917157823801930189127597129380129301293129048395737812637617536880850193019

*

4812957125635164678195918609126749471632164085096395729738163761248093289979175816836218638126816836186381215635801930

=多少?

给你1秒钟时间,写出答案。

现在你知道为啥大模型不擅长数字底层运算了吧?这能擅长不有鬼了?直接zeroshot出数字,还是从头上开始出,这要是每次都是100%,那这个世界早没人类什么事情了。这就是三体人来降维打击了。

人类解决这类问题也是依抽取模式,然后调用外部工具解决。只不过最开始人类的工具有点蠢,是竖式乘法。那大模型调用python解决问题,本质上也是一回事。

数学与逻辑的本质,不是算数,而是模式。这也是为什么russel要花几百页在他的principalmathematica里面证明1+1=2这个问题。而之所以LLM不擅长数学,并不是因为LLM不擅长文本,而是因为数学文本对自然语言文本太少了,且很多背后不是模式,而是算式,因此LLM学不到什么东西。如果说LLM无法学到小概率的分布,那是太天了。因为LLM动辄10w+的词表,自回归生成1000个词,如果是随即鹦鹉,那么这概率打出合理的文字就是不可能的。因此但凡给足够的数据,LLM做数学题也绝对不在话下。

不过人类也不擅长数学,理由同上。数学不是人类常最经常使用的东西,不擅长情有可原。

END

免责声明:本文由卡卷网编辑并发布,但不代表本站的观点和立场,只提供分享给大家。

卡卷网

卡卷网 主页 联系他吧

请记住:卡卷网 Www.Kajuan.Net

欢迎 发表评论:

请填写验证码