LLM(大语言模型)无法对数字进行准确运算的底层原因是什么?
作者:卡卷网发布时间:2025-01-09 18:34浏览数量:105次评论数量:0次
来,告诉我:
21390171757326289237901831890170857902830328917157823801930189127597129380129301293129048395737812637617536880850193019
*
4812957125635164678195918609126749471632164085096395729738163761248093289979175816836218638126816836186381215635801930
=多少?
给你1秒钟时间,写出答案。
现在你知道为啥大模型不擅长数字底层运算了吧?这能擅长不有鬼了?直接zeroshot出数字,还是从头上开始出,这要是每次都是100%,那这个世界早没人类什么事情了。这就是三体人来降维打击了。
人类解决这类问题也是依抽取模式,然后调用外部工具解决。只不过最开始人类的工具有点蠢,是竖式乘法。那大模型调用python解决问题,本质上也是一回事。
数学与逻辑的本质,不是算数,而是模式。这也是为什么russel要花几百页在他的principalmathematica里面证明1+1=2这个问题。而之所以LLM不擅长数学,并不是因为LLM不擅长文本,而是因为数学文本对自然语言文本太少了,且很多背后不是模式,而是算式,因此LLM学不到什么东西。如果说LLM无法学到小概率的分布,那是太天了。因为LLM动辄10w+的词表,自回归生成1000个词,如果是随即鹦鹉,那么这概率打出合理的文字就是不可能的。因此但凡给足够的数据,LLM做数学题也绝对不在话下。
不过人类也不擅长数学,理由同上。数学不是人类常最经常使用的东西,不擅长情有可原。
免责声明:本文由卡卷网编辑并发布,但不代表本站的观点和立场,只提供分享给大家。
相关推荐

你 发表评论:
欢迎