人工智能真的会替代人类吗?
如果你询问人工智能这个问题,它通常会用“情感模块”作为标准答案来回复你——人工智能因为缺失情感模块,所以暂时无法替代人类的情感、创造力和想象力。是否这意味着,人工智能一旦拥有了情感模块,就会超越正态曲线最中段的大部分人类?人类与人工智能之间的暧昧关系,最终具象化为人类、人工智能和电源插头的关系:人类制造了它,最终也拥有拔掉插头的最终决定权。这一天终会来临,我们可以通过人工智能看懂异国的文字,甚至是理解那些创造性的想象力和复杂的情感,再次突破语言、文化和意识的限制,这是否会成为人类历史上的第二座“巴别塔”?
AI的普及:让人类更聪明还是更蠢?
前段时间和朋友聊起“AI会不会使人类大脑的开发超越10%”。或许认知的“巴别塔”一直都存在,只是人类的认知水平(或许是大脑只开发了10%)最高只能抵达10楼。然而,目前AI仍然是通过对人类已有文明、信息、观点进行排列组合得出最优答案,它并没有超越人类的认知创造新的事物。因此,AI更像是为这座“巴别塔”安装了1-10楼的电梯。11-100楼到底有什么东西,或许有人看见过,但他们可能被当成疯子、瘾君子,不再配得起“人”这个标签。是不是人类无法进入11楼?我看未必,或许是我们被禁止入内了。
测试与争议
上次在文章里,我测试了发布日当天各个中文博客聚合页面里,包括我自己在内的随机10篇文章。测试方法很简单,就是把文章投喂给ChatGPT,询问它文章是否是由AI创作的。10篇文章中,有7篇得到了ChatGPT的回复:
基于以上分析,这段文字可能是AI生成或AI参与制作的。虽然不能百分之百确定,但文本的结构、语言风格和内容处理方式都具有典型的AI生成特征。如果需要进一步确认,可以通过使用专门的AI检测工具来分析。
结果,在评论区有人匿名指责我:博主拿别人的文章去AI测试这个行为很不可取。
为什么?是因为测试的行为不可取,还是因为人们通过AI创作文章之后被人用来测试的行为不可取?这段时间,我也在思考这个问题。
首先,我排除测试行为不可取的选项,因为在公共网络发布的文章,读者当然可以保持批判性思维,采取任何形式的方式去验证“信息来源”的真伪性。如果文章确实是通过AI创作或由AI参与创作的,这类文章应该如何界定?
对AI创作的态度
我不反感AI创作的文章,但凡涉及“文献”、“信息来源”的内容,如果仍然使用AI得出答案,我会非常头疼。因为AI能够给出的“来源”常常是过时的或胡诌的,一般追问三次以上,它就会承认自己是杜撰的文献或信息来源。它确实可以用来溯源“理论”,但对于“观点”的溯源会因为内容杂乱而变得无序。
观点的呈现往往需要“证据”。除非采用“演绎法”,大前提是大家公认的,或是可以通过AI溯源到原始理论的。“归纳法”则需要大量的历史经验和真实经历来作为支撑,以便找到可供归纳的“共性”,然后得出一个存在可能性的结论。这时,便是AI无法“创造”的内容——因为个人经验和经历不仅仅需要调动记忆,还需要附着人类的情感模块才可以得到呈现。这也是AI判定文章是否由人类创作的重要标准。
因此,采用“归纳法”呈现的文章,如果其中有AI参与,会有两种明显的差别:
事实来源于人类,结论由AI总结;
事实来源于AI,结论由人类总结。
这两个模块的文笔差别有多大,文章读起来就有多割裂,以至于会出现两种极端情况:
人类写了一大堆缺乏逻辑的文字,最后由AI进行一个总结和观点的拆分,但这些观点其实都不是人类提到的;
人类没有做采编工作,通过AI收集了一些明显存在常识性错误的数据,然后最后由人类通过AI提供的内容得出结论。
请注意,我说的是“极端情况”,并不是指每个通过AI创作或利用AI创作的内容都会有这两种情况。讨论极端情况的目的,是为了在一个坐标轴上寻找到某种平衡点。上述两种类型的文章,哪一种会让你看完后更“冒火”?
第一类文章虽然逻辑性差了点,但经验经历都来源于一个活人,虽然文章结尾突然立意拔高让人有点割裂,但至少还有“人的属性”。然而,第二类文章无论如何都触碰到了我对“信息来源”的苛责底线,这就好比实验结果和实验过程互不相干、彼此造假,但实验者自己深信不疑。
AI参与创作的边界
和朋友讨论起这两种极端情况的感受,他如是回答:
除这两个极端以外,AI参与创作本身并没有对与错之分,所以这个我被指责“不可取”确实成立部分。
如果文章大部分内容是“真实经历”,AI只是起到一个重新排列组合并得出结论的工作,那AI并不会导致文章的真实性降低多少;
当然,如果文章大部分内容是AI提供的“事实依据”,而创作者仅仅只是起到“结尾立意”的工作,这个行为跟通过AI创作一大堆网络垃圾文是没有本质区别的。通过AI判定揪出这样的文章,我认为这是寻求“真相”的过程;
如果是将他人文章投喂给AI,试图通过AI的排列组合功能,将原本富有真实情感、创作意图、甚至是隐喻的文章通过冷冰冰的文字组合重新解构,那这是对创作者的不尊重;
这也是《AI巴别塔与信息焦虑》这个系列开始的原因——AI和创作的边界在哪里?随着AI的推广普及,无论是变成算法进入我们依赖的电子设备功能,还是依赖AI成为一种新式的结果搜索引擎,它不再像刚开始出现时有强烈的“边界感”。这种边界扩张是无法预判的,但也实际带来了“不便”——比如在使用搜索引擎的时候,通过AI排列组合的答案首当其冲,真要完全相信里面的内容,自己还得再做好几个后续“溯源”的动作。
我无法做到对AI结果的全然相信。这件事用演绎法就可以说清楚:
大前提:网络信息并不全部为真,里面也掺杂过时信息、谣言、阴谋论等未经审查的内容;
小前提:AI的所有内容均来源于互联网,虽然有判定和学习机制,但AI也承认无法完全避免;
结论:AI所提供的信息也会包含过时信息、谣言、阴谋论等未经审查的内容。
显然,这是一个确定的结论。尽管有这些机制,AI仍然可能误判信息的真伪。尤其是在面对复杂、模棱两可或高度技术化的信息时,AI的判断可能并不可靠。
ChatGPT也承认自己对信息辨别能力有限:
这便是“信息焦虑”的来源之一——AI让创作变得更加容易,那未经审查的伪装得更符合人类逻辑性的文章会不会越来越多?这反而会降低人类处理信息的效率,甚至是人类对这些信息产生依赖之后,反而会出现“降智”的可能性?
混沌与秩序
AI因为拥有大量的、远超过单个人类知识体系的信息,它的初始状态是无序复杂的。同时,AI作为一个商品,其算法、底层代码本身也是非公开技术,所以对于一般人而言,它的随机性和不可预测性远超过人类的“创作”。由此可见,AI仍是“混沌”的,只有通过人类提问、交流的方式,才可以得出“有序”的排列组合。然而,人类的创作是“秩序”的,无论是逻辑、结构、剧情节奏、人物弧光,只有符合逻辑但又超出意料之外的故事,才会让人为之惊叹。
当“混沌”的AI和“秩序”的创作星系碰撞,在混沌秩序的模糊边界处,往往就是最具创造力和活力的地方。恒星诞生、星系纠缠、白矮塌陷、超新星爆炸……在这个最有活力的地方,或许创造出来的是越来越多的“宇宙垃圾”,也有可能是超越人类认知的“星辰大海”。
但在此之前,我们先别丢掉对一个信息溯源的批判性思维。