我先说明,我不是在谈人工智能能够变成人类。
我谈的是人工智能在学习超越人类。
机器在学习
在探究人类与人工智能差异的时候,有些人会表示人类在创新、思考深度和思考决策上的不可替代性。然而,这些看似专属人类的特质或许并不是不可模仿的。在给予机器适合的算法、大量的数据和足够的强化训练后,他们极有可能达到高效的模仿并从而被赋予自主思考和决策能力,成为高水平接近人类的智能形态。但相反的,人工智能的特点,单就是在短时间内分析海量数据的客观性这一点上,却已是令大多数人类望而却步的领域。纵使互联网和端媒体的普及性加快了我们汲取新事物的速度,但可惜的是,我们或许没有足够的时间去消化他们。这么以来,触手可得的知识反倒让我们在深度思考上逐渐变得懈怠、缺乏批判性思维,我甚至觉得它是使得我们知识储备变得局限的罪魁祸首之一。
饭吃太多会失去味道
说到这里就不得提一提,近年大热的ChatGPT。ChatGPT因拥有丰富的知识储备和逻辑能力而广受人们欢迎。它面向大众的诞生和切入角度非常有效地弱化了我们对人工智能的反感。在工作中,它是帮助我们化繁为简的好工具,允许我们将时间放在处理更复杂的事情上。在学习中,它是方便我们寻找答案的好出口,能快速解答多数问题并给出相对完美的答案。它给我们生活中带来的便利促进了我们对这类工具的信任。在使用ChatGPT的过程中,我们的数据在有意识地被收集采纳,并通过不断地验证和提取让人觉得可信的信息去完善和加强它的处理系统。简单来说,ChatGPT是我们所有人参与的一个大项目,它在日夜不知疲倦地学习、更新以至于它给出的答案愈发地令人信服,而我们都在帮助训练这个人工智能并且逐日对它产生不可遏止的依赖。
那么,轻而易举获得答案的我们,是已经形成思考上的惰性?
如果我们想偷个懒,不再验证人工智能给出的答案,那就代表人类的思想开始被人工智能操控了吗?
思考里的自由意志
计算机科学之父阿兰·图灵因保密的工作性质和与大众不同的性取向,发现自己经常陷入模仿游戏中。例如他假装喜欢女生,假装不是从事军事解密工作。长期压抑的心理使得他经常思考自我的自由意志问题:人类的偏好是否一开始便已经像是机器般设定好了。
于是,图灵在1950年发表的 “计算机器与智能” 的论文上提出了,以图灵测试来验证机器是否拥有思考能力:在没有外界干扰的情况下,向机器和人发放一系列的问题。假如机器和人脑的输出是相同的,那么我们就再也不能否定机器的思考能力。
但这一论点却遭到了许多人的否定。人们认为机器只能在最大程度上模仿并且迷惑人类。它们难以超越人类,因为它们在学习思考的过程中,将会遇到的许多障碍,例如死亡和情感,它们因无法产生共情和畏惧而无法获得自主意识。再例如人类自由语境的变化,缺少感知,但拥有固定死板的学习模式或许会使机器在语言理解上有一定的局限性。
先来谈谈死亡与情感。
在海德格尔看来,人类对死亡不可替代性的意识,和死亡的终结意识是让人类领会到本身意义的独特因素,而不死的机器显然无法自然对这一点产生体会,于是它丧失了自我认识的不可替代性。另外,麻木的机器不会对外界的刺激反应。因此它需要人类为它输入、更新畏死的概念和反应才能持续地意识到自己的脆弱性,并借此提高系统的完整性和适配性。而情感。这是最属于人类的特征,也是在人工智能和人类的差别化讨论中最难以反驳的论点。在普通的环境下,人们会被日常琐碎平庸的事物冲淡对存在意义的思考,海德格尔称这一现象为 “常人”。“常人”的表现是人云亦云,失去个体的独特性和主见。但“常人”在特定的场景挑战中,却会因为产生应激情绪,调动情感并结合所有认知资源去解决当下遇见的难题,成功做到这一点将会是人工智能面临的最大挑战。
其次是语言感知。
自由语境的变化在机器上实现的困难来自于,它是人类与环境不断的磨合与调整后,与其他人达成的默契交流。在人类世界里,存在着很多无法用具象符号代表的意思。相同的单词应用在不同的场合下有不同的意思,因此,书面解释在很多情况下或许无法真正表达交流者的意思。
但这些,在日后真的会是阻挡人工智能朝高智发展的挡路石吗?
机器成为与人类相似的智能形态的概率
我只能说,在大数据爆炸的时代里,人工智能拥有非常肥沃的学习资源田地。他们的终点不一定是停在成为类人类这里,或许是更远。比方说,成为另一种物种,形成自己的社会和制度。