AI与唯物主义
概述
当今AI的发展速度超过了人们的想象,诞生出了以大语言模型为首的一系列高级AI模型。它们已经能够完成任意情景的对话、文字生成图片、文字生成视频等工作。但显而易见的,如今的AI仍然缺少某种“灵魂”,只是对人类行为的暴力近似。给予机器以“灵魂”是AI发展路上必须克服的阻碍。
在展开话题之前,我们必须明白,我们之所以认为AI是可能的,是因为我们认为人类的行为、思维是物质的。也就是说人类的所有并没有某种不可言说的东西在左右,是客观可知的。也就是说,我们通过计算机实现AI,一定是建立在唯物主义上的,这也就意味着,我们可以从唯物主义的哲学观、对“人”的看法中明白AI所要实现的东西。
接下来将首先指出辩证唯物主义与AI的紧密联系,然后对其中的一些现象进行详细分析。
AI与唯物主义的联系
物质与意识
辩证唯物主义认为物质决定意识,人的意识是对客观实在的主观映像。并且这种映像驱使人们去与世界进行交互,从而影响客观世界。这代表客观实在相当于通过了某种函数存在于人脑中,x为客观实在,f(x)为输出在人脑中的主观映像,每个人的f都因为他们的三观、经验等不同而不同。从而可知,意识其实是可以被解释的,并且可以被机器所用并改造世界的。
在《马克思主义基本原理》中,谈及人工智能时给出的了一个重要判断:“社会性是人的意识所固有的本质属性,而人工智能不可能真正具备人类的社会属性。人的意识是社会的产物。”人的意识来源于客观实在,客观实在又分为自然的和社会的。该书认为AI缺乏社会所以与人类有本质区别,难以成为独立的具有行为后果意识、自律意识和社会责任感的社会主体。此前,我写过的一篇文章中曾提到过构建AI社会的假想,让许多“独立”的AI在虚拟世界中交互,可以是一种解决方案。但是,这样形成的AI会以它们AI社会的标准为准则,不一定符合人类的情感等利益。所以更可靠的方法我也在另一篇文章中指出,可以尝试把AI接到现实世界中来,通过图片、声音、压力等传感器让AI在人类世界中进行交互学习,这样AI存在于人类社会当中,成为人类社会的一份子,自然就能解决机器缺乏社会这一问题。并且这样得到的AI也是符合人类各方面利益的AI。
该书还提到:“人类的自然语言是思维的物质外壳和意识的现实形式,而人工智能难以完全具备理解自然语言真实意义的能力”。这里提到语言无法被机器所完全理解,在我看来这句话是错误的。语言如他所说,不过是人类思维的一种表达,而之所以存在语言是正是因为人类无法直接交换思维。计算机不一样,计算机的思维以二进制存放起来,可以直接被交换,也就是说AI与AI之间沟通不需要语言,远比人类的沟通高效得多。并且语言作为思维的表达,这种模式是完全可以被学习的,只要对二进制的思维进行一个到文字的映射即可。至于很多人谈论的隐晦的表达、诗歌等语言,已经脱离了普遍意义上的语言范畴。为什么?因为这些语言早已不是思维交流的目的,而是涉及情感的方面,AI其实不需要(或者说不应该拥有)情感,情感会导致AI某种程度失控,没有必要学习。
同时,该书还说:“人工智能能够获得人类意识中可以化约为数字信号的内容,但人脑中总有许多东西是无法被化约的。”他这里以“潜意识”为例,说人会一瞬间对某种事物下一种判断而不需要逻辑推理,这种感觉不能用语言来形容,这种称为潜意识、直觉思维的东西是机器无法做到的。在我看来,这纯粹是作者对于AI不熟悉导致的误判。在这里我给出我自己的解释:潜意识不过是人脑长期以来形成的某种过拟合现象,它是一种惯性,导致人脑可以跨越逻辑推理那块神经网络直接通过一个称之为“直觉”的模块进行输出。直觉模块是长期习惯性思维过拟合导致的,就拿刚才的例子举例,之所以能对某个事物下快速判断,是因为你之前见过类似的或很趋向于某种行为,这其实是人类的一种缺陷。而人类之所以无法描述潜意识只能描述其心理状态那纯粹是因如上所说,人类的沟通能力有限,无法直接交换思维。你突然想不起来某件熟悉的事那也是因为人脑功能受限,它就是想不起来,这也是一种缺陷,AI完全没有意义(尽管可能)在这种缺陷上向人类学习。
事物的普遍联系和发展变化
前面讲了AI核心的问题–意识的问题,现在来到AI如何形成意识、理解世界的问题。
辩证唯物主义给出判断:事物处在普遍联系和变化发展之中。“当我们通过思维来考察自然界或人类历史或我们自己的精神活动的时候,首先呈现在我们眼前的,是一幅由种种联系和相互作用无穷无尽地交织起来的画面。”给出了联系的几大特征:客观性、普遍性、多样性、条件性。这摆明了人在认识客观事物时脑子里出现的是“图”这一数据结构,节点是客观事物,边就是联系。每个节点都有边与其他节点相连,每条边也有其对应的特征,任何节点都不孤立存在,任何事物内部的不同部分和要素之间都是相互联系的。这里隐含了很强的图的概念。举个基本的例子,一个水分子,它是三个原子相连的图,相互作用是边。这个三节点的图在与另一个水分子进行交互时,又可以视作一个整体节点,从而变成两个节点的图,每个节点是一个水分子,而一个水分子中的一个原子又可拆分为一个由原子核和电子形成的图,又诞生了一个新图。人就是在这样的图与图映射关系中对现实世界进行理解的。在这方面,图神经网络领域仍在探索,AI像人类一样理解事物也是可行的。
事物的变化发展是新旧更替的,新事物替代旧事物,这简单表明了在“认知图”中,各节点的特征和边是随时自更新的,是一个动态图。
否定之否定
那么图是如何更新的?“事物的发展是通过其内在矛盾运动以自我否定的方式而实现的。”事物先是否定自身现有的稳态,从而得到一个局部进步的不稳态,再否定不稳态,得到一个进步的稳态,反复这个过程,便叫做否定之否定。这与我先前另一篇文章所言思路很像,那篇文章以“青春期”为例,从人的独立意识如何诞生指出AI也应具备“叛逆”的属性。也就是说,AI得学会去尝试否定,这样才能有效更新图。
主观能动性
AI的创造力从何而来?现在的AI只会模仿和复现,缺乏创造力。创造力体现为主动改变,改变的方法我们在上文已经提到,那么如何让机器主动呢?首先我们回顾人类是如何主动创造的,以相对论的发现举例:狭义相对论的提出源于现有物理体系的自我矛盾,为了解决这一问题,对公式进行了修正诞生了狭义相对论,这一步创造力体现在公式的构造。广义相对论在狭义相对论上更进一步,为了进一步解释宇宙现象,扩展了引力的作用,这是一个大创新。现在回过头来看,这两种创新其实有一点区别,一个是现有知识推出的创新,一个是近乎凭空诞生的创新。现有知识推出的创新对于AI来说并不会很难,因为只是基本的逻辑推断,这种操作现在有些AI模型已经能够做到,其中“主动”也没发挥多大作用,我们只需让AI自己对知识库进行检查即可。难的是广义相对论那种“凭空”诞生的理论,纯粹主动创造的理论。这种主动从何而来?为什么会想到提出这样一种理论?这种主动性从一种需求中来,需求便是人类“想要”对宇宙的进一步解释,所以就去尝试各种方式来实现这一目的。那么很显然,我们需要让AI具有“需求”,但是AI本身没有需求,我们需要让他能理解人类的需求并满足人类的需求,所以,把AI接到人类社会中来再一次显得非常重要。
AI社会问题扩展叙述
为什么人类会诞生社会,因为人类没法作为单独的个体实现进步,必须得依靠集体的力量来满足人自身的需求和人类的进步。人作为一个个体能力是有限的,世界上少有全才诞生,大多数人一辈子只偏向于某一专业。从而划分出不同的职业,每个人各司其职在擅长的领域发光即可。而AI自身不需要社会,因为AI之间沟通是直接的无损的,并不需要社会这一复杂的模式来保障AI的运行,这代表建立一个超级AI才是最终目标。试想这样一种未来,各分布式设备上运行专精不同方面的AI模型,某个擅长蛋白质的预测,某个擅长文字生成图像,它们每天接触自己负责的领域,并相互通过网络连接起来,最终形成一个超级AI,这样的构思我认为比较可靠。避免了一个模型需要学习过多的知识的问题,也避免了在学习过多知识后模型欠拟合、表现奇怪的问题。
总的说来,哲学指导AI发展我多次提到,是有实际作用的,该文章写于想法产生后的几个小时,部分想法暂时想不起来了,后续有会继续补充。