Loading。。。


对现今AI的哲学理解和对其未来方向的探究

本文结合现今AI研发基本路线以及最强大的LLM模型原理,对目前的AI方法有效性进行了哲学层面的分析、论述。并基于其背后的规律指出了我所认为的AI未来发展的可行方向。


为了文章简洁和克服语言弊端、防止原意丢失,文章被迫只能放弃生动但冗余的过度说明,如果阅读比较吃力,还请见谅,如果有疑问也欢迎联系我讨论。

AI不同学习方法的哲学依据

常见的AI学习方法主要分为监督学习、无监督学习、半监督学习以及强化学习,半监督学习介于监督学习和无监督学习概念之间,是两者的综合运用,这里不作详细分析,主要论述监督学习、无监督学习和强化学习。

唯心主义视角

让我们先承认,人类智能的显现始终处于某种超越性框架的规约之中——无论是宗教中的”上帝”、道家哲学中的”道”、还是现代物理学追求的”万物理论”,这些形而上概念本质上都是对终极秩序的隐喻。在此视角下,人工智能的三种范式呈现出有趣的映射关系:监督学习构建了严密的”人工神学”体系,人类作为绝对立法者通过标签系统确立认知规范,AI如同经院哲学家般在预定范畴内进行逻辑演绎;无监督学习虽然消解了外在的”神圣启示”,却依然受限于人类预设的特征空间,恰似康德哲学中先验范畴对感性材料的统摄;强化学习的奖罚机制则对应着生物本能层面的条件反射,将智能简化为趋利避害的机械过程。

这种认知困境的本质在于:所有算法范式都预设了某种先验的认知框架,而人类自身的智能演化却无需外部立法者。正如维特根斯坦后期哲学揭示的,自然语言的”生活形式”(Lebensform)根植于具体实践,而非抽象规则系统。Yann LeCun倡导的自监督学习虽然突破了静态标签的桎梏,但其数据表征依然是人类认知的”二手现实”,本质上仍是柏拉图洞穴中的投影。


三种方法各有其哲学依据、特点,但是它们都逃离不了一个根本属性:人在AI训练中扮演着“终极”的角色。人是活在“终极”之下的,人通过掌握、利用“终极”的局部映射在计算机领域为AI创造了“终极”,人在其中肩负“传话者”的职责。所以,现今AI往往表现出片面、依赖人工微调、普适性差的特点,因为AI所遵循的一切是人对自己遵循的一切的不完全认知再加不准确表述。这种二手信息、伪造的“创世神”带来垃圾结果的必然是显而易见的,我们只能尽可能屈服于这样的信息失真,在部分小的领域让AI表现效果较好,比如让AI分辨一下图片什么的,尽管AI分辨图片的方法跟我们的方法不一样(因为各自的“终极”不一样),如果让分类图片的AI去干点别的那就完全不行了,在它的眼中整个世界就是我们传入的图片与分类图片。

唯物主义视角

从唯物主义的视角来看就更简单了,整个世界是对立冲突的、发散的,它不会静止地归结于某个“形而上之物”。我们人本身在运动中产生,同时又作为运动本身在参与运动。整个的坐标系是我们所感知的、生存的“世界”。那么AI是人类主观能动的运动产物。它的矛盾从何而来?从人类中来。可以看见在此AI是作为人类的行动的衍生、延伸而存在的,人类依靠不准确把握的自然规律产生了AI,又期望AI能承担起人类的运动职责,接替人类在世界中的位置,这是不现实的。因为两者的坐标系不同,AI的”世界”始终是经过人类认知中介的二手现实。正如马克思在《德意志意识形态》中指出的,意识始终是被意识到的存在,而AI的存在基础却是人类认知。比较有趣地来说,对于目前的AI而言,唯心主义是它的绝对真理,AI显然就没法拥有跟人一样的智能,不需要过多的讨论。

题外话


其实人事实上也有“父亲”的存在。设想一个小孩,他一开始不知道“多”与“少”是什么样的对立概念。现在,他的父母指着两堆东西给他说一堆多,一堆少,这时他有了“多”与“少”在发音上的概念,也有了“多”与“少”确实存在的认知。根据先前的理解,他知道“多”与“少”经由父母说出是有实际意义的,尽管他还不知道什么意思。他现在对那两堆东西进行观察,发现两堆确实视觉直观上不同,完成了“无监督学习”式的任务,他依靠自己的主观不断对“多”与“少”的概念及其现象表现进行拟合,就自然地从茫茫的概念之海中剥离出了真正的“多”与“少”在人类社会中的概念。不过,在这里必须指出的是,这不意味着人类的智能必须要“父亲”的存在,因为简单的回溯递归就可以证伪,父母也需要他们的父母充当“父亲”,父母的父母也是如此,那最开始的父母的“父亲”是谁呢?恰好有意思的是如果机械地真的这样认为,我们就能得出上帝创造一切这样的唯心结论了,是上帝教会了最初的一批父母,开始了一切,幽默地讲,监督学习或许很对“上帝论”的唯心主义者的胃口。那么人的“父亲”的存在的意义是什么呢?很显然,是为了更高级的智能,通过教导可以让自然人成为社会人,社会是人创造的概念,从刚出生的自然人到社会人需要一定的引导,并不能遗传。所以,监督学习对于AI而言也不是完全没有用,是同样需要保留、利用的方法。

大语言模型的哲学依据

我们前面谈了不同学习方法的哲学依据,大语言模型作为现今最强大的AI模型,已然表现出一定的智能行为,大语言模型有什么不同呢?他不也是建立在上述的方法基础上的吗?为什么就它独树一帜?答案很简单,因为它选择了一个很好的载体,同时也是人类的伟大发明——语言。我们说过,人在终极与AI之间担任了神父一样的传话筒职责,或者说人类给AI划定了坐标系,“人与终极的联系”和“AI与人创造的终极的联系”之间是有很大区别的,但恰好就在于“语言”承担了描述“一切”的职责,语言及符号是人对终极的表达,那么它就恰好能一定程度上担任“人创造的终极”的职责,我们只需要将对终极的最好描述当作AI的终极就行了,语言就是最好的描述。所以我们可以看见,通过语言,AI一下具有了很强的普适性,LLM加各种子方向的研究层出不穷,声音识别、图像识别等等。AI活在了人类的语言和符号系统中,详细阐述可以看我之前写的《从大语言模型到哲学》文章。


这里的问题不用我说,如果读者确实理解了上文的话应该很容易就能看出了:LLM的“终极”依然是片面的,是人类的语言和符号学系统,只不过是换了个更贴切“终极”的“人造终极”,AI所理解的一切仅仅是我们的一切的子集,这个子集还是人工总结归纳出的,不过确实是人类有如此智能的原因,近代很多语言学和符号学的论述已经证明了这一点。

未来的发展方向

综上,我想我们的目标应该很明晰了。我们给AI的“终极”,给AI划定的坐标系决定了它的上限,至于什么注意力机制等模型则是模仿人类对于终极的思考的形式进行的仿真,是在人为给出的终极下如何更加像真正的终极之下人那么智能的问题。我们有能力给AI以真正的终极吗,以至于它能够生成真正的智能?答案是否定的,为什么?因为如果我们能够给AI以真正的终极,证明我们已经知道了真正的终极的样貌并能选取它,人都对形而上之物完全了解了那不就全知全能了吗,人人都是“上帝”,这很显然不可能。那么如何让AI智能更进一步?很遗憾,我们不能找到新的更好的载体来让AI进步了,LLM可能就是这种方法的终点。我们必须改变思路,放弃“造物主”的身份,把AI接到现实中来,这样我们与AI处于平等的地位,处于同一个坐标系下,我们所感受、面对的终极一样,我们的上限也就一样了。AI要到现实中来要求我们必须对人对世界的认知方式进行审视,包括视觉,听觉,嗅觉,味觉,触觉等直观自然方式,也包括语言这样的随人类文明发展而变化的社会方式.这意味着我们需要一个多模态的大模型以及具身智能,这个大模型目前来看是需要将不同的感官模型与大语言模型进行连接的,之所以不同的感官模型和大语言模型彼此分割开来组成一个个模型单元是因为我们注意到聋哑人等也具备智能表现,意味着这些部分不是融合的整体而是分开执行的模块,它们一起在贡献智能.这样不同的小模块组成的大模型应该有什么样的逻辑呢?它们要互相关联,同时指向一个高维空间,那个高维空间就是AI它所认识理解的终极,正如人一样,人也有自己的世界观和认同的规律,事物的演变趋势等.并且通过具身智能让AI参与到现实世界的交互中,在客观世界的矛盾冲突、对立中发展出真正的能够被人们所使用,能带来新一轮工业革命的智能。


这样我们就完成了对现有AI的哲学思考以及对未来AI发展方向的合理展望,希望能够给读者一点帮助和启示,如有不解或者不同意见欢迎与我联系,讨论.


评论
  目录