别催~ 在加载了 . . .

对现今AI的哲学理解和对其未来方向的探究


对现今AI的哲学理解和对其未来方向的探究

本文结合现今AI研发基本路线以及最强大的LLM模型原理,对目前的AI方法有效性进行了哲学层面的分析、论述。并基于其背后的规律指出了我所认为的AI未来发展的可行方向。


为了文章简洁和克服语言弊端、防止原意丢失,文章被迫只能放弃生动但冗余的过度说明,如果阅读比较吃力,还请见谅,如果有疑问也欢迎联系我讨论。

AI不同学习方法的哲学依据

常见的AI学习方法主要分为监督学习、无监督学习、半监督学习以及强化学习,半监督学习介于监督学习和无监督学习概念之间,是两者的综合运用,这里不作详细分析,主要论述监督学习、无监督学习和强化学习。


让我们先承认,人是活在某种“影响”之下的,这种影响可以来自社会也可以来自于自然,但最终都能往上归结到一个“终极”上,这个终极是包含了一切超出了一切的。在不同的文化和思想中,它有不同的名字和呈现形式与实例化对象,比如“道”、“上帝”、“万物理论”等等。whatever,这样的一个“东西”是存在的,这就是形而上学的研究对象。人在某种影响、制约下通过对其的掌握、利用表现出了智能(我能在这里指出形而上之物的存在也是拜其本身所赐),这是客观事实。而监督学习是人为提供标签,机器根据人给出的标签去拟合一个复杂函数,从而完成预测等任务。这里人扮演的正是机器的“上帝”,人是AI的规则制定者,人通过标签、数据结构给AI划定了明晰的是与不是,以及一系列可能的关系,AI作为我们创造的世界里的“人”利用我们创造的拙劣的“规则”产生了智能。所以可以说,在这种学习方式下,逻辑学是AI所信奉的唯一真理,规则决定一切,人是AI万能的“父亲”、是“上帝”。但人事实上是活在终极所影响的世界中的,无需任何“父亲”告诉人如何去活,人依然能在自然界表现出智能。无监督学习抹去了标签,通过直接学习数据的特征来对数据进行分类,这里直接对应人对于自然、世界的纯粹理性过程,不过数据的特征仍然是人类提供的,还是人扮演“终极”的角色创造了AI的世界。强化学习是基于一定奖罚规则的刻板训练过程,它与生物的趋利避害现象对应,生物天然的趋利避害和繁殖行为可以视作奖罚机制,在其推动下可以表现出智能,这种思想很单纯易懂,但也十分片面,人不完全是由什么激素、生物上的奖罚规则定义的。综上我们可以看出,监督学习、无监督学习从哲学层面的理解上来讲比强化学习的前途要光明得多,事实上也确实如此,它们的发展速度已经远超强化学习。而监督学习始终需要一个“严厉的父亲”来指导工作,而人实际却没有什么“上帝”来教会他们智能,从这点来看无监督学习似乎比监督学习要更加光明一点,所以在实际工作中,如Yann Lecun等人主张抛弃监督学习,更加青睐于自监督、无监督学习.不过这样的认知也是比较片面的,无监督学习其本身所接受的东西也是人提供的数据及其特征,人还是扮演着终极的角色.


三种方法各有其哲学依据、特点,但是它们都逃离不了一个根本属性:人在AI训练中扮演着“终极”的角色。人是活在“终极”之下的,人通过掌握、利用“终极”的局部映射在计算机领域为AI创造了“终极”,人在其中肩负“传话者”的职责。所以,现今AI往往表现出片面、依赖人工微调、普适性差的特点,因为AI所遵循的一切是人对自己遵循的一切的不完全认知再加不准确表述。这种二手信息、伪造的“创世神”带来垃圾结果的必然是显而易见的,我们只能尽可能屈服于这样的信息失真,在部分小的领域让AI表现效果较好,比如让AI分辨一下图片什么的,尽管AI分辨图片的方法跟我们的方法不一样(因为各自的“终极”不一样),如果让分类图片的AI去干点别的那就完全不行了,在它的眼中整个世界就是我们传入的图片与分类图片。


题外话,其实人事实上也有“父亲”的存在。设想一个小孩,他一开始不知道“多”与“少”是什么样的对立概念。现在,他的父母指着两堆东西给他说一堆多,一堆少,这时他有了“多”与“少”在发音上的概念,也有了“多”与“少”确实存在的认知。根据先前的理解,他知道“多”与“少”经由父母说出是有实际意义的,尽管他还不知道什么意思。他现在对那两堆东西进行观察,发现两堆确实视觉直观上不同,完成了“无监督学习”式的任务,他依靠自己的主观不断对“多”与“少”的概念及其现象表现进行拟合,就自然地从茫茫的概念之海中剥离出了真正的“多”与“少”在人类社会中的概念。不过,在这里必须指出的是,这不意味着人类的智能必须要“父亲”的存在,因为简单的回溯递归就可以证伪,父母也需要他们的父母充当“父亲”,父母的父母也是如此,那最开始的父母的“父亲”是谁呢?恰好有意思的是如果机械地真的这样认为,我们就能得出上帝创造一切这样的唯心结论了,是上帝教会了最初的一批父母,开始了一切,幽默地讲,监督学习或许很对“上帝论”的唯心主义者的胃口。那么人的“父亲”的存在的意义是什么呢?很显然,是为了更高级的智能,通过教导可以让自然人成为社会人,社会是人创造的概念,从刚出生的自然人到社会人需要一定的引导,并不能遗传。所以,监督学习对于AI而言也不是完全没有用,是同样需要保留、利用的方法。

大语言模型的哲学依据

我们前面谈了不同学习方法的哲学依据,大语言模型作为现今最强大的AI模型,已然表现出一定的智能行为,大语言模型有什么不同呢?他不也是建立在上述的方法基础上的吗?为什么就它独树一帜?答案很简单,因为它选择了一个很好的载体,同时也是人类的伟大发明——语言。我们说过,人在终极与AI之间担任了神父一样的传话筒职责,“人与终极的联系”和“AI与人创造的终极的联系”之间是有很大区别的,但恰好就在于“语言”承担了描述“一切”的职责,语言及符号是人对终极的表达,那么它就恰好能一定程度上担任“人创造的终极”的职责,我们只需要将对终极的最好描述当作AI的终极就行了,语言就是最好的描述。所以我们可以看见,通过语言,AI一下具有了很强的普适性,LLM加各种子方向的研究层出不穷,声音识别、图像识别等等。AI活在了人类的语言和符号系统中,详细阐述可以看我之前写的《从大语言模型到哲学》文章。


这里的问题不用我说,如果读者确实理解了上文的话应该很容易就能看出了:LLM的“终极”依然是片面的,是人类的语言和符号学系统,只不过是换了个更贴切“终极”的“人造终极”,AI所理解的一切仅仅是我们的一切的子集,这个子集还是人工总结归纳出的,不过确实是人类有如此智能的原因,近代很多语言学和符号学的论述已经证明了这一点。

未来的发展方向

综上,我想我们的目标应该很明晰了。我们给AI的“终极”决定了它的上限,至于什么注意力机制等模型则是模仿人类对于终极的思考的形式进行的仿真,是在人为给出的终极下如何更加像真正的终极之下人那么智能的问题。我们有能力给AI以真正的终极吗,以至于它能够生成真正的智能?答案是否定的,为什么?因为如果我们能够给AI以真正的终极,证明我们已经知道了真正的终极的样貌并能选取它,人都对形而上之物完全了解了那不就全知全能了吗,人人都是“上帝”,这很显然不可能。那么如何让AI智能更进一步?很遗憾,我们不能找到新的更好的载体来让AI进步了,LLM可能就是这种方法的终点。我们必须改变思路,放弃“造物主”的身份,把AI接到现实中来,这样我们与AI处于平等的地位,我们所感受、面对的终极一样,我们的上限也就一样了。AI要到现实中来要求我们必须对人对世界的认知方式进行审视,包括视觉,听觉,嗅觉,味觉,触觉等直观自然方式,也包括语言这样的随人类文明发展而变化的社会方式.这意味着我们需要一个多模态的大模型,这个大模型目前来看是需要将不同的感官模型与大语言模型进行连接的,之所以不同的感官模型和大语言模型彼此分割开来组成一个个模型单元是因为我们注意到聋哑人等(无意冒犯)也具备智能表现,意味着这些部分不是融合的整体而是分开执行的模块,它们一起在贡献智能.这样不同的小模块组成的大模型应该有什么样的逻辑呢?它们要互相关联,同时指向一个高维空间,那个高维空间就是AI它所认识理解的终极,正如人一样,人也有自己的世界观和认同的规律,事物的演变趋势等.


这样我们就完成了对现有AI的哲学思考以及对未来AI发展方向的合理展望,希望能够给读者一点帮助和启示,如有不解或者不同意见欢迎与我联系,讨论.


评论
  目录