别催~ 在加载了 . . .

人工智能的随想和疑惑3


人工智能的随想和疑惑3

从人类智能引发的对于计算机智能的思考

最近常在思考何以为人,何以为人类文明社会中的人,人是何时开始成为一个真正的“人”的。是从一开始,从出生开始,每个个体在行为表达、认知方法、思维习惯等方面就存在不同吗?可能有不同。 但每个人从出生后,从母亲体内离开后,才第一次真正地处于这个世界,才开始与这个世界真正地进行交互,才开始”认识“这个世界。那么,一个人出生后的经历势必会对该人的成长产生影响,左右他的成长。

人是怎么成长的?身体的成长不必多说,遵循自然规律。思想的成长,成为独立的“人”的成长却牢牢受人类社会,人类这个群体的影响。以家庭举例,在当代社会,家庭是一个很重要的小集体概念,父母长辈承担了养育、教导子女的责任。并且是最先对一个崭新人类进行影响的“人为因素”。在这个过程中,子女会从长辈那学到基本的生存知识,以及部分不一定正确的自然、社会知识,形成最初的“三观”。而后随着长大,人们进入学校这种专门传授知识的地方重点学习自然、社会知识,在生活中也会根据“三观”对世界进行认识。可以看见,人在相当程度上会成为家庭、所处成长环境的缩影,这时的人不是真正的“人”,真正的“人”是独立的人。这时就不得不提到“青春期”这个备受讨论的话题,我个人认为,“青春期”是一个不太准确的名字(受自然、社会规律影响,大多数类似现象发生在“青春”、十几岁这个时期,故叫做青春期,尽管部分人的独立人格在很小的时候便能觉醒),它所指的阶段实质是个人意识产生的阶段,是人从被影响的人往独立的人发展的阶段,是真正成“人”的阶段。时常有家长反映,孩子到了青春期开始不听话,经常干出自己不理解的行为,并认为这是一个坏现象,并与孩子产生对立。这就是该阶段最大一个特点,受激素(可能)影响,青春期的人开始对已有知识和周围环境产生质疑,在质疑阶段结束后,产生求证的概念,并对已有知识进行更新。在质疑过程中,因为许多正确的被认为错误,父母、社会错误的正确被更正为正确的错误,所以表现出叛逆。而后求证阶段经过更正,大多数人的行为逐渐符合当代人类群体的基本认知,也即谓“成熟”。正是经历了这样质疑、求证的过程,人成为了真正的“人”,独立的“人”,有了自己的思想和三观。

结合人类智能的发展经历,计算机智能、人工智能的成长是否可以相似处理。父母、长辈、所处环境无疑代表一种权威。从权威处得到的知识在早期被几乎无条件接受,而在人工智能领域,监督学习可以被理解为权威授予知识的过程。在大模型中,人类群体担任这个权威。比如说,人从小被教育:“苹果是红色的。”那么,计算机就是被反复训练,致使计算机中苹果这个对象被赋予红色这个属性。再结合人自我意识觉醒的过程,人会开始质疑“苹果真是红色吗?”,我们也可以让计算机对已有知识进行质疑。接着就是求证,人们有不同途径进行求证,活在现代社会的你大概率会说:“这个简单,上网查一下:苹果是不是红色,就可以得到满意的答案”。这样得到的结果会被现代的大多数人所接受,但很遗憾,该结果仍然是权威授予的,说到底还是在监督学习之中,还需要有人来给出“标准答案”。很显然,这样的求证过程缺乏创造力,不可能每个问题都有权威来授予,就像人类不可能每个答案都授予AI模型一样。那么,人类最基本的求证方法是什么呢?看、闻、听、尝、摸。举个例子,当你漫步野外,发现一棵跟苹果树在外观很像的树时,你认定那是一棵苹果树。你走上前去,发现上面的果实有跟苹果一样的形状、大小,闻起来也差不多,摸起来也都是硬的。但是看起来是绿色,尝起来味道略有不同,但综合分析,你还是认为树上的果实是苹果。并且,你的求证有了结果了:“苹果不一定是红的,还可能是绿的。”看似简单的过程,对于从没见过绿苹果的人来说并不简单。先是通过交互,将树上的果实归为了苹果,接着才给出求证的结论。这个归属行为就很有意思,凭什么说这还是苹果,明明颜色不一样,味道也不一样。很简单,因为它们太像了,很难找到另外如此相像的事物,那我们就认为它们是同一事物的不同形态。再讲个很有意思的例子:一个小孩从出生就被教育:“马会飞。”他没见过马,但是知道了马会飞。某天他路过马场见到了马,但他不知道这是马,仅仅有动物这个概念,他只知道这是种他没见过的动物。并且看起来这种动物不会飞。于是他牢牢地记下了,眼睛里面看见的这个高大的动物不会飞,但跑挺快。马不会飞与“马会飞”在他的脑海中同时成立了,但其实马并不是“马”。除非有权威告诉他,这种生物是马,他才能进行纠错对比,迅速得出正确结果:马不会飞。权威授予的知识被淘汰了。可以看出,最基本的感官互动才是人类基础的信息来源,具有最大的权威,促成了人类的成长。

回到人工智能,人工智能如何自我求证呢?“上网搜索”,听权威的话已经没有了意义,因为一开始我们这些权威就可以把最前沿、全面的知识给它。计算机能看、能闻、能听吗?也不能。可以看出,人工智能和人类智能的差异兜兜转转又回到了最关键的问题:人类从出生开始自带一部分“出厂设置”,这些“出厂设置”是人类目前没有弄明白的,这也正是人工智能不够真正智能的原因。既然计算机从出生没有基因这些东西,那我们教计算机怎么看、怎么听行不行?似乎可行。就像上面所举的苹果颜色的例子。人用眼去认识这个世界,其实就算看见了物体,人也不能给出一个肯定的答案。人们只能说相似,有以前某些东西的特征,因为跟红苹果共同特征太多、太像,人们认为青苹果也是苹果。这就很巧,无监督学习刚好能区分差异。一切都变得很自然,计算机先是被我们告知有一个物体长那样,叫苹果,红色的。然后让计算机产生质疑,接着计算机开始搜索图片,并利用无监督模型识别出苹果与大量图片中某一物体特征极度相似,计算机将这些物体也认定为苹果(就像人类做的一样),然后因为这些物体是绿色,于是得出结论苹果也有绿色,苹果的颜色特征数据发生更改,AI完成了自我成长。

不过,现阶段AI的局限也很明显了。有些东西始终要人去提供,比如图片、声音,有些事情目前也只有人才能做到,比如实验。大小铁球谁先着地?这是质疑,而求证是伽利略人为去进行实验的过程,计算机要怎样才能把两个大小不同的铁球同时释放并得到一个暂且不知的结果?在力、惯性还没被揭示之前?暂时没法。因为目前的AI活在一个我们这些权威给定的物理世界中,计算机体验的是我们体验到的。而现实是,自然规律是由宇宙划定的,有很多东西我们没有体验到,有很多实验也没做过。那AI也不可能体验到了。如果这样下去,看样子AI在创新这方面要永远跑在人类后面了。把宇宙完全抽象进计算机的数据世界显然不现实,宇宙我们还没了解到冰山一角。所以,要实现强人工智能,AI有必要融入我们的现实生活,让AI不再生存于抽象空间中。比如我们可以教会AI怎么去看,通过摄像头让AI真正注视这个世界,可以教会AI怎么控制、运动,通过机械臂等让AI能与这个世界真正交互。发展成熟后就能解决AI无法实验,缺乏主观能动的问题,AI就能试着让大小不同的铁球同时释放,并观测记录下两个铁球同时落地的历史性时刻,总结出经验,质疑、求证,认定为客观规律。


文章作者: codeYu233
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 codeYu233 !
评论
  目录