资讯详情

AI入门: 关于人工智能的深度思考

能否实现超强人工智能?

----人工智能的哲学思维

原文链接:http://fancyerii.github.io/2019/03/14/philosophy/#自由意志free-will 这是一篇长文,全文约57000字;为便于可选阅读,转发时特别了目录标签,少量排版问题可参考原文。

本文讨论了人工智能是否能实现这一哲学问题。本文是深度学习理论与实践:改进一章,更多内容请点击深度学习理论与实践:改进。

请联系作者转载(fancyerii at gmail dot com)!

目录

引言 摘要作者的观点 证明存在? 任务分类 情绪(Emotions)和情感(Feelings) 美和艺术 意识(Consciousness) 自我意识 自由意志(free will) 计算的局限 量子力学 生命和记忆 语言、分工与合作 无限和连续 混沌现象 主观和客观 幸福感、Reward和虚拟世界 常识 智能和生命

引言

说到哲学,你首先想到的可能是晦涩难懂的术语,认为这只是哲学家为了展示自己的价值而创造的一些概念。对于很多理工科的学生来说,必修课是学习它们的唯一理由。它只包含一块无聊的内容。如果不是为了文凭或奖学金,你永远不会碰它。我犹豫了很久,是否应该在一本技术书中加一章来讨论哲学问题。读者很可能会认为这些内容毫无价值,让读者浪费钱。但我最终决定加入这样一章,原因如下。

原创内容 前面的内容是学习别人的知识,最多加上我自己的理解。如果你想在这本书中找到一些原创内容,最有可能是在这一章。当然,我的想法也来自周围的环境。我认识我不认识的人,甚至包括历史上所有人的想法。他们的想法通过遗传和文化的传承直接或间接地影响着我的想法。如果你真的想追本溯源,可能要算上上帝或者造物主。但无论如何,这里的大部分内容都是我自己思考的结果。

个人信仰 作为人工智能的从业者,作者希望人工智能能够实现,也就是说,我们最终可以制造出像人一样甚至比人更智能的机器。理论上,显然有必要提前讨论它的可能性——如果这是一个不可能的目标,那么我们就没有必要努力做无用的工作。

人生意义 人生的意义和目标是什么呢?这是一个很大的话题,很多哲学家和宗教家给出了各种不同的答案。通过研究智能的实现,我们也许可以从另外不同的角度来理解人生的意义。

声明:本章的哲学观点与主流观点有很大的不同。读者可能认为这是胡说八道,但这没关系。前面的内容有点麻烦。读者只需将本章的内容视为科幻小说。

摘要作者的观点

因为文章太长,估计读者很难耐心阅读全文,所以这里简要摘录作者的主要观点。

可以实现人工智能

意识只是相似的DQN里的Replay Buffer,没什么特别的

不存在自由意志

计算(图灵机)有限制,但人类并没有超越图灵机的计算能力

量子力学不能证明自由意志的存在

人类通过语言虚构了许多不存在的概念,我们都生活在这些概念中

物理世界是离散和有限的,连续和无限只是人类的想象和数学工具

没有完全客观的世界,一切都是主观的,一切都是唯心主义的

幸福与物质水平的提高没有绝对关系

研究基本的行动能力(Robotics)这比研究高层语义更有意义,因为常识来自于此

什么是生活?人生是一个美好的巧合,是宇宙在奔向熵最大的死亡过程中为自己创造的观众。

证明存在?

要证明人工智能最直接的方法就是实现它,即制造像人一样的智能机器。这类似于图灵测试的想法。图灵测试实现了一台智能机器。它通过网络与真人进行自然语言对话。如果真人无法区分它是机器还是真人,那么机器就会通过图灵测试,认为机器实现了人工智能。虽然语言对话包括常识、推理甚至情感,但很多人认为只有人才有能力,但人类的智力不仅限于语言,因此仅通过自然语言交互来判断机器是否实现智力是有争议的。然而,语言交流确实是人类差异和其他动物的一个重要特征,我们将讨论语言和智力之间的关系。

这是人工智能从业者的最终目标,但今天,这一目标仍然无法实现。我们可以朝着这个方向努力,不断制造更智能的机器。但这个目标永远不会实现吗?就像以前(甚至现在和未来)有人试图制造永动机,但从物理的角度来看是不可能的。人工智能也是一个无法实现的目标吗?因此,有必要提前思考这个问题。

如何证明一件事的存在?也许你的第一反应是用数学证明。我们从小学到大学学习了各种方法来证明各种概念的存在。例如,一元一次方程必须有唯一的实数解,例如,有无限的素数。在很多人眼里,数学就是真理,数学公式的推导逻辑严谨,不容质疑。当我们看到一篇优美的数学符号出现在一篇论文中时,我们往往认为这是一篇深刻的论文,它的结论必须是正确的;如果你读一本书(比如一本书),发现它是一些白话,那么肯定没有什么聪明的。但作者认为数学只是一种严谨歧义较少的语言(符号),而机器语言,如Python即使是人类自然语言的白话也没有本质区别。它们只是整个人类或群体创造的交流思想的工具,所以数学语言这个词在这本书的许多地方都被使用。

数学本身找不到新的东西。它只是对现有知识的精炼和总结。任何数学(模型)都有许多假设(如公理)。根据这些假设,我们可以推导和解释许多有趣的结论。如果这些结论与我们的观察一致,它们将增强我们对它们的信心,但如果不一致,我们可能需要提出新的模型并使用新的假设。

因此,真正能找到新知识的是归纳法。我们总结新发现,然后解释新知识。如果我们发现矛盾,我们可以纠正我们的归纳。因此,我们可能无法用数学方法来证明人工智能是否实现。

更令人沮丧的是,我们甚至无法同意人工智能的定义。人工智能是由人工智能和智能两个词组成的。人们通过制造与人类智能相同的机器。什么是智能?很难定义。我们认为石头是不智能的没有猴子智能,但比蜗牛智能,人类比其他所有动物都智能。但是猴子智能吗?若计算,显然猴子无法通过图灵测试。假如不算,人类的祖先,比如山顶洞人,算不算智能?他们也可能无法通过今天的图灵测试(当然,这不能做实验)。即使几千年后,也许我们今天的人也无法通过未来人的图灵测试。我们现在的人聪明吗?也许我们可以把智能定义为一个连续的值:石头的智能是0,人类的智能是100。我们现在可以制造10台智能机器,但不超过100台。但无论如何,很难准确定义智能。比如下围棋超越人类世界冠军有多聪明?60、90还是0.1?

这似乎是一个困难,我们不能用我们现有的(数学等)工具来证明它的存在,但我们希望提前知道它的存在,以避免在水中做愚蠢的事情。

这里作者采用的方法类似于穷举法——驳斥所有否定观点。这显然是无穷无尽的,就像归纳法一样,我们不能证明太阳从东方升起,我们只是通过人类几千年的观察得出结论。总有人认为太阳明天可能会从西方升起。我们能做的就是驳斥这一观点,证明太阳明天确实会从东方升起。在这个过程中,我们的信心会得到加强,但哪一天地球被流星碰撞,公转方向会改变呢?我们只能通过物理知识来证明这种可能性很小,但我们不能用数学公式来证明它绝对不可能发生。

要证明人工智能不容易实现,但要否认似乎容易多了。我们需要找到一个反例。因此,从反对者的角度来看,只要人能完成任务,机器不能完成,就可以了。但是这里有一点需要明确,那就是机器不可能完成,需要从理论上证明它永远不可能实现,而不是现在还不能实现。因此,我们不能说现在不能制造自动驾驶机器来否认未来的可能性,我们必须有足够的理由来解释不可能的原因。

例如,我们可以证明永动机永远无法制造。当然,证明过程也需要现代科学的支持,依靠假设(物理规律)和数学推导,我们推导。你不能说我相信某种宗教。在教义上,先知告诉我们,神不能遵循世俗的物理规律。你可能会说科学结论不是绝对的。许多现代新发现证明了以前的科学结论是错误的,当永动机无法实现时,能量守恒定律或热力学第二定律也可能是错误的,所以我质疑你的证明过程。这样说没有错,但没有实际意义。比如吃饭也可能噎死,但是我们绝大部分人不会因为有这种可能而不吃饭,因为它的可能性(概率)很小。类似地,根据当今地球上物理研究者的观点,这两条定律是肯定的。我们是外行,但我们相信他们的结论(分工、合作和信任也是一个有趣的话题)。如果从这个角度来看,科学也是一种宗教信仰,但它与大多数宗教(我不了解宗教,不敢使用绝对的宗教,但这样说话会很累。从科学研究的角度来看,我喜欢有立场的人,而不是那种正确的宗教(至少理论上),只要你遵循基本的科学原则,它就会接受任何人的挑战。

此外,实现的定义也需要明确。它在多大程度上实现了。例如,围棋是否必须在实现之前击败人类世界冠军?还是必须驾驶的事故率为零?普通人可能一辈子都很穷,围棋;人类驾驶每天都会发生大量的交通事故。

让我们讨论一些通常怀疑人工智能无法实现的任务。

任务分类

第一类任务包括控制不需要太多的大脑决策,如行走、控制身体平衡、用手抓住物体等。很少有人用这些任务来质疑人工智能。其中一个原因是这些任务可能已经实现或接近实现;另一个原因是这些任务很少需要大脑控制,许多任务动物可以完成,所以这是一个低级的智能任务。p

这类任务大部分都是在人的幼儿阶段学习,对于成年人来说这些任务都已经非常自然了,基本不需要太多的大脑思考,下意识(无意识)就可以完成了。但是要完成这些任务并没有想象中那么简单(而下围棋或者做数学题也许并没有想象中那么复杂),人类在习得这些技巧时需要经历很多次的失败,只不过这些儿童阶段的失败并没有给我们留下太多记忆而已。对于这些任务,诀窍就是熟能生巧,通过反复的尝试,形成肌肉的记忆,在接收到类似的信号时第一时间通过条件反射给出应对措施。对应到机器学习上更多的是使用强化学习,不涉及太多语言沟通。我们在书店买不到《骑自行车教程》,因为这些任务没有太多技巧,我们只需要通过不断的练习来提高我们的平衡能力。

因此用这类任务来挑战人工智能的人越来越少,而且他们也很难给出足够的理由说明(别提证明了)为什么机器就做不到。某些任务甚至很难说是智能的体现,比如说像人那样直立行走并不见得就是移动自己的最好方式,四条腿跑反而更快。

第二类任务主要是感知的处理,人类的感觉器官可以与机器的传感器做对比。人类有视觉、听觉、味觉、嗅觉和触觉五种感觉,其中视觉和听觉接受的信息最为丰富。人类的听觉和动物不同,动物的听觉虽然也有沟通的作用,但是更多的是用于感知环境比如天敌或者猎物的声音。而人类听觉更多的是用于获取来自同类的语言信息,感知自然声音的能力并不强大。猫可以听到老鼠运动时的细微声音,而人类并无此能力。语言是人类创造的用于沟通的工具,它编码了人类世界的大部分知识,因此语言理解是更高层的任务,我们放到后面讨论。

本书的很多任务就是让机器来实现一些视觉的处理,比如图像识别等等。机器处理这类任务的能力在深度学习时代取得了长足的进步,虽然离人(甚至动物)还有差距——比如它还需要海量的标注数据,而人类(动物)的视觉能力经过亿万年的进化似乎已经编码在基因里了。但是总体来说,也很少有人认为机器无法实现这类任务了。

第三类任务一般需要复杂的计算、推理和规划,比如语言沟通、数学和下棋等等。语言和数学后面会有单独的讨论,而数学里的算术和下棋反而是计算机更加擅长的。我们之前也介绍过,对于象棋,更多的是依靠计算速度搜索更深层的未来局面;而围棋则是同时结合局面判断(Value Network)和搜索(MCTS+Policy Network)。之前大家认为计算机很难下好围棋,因为人类下围棋的很多局面判断都很难形式化的定义,比如”棋很厚”等等。但是AlphaGo证明了这些”高深”的词汇不过是人类对类似局面并不完全准确的总结而已,这类似于神经网络自动的特征提取。也许AlphaGo的Value Network和Policy Network里也能发现很多这样的特征,只不过它不能用自然语言描述而已。另外它似乎也没有必要用自然语言描述这些特征,人类用语言来表述它的目的是为了沟通,为了把高手的棋艺传授给其他人。对于机器来说,直接把AlphaGo的模型复制到另外一台机器上就完成了技艺的传授。

第四类任务是与情感相关的艺术,比如音乐、绘画、舞蹈等等。这些任务通常会涉及情感和自我意识,而目前的机器没有,因此经常会用来挑战人工智能,下面我们来逐个讨论这些话题。

情绪(Emotions)和情感(Feelings)

最常见的用来挑战人工智能的就是人类有情感而机器没有(不可能有)情感。这个看法其实还隐含了一个观点——情感是智能不可或缺的一部分。我们首先来看机器是否能够实现情绪和情感。

我没有研究过心理学,关于情绪和情感的定义都是来自百科。

情绪和情感两个词常可通用,在某些场合它们所表达的内容也有不同,但这种区别是相对的。人们常把短暂而强烈的具有情景性的感情反应看作是情绪,如愤怒、恐惧、狂喜等;而把稳定而持久的、具有深沉体验的感情反应看作是情感,如自尊心、责任感、热情、亲人之间的爱等。实际上,强烈的情绪反应中有主观体验;而情感也在情绪反应中表现出来。通常所说的感情既包括情感,也包括情绪。

在个体发展中,情绪反应出现在先,情感体验发生在后。新生儿一个月内就出现了愉快、痛苦的情绪反应。他们最初的面部表情具有反射的性质,而随后发生的社会性情绪反应就带有体验的性质,产生了情感。例如在母子交往中,母亲哺乳引起婴儿食欲满足的情绪;母亲的爱抚引起婴儿欢快、享受的情绪。当婴儿与母亲形成了依恋时就产生情感了。这种依恋具有相对稳定而平缓的性质。然而,已经形成的情感,常常要通过具体的情绪表现出来。对成人来说也是这样,爱国主义的情感,在具体情境下是通过情绪得到体现的。一个人对祖国的成就欢欣鼓舞,对敌人仇恨,这都是表达情感的情绪;而每当这些情绪发生时,又体验着爱国主义情感。

情绪以表情形式表现出来,包括面部表情、言语声调表情和身段姿态表情。面部表情是情绪表现的主要形式。面部表情模式是在种族遗传中获得的。面部肌肉运动向脑提供感觉信息,引起皮层皮下的整合活动,产生情感体验。表情对儿童认知和社会性发展以及对成人的交际具有重要的意义。

情绪的身体-生理反应是由中枢和外周神经系统以及内分泌系统的活动产生的。中枢神经系统对情绪起调节和整合的作用。大脑皮层对有关感觉信息的识别和评价在引起情绪,以及随后的行为反应中起重要作用。网状结构的激活是活跃情绪的必要条件。边缘系统的结构与愤怒、恐惧、愉快、痛苦等强烈情绪有关。自主神经系统与情绪的身体-生理反应密切相关。

神经系统和脑的化学过程对情绪的发生和变化有直接的影响。特别是脑垂体-下丘脑-肾上腺系统的活动,对情绪的调节起着显著的作用。脑垂体和下丘脑既参与中枢和外周神经系统对情绪的整合,又调节内分泌腺,特别是肾上腺的功能。

情绪和情感复杂多样,很难有准确的分类。荀子的“六情说”把情感分为好、恶、喜、怒、哀、乐 6大类。R.笛卡尔认为爱、憎、喜、悲、称赞、期望是基本的情感,其他情感是由这些情感派生的。B.斯宾诺莎提出基本情感是喜、悲、愿望3种。一般认为愉快、愤怒、恐惧和悲哀是最基本的原始情绪。近年对情绪发展的研究以面部表情区分出10种基本情绪,它们是兴趣、愉快、痛苦、惊奇、愤怒、厌恶、惧怕、悲哀、害羞和自罪感。前8种在1岁内均已出现,后两种在1岁半左右亦能发生。成人除基本情绪以外,还有许多复合情绪。例如对自己的态度有骄傲感与谦逊感;与他人相联系的有爱与恨、羡慕与妒忌;对情境事件有求知、好奇心等等,都是两种以上基本情绪的混合。焦虑和忧郁等可能带有异常性质的情绪,也是几种基本情绪的合并或模式。焦虑包括恐惧、痛苦、羞耻、自罪感等成分;忧郁包括痛苦、恐惧、愤怒、厌恶、轻蔑和羞耻等成分。人类复杂的情绪情感蕴含着社会内容。

我们先来看情绪,这是更低级的感觉。遇到危险我们会有紧张情绪,而危险过后我们的情绪会变得放松。这对于动物的生存非常重要,紧张使得我们更加集中精力来度过危机,但是持续紧张会对身体造成损伤,因此危险过后需要放松。情绪很像是大脑对某种情形的一种判断,比如我们走在丛林深处,大脑会判断当前情形”我”正在处于危险的状态。大脑在接到这个信号后可能会提高其工作频率,更加谨慎的处理各种感觉的输入,任何风吹草动它都不放过,这样我们更可能提早发现危险。但是这样的状态很费精力,如果在安全的区域我们也这样就是所谓的草木皆兵了。

如果情绪只是这样的信号的话,那么机器也很容易实现。所谓的情绪只是对某种场景的反应,而这种反应会输入给大脑,从而改变大脑的运行状态,比如从普通状态转变为危机处理状态。现在的人工智能主要还只是在研究人的某些具体能力,比如识别物体或者下围棋。如果我们要设计一个机器人的话,也是可以借鉴并且加入情绪的(当然情绪似乎也可以通过强化学习自学,人类看到蛇就害怕也是多年进化大家结果)。平时它在”普通模式”,只处理听觉传感器的输入中感兴趣的信息,比如同类的语音。而在”危机模式”下它的大脑(CPU)会处理所有的听觉信号,这当然会比较费电,同时大脑也没有时间思考哲学问题了,但是没办法,现在最重要的是要解决生存问题。当危机消除后就应该恢复到”普通模式”了,否则除了费电,长期超负荷工作也可能把CPU烧坏。对应到人类就是长期的紧张可能造成神经衰弱等疾病。

有人也许会说,人类能够意识到自己的情绪,并且把它告诉他人,甚至可以”控制”自己的情绪,这个机器无法做到。关于意识以及沟通(语言)后面我们会讨论。至于”控制”,对于机器来说也不复杂。比如有人看到电视里的蛇也会害怕,但是理智告诉他这是假的,无须害怕。那么机器完全也可以实现类似的”理性”运算。这个例子也能看出,情绪是比较底层的感觉,我们的身体对它的处理类似简单的函数(反射),没有经过复杂的”理性”的思考。

情感则是更加高级的感觉,它是长期的情绪积累的结果。比如我们在一个国家久了,对国家有了情感。这些情感的作用更多是社会性的,比如对国家的认同使得不同的个体能够联合起来为国家这个抽象概念而努力奋斗甚至牺牲性命。相爱的异性会组成家庭,共同繁衍后代延续生命。它的作用更多的要从多个智能体的关系来分析,我们这里不会过多考虑这个话题。但是如果我们需要设计多个人工智能的个体并且需要它们合作的话,我们需要考虑这个问题。在后面的语言部分会稍微讨论群体的问题,这里我们暂时略过。

接下来我们再讨论一下智能体是否一定需要情绪或者情感。从前面的讨论我们知道,情绪用于调节身体的工作状态(模式)是有作用的。但是如果不考虑这个作用,对于某个单独的任务来说,情绪是否有作用呢?

我们拿下棋为例,人类棋手下棋肯定会有情绪。局势好的时候会放松会高兴;而局势不好的时候会紧张会沮丧。这当然也有前面所说的调节作用——局面好的时候可以稍微放松一点计算可以不那么深远(但是可能会大意失荆州)从而节省体力;而局面不好的时候显然需要投入更多的精力来计算,如果局面坏到一定程度我们甚至直接投降(因为再继续下去除了浪费体力不会有任何好处)。当然AlphaGo也可以用类似的”情绪”来切换模式,但是如果不考虑电力的制约,我们可以让AlphaGo在任何时候都以最大的功率运作。这样看起来情绪似乎是不必要的。

但是现实世界总是有制约的,我们的大脑的算力是有限的,但是我们需要做的事情却是无限的,因此我们要用类似”情绪”的东西来调节大脑的运作模式。如果跟一个围棋的初学者对弈,估计Google也不愿意让AlphaGo花费那么多TPU来搜索,它直接用Value Network就可以战胜对手。我们的轻敌其实也是一种策略——降低能耗的方式。这其实很重要,诸葛亮谨小慎微、事必躬亲,但人的精力毕竟有限,这或许是他短寿的原因。如果这是真的话,则他的情绪或者说资源分配策略是有问题的,他的聪明才智应该更多的分配到更关键的决策上,而那些不重要的事情交给别人处理就行了。

完美的状态(情绪)切换并不容易,切换好了就是果断、自信或者有自知之明(投降/放弃),切换不好就是疏忽大意、盲目乐观、过度悲观(明明还有机会却缴械投降)。

我们甚至在下棋的过程中利用对手的情绪,比如某个局面已经劣势了,我们可能设计一个陷阱。所谓的陷阱一般是”乍一看”我们走了一步坏棋,对手走某步棋很快可以扩大领先优势,如果对手不加思考走了这步棋就可会把优势走成劣势。当然如果对手仔细思考则可以找到另外的走法能保持甚至扩大优势,否则就不是陷阱而是绝对的好棋了。对手对于局势如果过于乐观,切换到”轻敌”模式,那么有可能掉入陷阱。

美和艺术

“美”是一个物体比如动物、植物、人或者地点的某种属性,这种属性会让看到它的人非常开心或者满足,而与之相反的就是”丑”。

严格定义美是很困难的。毕达哥拉斯认为符合特定比例(黄金分割)的物体就是美,但很难解释世界上那么多我们认为美的或者丑的事物。另外不同时代不同地域不同种族的人类的美学标准也是有很大差别。比如杨贵妃的时代以丰满为美,而现在以瘦为美;中国古人认为三寸金莲是美,而西洋人认为这只是摧残女性;非洲的黑人美女在中国人看来只有牙齿是白的,实在看不出美在哪里。如果再扩大一点,从整个生物群体来看,人类认为美的东西其它生物并不见得认同。 《庄子·齐物论》:“毛嫱、丽姬,人之所美也;鱼见之深入,鸟见之高飞,麋鹿见之决骤,四者孰知天下之正色哉?” 翻译过来就是:毛嫱和丽姬是人们认为的绝色美女,可是鱼儿见了她们会潜入深水处,鸟儿见了她们会赶紧飞向高空,麋鹿见了会吓得跑开。可见,对美的认识是不一样的。但是到了明朝,汤显祖《西厢记》惊梦中就有”沈鱼落雁鸟惊喧,羞花闭月花愁颤”。其实,在汤显祖之前,《朝野新声·太平乐府·采莲女曲》中已有了”羞月闭花,沉鱼落雁,不恁也魂消”。”沉鱼落雁”和”闭月羞花”都出自《庄子》,但已完全不是《庄子》原思了。

我们现在还是回到人工智能能不能实现艺术的问题上来。这里其实还有一个问题:实现智能机器是否需要艺术。这和前面的实现智能机器是否需要情绪和情感是类似的。从个体的角度来说,这是没有必要的——智能机器能否下好围棋或者实现自动驾驶和她长得美不美或者她能不能欣赏美没有太大关系。当然涉及到智能群体它就有用了,比如在人类社会里,长得美和长得丑给人的印象和感受都是不同的。

我们说情人眼里出西施,美没有一个绝对的标准。但是对于某个特定时期的特定人群,他们还是会有一些标准的。虽然不存在一个美人让所有人都认为她是美的,但是我们(理论上)可以让所有的人对所有其他人的美丑做一个打分,然后做出一个美人排行榜来。如果给定人群,我们是可以定义相对的美丑。注意,这里是定义相对的美丑而不是绝对的,我们很难找出一个绝对第一的美人。因为这个绝对美人必须所有的人都认为她是最美的,而且世界上(甚至包括我们看不见的天堂或者地狱里)也不可能找到一个比她更美的人。

这样的话,如果存在足够的训练数据,机器完全是有可能实现美的”欣赏的”——给定一个人,判断她是否美人,当然打分是一个0-1之间连续的得分。既然机器能够欣赏美,那么它也是有可能”创造”美的。比如它是一个发型师,它可以给一个人尝试不同的发型,然后找出打分最高的发型。同时它可能还会总结出一些经验(特征):不同脸型或者肤色应该使用什么样的发型才能更美。现在的美容(整容)非常发达,未来的技术也会更加发达,也许你喜欢什么样的脸都可以整一个出来,这到底是好事还是坏事呢?

从更加根本的角度来说,什么叫美呢?音乐、舞蹈、雕塑、绘画等等各有自己的标准,甚至不同国家的标准也差别很大。我们这里先把范围限定在人的美丑上来,因为这个大家都会有自己的感受,而对于艺术并不是所有人都能理解。

但即使限定到人的美丑上,这也是一个很复杂的问题,因为对于同一个人,随着时间的变化对他的美丑印象也会发生变化。有的人初看起来不怎么,但是了解越多越觉得美;同样有的人初看起来还不错,但相处久了越来越讨厌。另外我们也会有内在美和外在美的说法,内在美会更加复杂,因此我们这里只讨论”肤浅”的外在美,同时我们再把美丑的判定限定在”第一眼”上,也就是第一次见某个人的感受。从异性的角度来说,美丑的作用是什么呢?对于很多动物来说,异性只有在交配的时候才会发生关系,交配前后都形同路人,为了保证后代的竞争力,需要判定异性的”好坏”。动物可没有那么多时间来”谈恋爱”,它们的语言(假设有的话)也只能做非常简单的交流。那怎么办呢?因为生理的差异,雌性的卵子是稀缺的资源(相对于精子而已),更多的自然选择发生在雄性这一方。最常见的竞争方式就是比拼武力,因此在雌性看来强壮的身体一定是美的。除此之外,还有一些雌性选择雄性的时候并不通过”野蛮”的武力决斗。也许是因为武力决斗太过残酷,决斗会导致失败者有丧命的危险,这对于种族来说并不是好事——为了争夺一个雌性导致武力第二的雄性丧命并不合算。因此需要一种不那么血腥残酷但是也能反映雄性武力的方法。许多动物在争夺配偶时会通过比拼声音或者某个器官的大小或颜色,这也是一种可行的解决方法。吼叫声音的大小或者某个器官的颜色能够间接的反映其武力,很多弱者一看对方的”气场”就知难而退了。这样虽然失去了一次交配机会,但是至少保住了性命,留得青山在不怕没柴烧,以后还有机会。对于一些鸟类来说,婉转的啼叫声,漂亮的羽毛也许就是这种进化方式的结果。但是间接的方式也会有问题,这样很可能进化出一些嗓门很大,外表华丽但是内在并不强大的个体。不过自然界会让天敌来惩罚这些”欺诈者”,因为面对危险时,嗓门大和有漂亮羽毛并不管用,逃得快或者眼睛锋利才能提高生存几率。这样就能基本保证嗓门大的确实是生存能力更强的。

人类的社会化程度更高,雄性比拼的更多是智力而不是体力。注意,这里的智力不仅仅指智商。智商的重要性大家都能理解,尤其在人类早期,有特殊技能(智力)的人很受欢迎(当然现在也是)。比如火是重要的工具,能”制造”火的燧人氏就成了部落首领,他的部落甚至能够以此”征服”其他的部落。但是随着人群规模的扩大,从一个部落到一个民族再到一个国家,需要共同合作的事情越来越多,人的沟通、配合和管理能力越来越重要,因此情商也越来越重要。动物界的政治雏形也许是这样的:某个雄性可能斗不过现在的首领,但是它有很强的沟通能力,它能说服同伴一起攻击首领。这样来看的话一个族群的个体之间怎么联合就变成很重要的”政治”活动。因此对于女性来说,男性的外貌美变得不是那么重要了(但是仍然非常重要,这可能编码在基因里了),他的智力则就越来越重要了。为了提高后代的生存能力,人类的男性也会参与后代的抚养和教育,因此人类进化出长期稳定的夫妻关系(虽然古代是一夫一妻多妾制度,但也都是比较长期稳定的关系)。这时异性之间的选择更多的是个人以及家庭的政治地位和经济地位,古代所谓门当户对就是这个意思。但是长期以来编码在基因里的喜好”美”的天性并没有消失,男人娶妻要求门当户对这是父母之命媒妁之言,自己没法做主(中国古代是家族社会,男人在娶妻时基本还是很年轻的时候,在家长中地位最尊的是他的父亲或者祖父),但是纳妾就会考虑她的”美丑”了。

而女性的选择权就少多了,即使是有权势人家的女儿(比如公主),从道德上来讲都只能有一个丈夫,因此选择就会很困难,既要”郎财/才”又要”郎貌”很难实现。因此在古代经典的组合是”郎才女貌”,但爱美毕竟是天性,因此那些不用考虑长久关系的青楼女子似乎更加看中外貌,所谓”姐儿爱俏”。但总体来讲,古代女性更多的是考虑男人的财力或者智力而不是外貌。和自然界相反,人类的雌性(女性)对于美的进化会更加直接一些,动物都是雄性更美(比如公鸡或者鸟类都是雄性的羽毛色彩斑斓)而人类是女人打扮的花枝招展。

从这个角度来考虑美,假设我们设计出智能的个体(比如只要达到动物的智能),然后把它们放到火星去生存进化,那么它们也是有可能进化出美的概念,但是它们的美可能和地球上的动物或者人类完全是不一样的定义。机器和人类相比交换信息更加简单,不需要通过基因的交换就能实现信息的复制(当然还是需要外在的”身体”,比如有的机器人可能是爬行,有的是像人类一样直立行走,在制造一个新的个体时需要选择一种方式以及对应的”基因”——可能是用于控制不同行走方式的代码/模型?),因此它们的”交配”可能更多的是思想上的交换,这更像是人类社会通过言传身教把优良的习惯传递给后代而不是编码到基因里。

前面讨论的是比较狭义的人类在外貌上的”美”,但是美是一个很广泛的概念,在下面我们讨论的艺术中,美是一个非常重要的概念。

艺术比如文学、音乐、舞蹈、绘画和雕塑等等也是通常被认为机器无法实现的。它们通常是和”创意”、”灵感”以及”天才”之类的词汇联系在一起的,别说普通人,即使是艺术家也是须要努力同时还要碰上苹果砸头上这种机遇下才能”妙手偶得之”,并不是随时随地都能创作出佳作的。实现这些创造除了需要逻辑推理等机器擅长的能力,还需要非理性的”灵感”之类的东西,而机器是没有这类东西的,因此机器无法完成这类任务。

根据wiki,艺术的定义为:

Art is a diverse range of human activities in creating visual, auditory or performing artifacts (artworks), expressing the author’s imaginative, conceptual idea, or technical skill, intended to be appreciated for their beauty or emotional power。

翻译成中文大意是:艺术是创造视觉、听觉或者表演艺术作品的行为,这些作品用于表达作者的想象、创意或者技巧,目的是为了让其他人欣赏它的美和情感。

和所有的词典定义一样,这里也是循环定义的(汉语词典里欢乐定义成快乐,快乐定义成欢乐)。艺术是创造艺术作品的行为,创造出来的艺术作品最终需要其他人来欣赏,根据人类的感觉器官来分主要有两类——视觉和听觉的艺术。而表演艺术是人在表演的时候动态实时的创造出来的,我们不能说某个舞蹈家是一个艺术作品,只有他/她在表演的时候,他/她的身体作为表现艺术的载体,但是最终欣赏的人还是通过视觉来欣赏他/她的表演。

和人外貌的美丑一样,艺术作品也是为了人类之间的沟通交流。一个画家做一幅画是为了表达某种情感,否则他就是一个照相机了。最早人类作画的目的可能是为了保留信息,比如在山洞里的壁画,因此需要尽量保持真实。这样的绘画作品没有太多的人类(个人)情感,所有(大部分)人一看就知道他画的是个什么东西。但是随着人类社会的发展,人类有了更多精神上的东西(我们会在意识部分讨论精神层面的东西),比如氏族部落会产生宗教,我们会产生天堂地狱往生来世等物质世界不存在的概念。我们画出来的神仙鬼怪看起来就不能太像真实的事物,这就需要发挥我们的创造力和想象力来表现这些并不存在的事物。因此我们的艺术作品也越来越抽象,这些抽象的艺术作品能唤起我们的联想(有时还需要文化、历史的配合),把我们带到作者想表达的意境中,使得我们能感同身受作者的想法。

艺术作品包括形式和内容两部分内容,内容就是艺术家要表达的内容,而形式就是用于表达内容的一些技巧。前面我们在Neural Style里已经看到过了,一幅画作的风格和内容其实是(有可能)分离开来的。人们用签字来确认身份,也就是因为每个人的字迹都是有自己的风格,而跟内容(具体写哪些字)是没有关系的。

当然即使是内容,画家画出来的内容和照相机照出来的内容还是有区别的。画家的画作内容是他从他的视角观察世界得到的感受,然后使用画笔和颜色尝试重构出来,每个人的视觉感受系统都有差别,而且很多作品会附加上作者的情感,同时他会忽略掉一些细节。而照相机则不会有这样的处理,当然照相机也可以调焦,现在的很多软件也能增加不同的滤镜效果,这样可以认为是某种简单的”主观”处理吧。

一个好的艺术家需要有很强的”感受”美和情感的能力,同样看到一只燕子,刘禹锡想到的却是”旧时王谢堂前燕”,感慨沧海桑田,人生多变。通过想象建立客观物体和主观感受之间的联系,从而表达自己的情感。这里的感受并不需要很强的信号接受能力,画家并不需要千里眼,需要的是观察能力。当然除了感受之外还需要很强的表达能力,这里会有形式和技巧的东西,艺术家须要不断的尝试和学习最终形成最适合自己的艺术风格。

这样来分析的话,机器是有可能实现艺术的”创作”的,另外从沟通的角度来说,和上面外貌的美一样,机器群体也是可能进化出艺术创造的的。

前面我们介绍过Neural Style的画作的风格迁移,这可以看做是机器的绘画创作。而在听觉领域,音乐也是用于沟通感情的一种方式,机器来进行某种程度的音乐”创作”也是有可能的。由于篇幅限制,我们之前并没有介绍相关的研究工作,有兴趣的读者可以搜索”music deep learning”,也可以试试magenta。

除了视觉和听觉的艺术,人类社会还有文字的艺术,比如诗歌。但是由于语言的复杂性(参考后面的语言部分),作者认为目前的机器只能模仿它的形式而不是内容。读者感兴趣的话可以搜索各种作诗的机器人,基本就是使用RNN等训练一个语言模型,它能生成看起来很像古体格律诗的字符串(对不起,我只能称它为字符串因为它并不能表达什么有意义的情感)。

意识(Consciousness)

意识是人们用来挑战人工智能的重要武器,基本的观点就是人有意识,有主观能动性,因而可以创造性的解决问题。而机器,不管是预先编制好的程序还是神经网络模型,都是被动的按照人设计好的模式来运作。因此它实现的肯定不是真正的智能。

什么是意识,并没有一个获得广泛认可的定义。但是很多人认为人能”意识”到自己的行为,从而可以自主的做出一些决策,因此是存在”自由意志”的。

根据[wiki[(https://en.wikipedia.org/wiki/Consciousness):

Consciousness is the state or quality of awareness or of being aware of an external object or something within oneself

大体来说,意识就是”我”知道、发现、觉察到某个东西,可以是觉察到外部的物体,也可以觉察到自己”内心”的某些感受或者想法。

关于意识的解释有很多的观点和理论体系,但可以简单的分为两类——存在意识的二元论和不存在意识的一元论。

理论上应该有四种组合——只有物质、只有意识、物质和意识同时存在以及两者都不存在。两者都不存在似乎很难想象,持有这种看法的人好像比较少见。作者也很难想象这是两者都不存在的世界是什么样子,也许世界什么也不是,既没有物质也没有意识,那我们的感受从何而来呢?

接下来我们讨论一下二元论,这种观点是比较自然的。接受科学(这种信仰)的人大都认为存在一个物质的客观的世界,因此物质是存在的。而我们又能够感受这个世界并且意识到自己的感受,而且”看起来”它的工作方式又和物理世界的规律不太一样,那么假设存在另外一个非物质的意识就是很自然的事情了。

二元论的代表人物是笛卡尔,下面的内容来自知乎。 意识是什么?这个棘手的问题最早由笛卡尔在《谈谈方法》一文中系统阐述。

我发现:“我思故我在”这条真理是十分确实、十分可靠的,怀疑派的任何一条最狂妄的假定都不能使他动摇,所以我毫不犹豫地予以采纳、作为我所寻求的那种哲学的第一条原理。

然后我仔细研究我是什么,发现我可以设想我没有形体,可以设想没有我所在的世界,也没有我立身的地点,却不能因此设想我不是,恰恰相反,正是根据我想怀疑其他事物的真实性这一点,可以十分明显、十分确定的推出我存在。另一方面,只要我停止了思想,尽管我想像过的其他一切事物都是真的,我也没有理由相信我存在过。因此我认识了我是一个本体,它的全部本质或本性只是思想。他之所以存在,并不需要地点,并不依赖任何物质性的东西。所以这个我,这个使我成其为我的灵魂,是与形体完全不同的,甚至比形体更容易认识,即使形体并不是,它还仍然是那个不折不扣的它。

文中笛卡尔认为世界上存在两种完全不同的东西,一种是意识,一种是物质。其中意识能思考而物质不能思考,物质占据空间而意识不占据空间。即“物质的本性是广延,精神的本性是思维”。

之所以笛卡尔坚持认为意识和物质是完全两种不同的东西,他持有的是两个论据:其一,物质不能思维。我们在直观上通常不会认为一块石头、一块肉甚至是布偶玩具会和人类一样具有意识。其二,精神的存在似乎不依赖空间。在前现代,古人很难知道人的意识活动到底发生在哪里。古埃及人认为人的思考发生在心脏,古代中国人对于容纳意识的场所的认识是混沌的,诸如胸有成竹、腹有诗书气自华等比喻。古代西方人则更加粗暴地把意识归结为一个形而上的灵魂概念,认为人的灵魂即是一个人的精神存在,灵魂可以脱离肉体生存。

因此他认为意识和物质是两种完全不同的东西。但是这有一个问题需要解决:物质和意识是什么关系?

一种观点可以认为它们之间没有任何关系,但是近代的科学发现人类的感觉器官——类似于机器的传感器——是物质的,可以用物理学规律来解释。比如我们之前介绍的语音识别系统的MFCC特征提取,一定程度是模拟了人类的听觉系统。因此二元论通常需要解释意识和物质的关系,谁是决定性的因素而谁又是从属的因素。

通常有两种观点:物质决定意识和意识决定物质。当然还有物质部分决定意识的观点,但是我认为这种观点可以归为意识决定物质,因为我们可以把被物质完全决定的部分划分到物质里去,而剩下那些就是完全不被物质决定的由意识自作主张的部分。因此分歧的关键点在于物质是否完全决定意识,或者说意识有没有可以”自由”的时候,也就是”自由意志”是否存在的问题。

如果承认物质完全决定意识,那么意识不过是物质的另外一种说法而已,这就可以回到一元的物理主义。因此包括笛卡尔在内的大部分二元论者期望留给意识和自由意志足够的空间,从根本上来说他们认为意识是决定物质的。

在他们看来,意识就是指挥家,而我们的由原子等物质组成的身体是被指挥的对象。意识说”我”要走路,因此身体就按照意识的要求开始走路。但是随着生物学和神经科学对大脑的研究,人走路是大脑通过化学的(因而也是物质的)神经系统发出信号给肌肉,肌肉控制人的四肢开始移动。这样就出现了问题,既然大脑可以完成这个指挥家的工作,那还要意识做什么呢?这个时候二元论者有两种解释:1, 退让一步,走路这种事情动物也能做,这种”低级的”工作就让给物质的大脑吧;2,还是意识控制,意识控制大脑然后大脑再控制神经系统。

不管哪种其实都让二元论者很尴尬,就像最早断定机器下围棋下不过人类,他们找出各种的”理论”来”证明”围棋有多么难解。但是通过前面AlphaZero,人类下了几千年的围棋还比不上机器几个星期的强化学习。他们没有办法证明人工智能不能实现,不断的退让很容易一溃千里。而第二种解释又显得很笨拙,它没法回答意识怎么控制大脑的问题。这种碰到问题然后引入一个概念,把所有不能回答的问题都推到这个概念的做法只是在逃避问题。这其实是科学和非科学的最大区别,也就是在遇到问题的时候科学可以承认自己无法解释,但是它绝对不会阻止人们持续的探索,它相信(信仰)最终会有一天能解决,即使代价是要推翻自己以前的结论。而非科学在遇到困难的时候经常会创造一个新的名词,用这个名词来解释(其实都不能叫解释,只能说是回避)遇到的困难。这个名词通常是人(至少普通人)不能去碰触的,意识(灵魂)就是这样的一个名词。

显然意识是不能遵循物理化学等物质世界的规律的,那么它是怎么运作呢?它又是怎么控制我们物质的身体的呢?我们的身体死亡之后灵魂归于何处呢?当然他们给不出科学的解释,因此通常的答案是灵魂遵循的不是物理世界的规律,因此人(至少普通人)是没有能力去探究这些问题的。所有讨论就到此为止,没办法进行下去了,因为他们已经不给你讨论的机会了。比如你说灵魂如果是不灭的,那么灵魂的数量应该是固定的,那么现代人比过去多了很多,这些多出来的灵魂是从哪里来的呢?我们没法直接”制造”灵魂,但是我们通过生育更多后代是不是能”制造”更多灵魂——假设每个人都有不同的灵魂的话。这些问题都没有办法验证了,怎么解释都可以。如果出现不能自洽的解释也很容易解释:这不是物理世界,它们不需要遵循物理世界的规律,包括逻辑。是的,我们在看《西游记》的时候不会去分析孙悟空七十二般变化是否遵循了物理学的质量守恒定律,也不会考虑一个筋斗十万八千里是否超过了光速。

另外一种二元论就是虽然有意识,但是它完全被物质决定,它遵循的完全是物理世界的规律。这种二元论作者认为基本可以归类到物理主义的一元论里。

物理主义认为世界是由物质组成,并不存在特殊的超自然的空间来安放意识。但是意识和普通的物质是有一些区别的,它是和人类的大脑、情感、语言和智能等等活动密切相关的。因此物理主义也不能简单的回避这个问题,虽然他们可以说大脑产生了意识,而大脑不过是一堆基本粒子的复杂物理化学作用。但是他们还是需要解释为什么这些粒子的运动就能产生意识,而石头里的原子运动就没有意识(假设我们认同石头是没有意识的)。

作者是倾向于物理主义的观点的,因为这至少为人工智能打开了一扇门。而如果认为意识是非物质的,那么即使我们的智能机器能够实现人类的各种智能行为,不管是下棋还是自动驾驶,都不能算真正的智能,原因就是它没有非物质的意识,我们无法创造出非物质的意识塞到机器的大脑或者CPU里。

物理主义也有很多不同的流派,作者下面会尝试根据自己的理解(可能来自不同的流派)从物质世界的角度来简单的解释意识是什么。

简单的解释就是:意识并不存在,它只不过是大脑的一种工作状态。比如”我”的肠胃给大脑发出饥饿的信号,大脑在处理这个信号的时候就处于”饥饿”的状态,当然它经过计算发现现在还要继续工作把这本书写完,因此它可能选择忽略这个信号然后把自己置为”工作”状态。但是这个解释有一个问题,”我”是怎么知道大脑处于这个状态呢?或者说大脑怎么把它的状态告诉”我”呢?这个”我”显然不是大脑自己,那么这个”我”是什么呢?是不是灵魂意识之类的东西?

在回答这个问题之前我们先看另外一个问题,假设有一个”我”存在,我们先不管它是什么,大脑为什么要把它的工作状态告诉”我”呢?如果根据作者的观点,物质决定意识。大脑的只是一台复杂的机器,它的输入是很多感官的输入信号,然后进行类似神经网络的复杂计算,最后得出计算结果。比如刚才的例子,大脑接到肠胃的信号,决定继续打字,然后它就发出指令控制手指敲击键盘就可以了。那它有什么必要把它的工作状态告诉”我”呢?比如我们用计算机来模拟这个过程,这是完全可以做到的,输入是饥饿信号,神经网络经过计算输出继续打字的决定。这就可以了,它有什么必要把决策的结果甚至某部分过程(为什么这么决策,可能是因为现在并没有那么饿,如果去干别的可能会打断写作的思路)也告诉”我”呢?如果是机器的话,这个”我”又是谁呢?

事实上大脑并不把所有的决策结果或者过程都告诉”我”,很多下/潜意识的行为,大脑根本没有告诉”我”。比如大脑一直在控制”我”的呼吸,但是它一直没有”告诉”我。直到我有点缺氧,大脑下指令做了一个深呼吸才告诉了”我”(或者是出现深呼吸之后听觉系统检测到了深呼吸然后大脑再告诉”我”)。

因此大脑似乎只是把一些重要的需要深度思考的决策结果或者过程告诉了”我”。告诉”我”这些决策结果和过程有什么好处呢?”我”会把它存储记忆下来,以后会用到它。比如上周滑雪,控制不了速度摔倒的记忆一直保存着,我们可以反思(强化学习)经验教训来学习提高滑雪技巧。

所以”我”只是一些大脑状态的存储和记忆,目的是为了在遇到类似的场景可以更好的避免同样的错误或者采纳之前成功的决策。根据强化学习的知识,判断某个决策是好是坏通常需要较长的时间,这些记忆可以用于后面强化学习。从这个角度来看”我”是不是有点像Deep Q-Learning的Experience Replay Buffer的作用呢?

前面也提过,大脑并不会把所有的状态都告诉”我”(也就是存储起来),因为我们的记忆容量(内存)是有限的。我们只能在有限的空间里保存最重要的信息,所以我们会不断产生新的记忆然后遗忘一些东西。

Replay Buffer里的一些数据在训练完模型后就没有意义了,就会被删除。即使删除,大脑在遇到类似的场景时也会做出正确的反应。作者在刚学会开车的时候有一种被过多视觉信息压得喘不过气来的感觉,开到时速60公里就感觉大脑处理不过来,而熟练了之后,即使在高速公路上开到120也觉得很轻松。这可以用上面的理论来解释:刚开始我们的自动驾驶模型还不够完善,很多路况都没有见过,比如插队行为在驾校里就从没遇到过,因此大脑需要复杂的决策过程,这些路况和决策过程都上升到意识层面并且存储到Buffer里。这么大量的信息让我们的大脑处于高速运转状态,甚至超出了它的处理能力,就像CPU的负载过高一样。随着Replay Buffer的各种路况被用来优化我们的驾驶模型,我们没见过的路况越来越少,大脑需要让我意识到的路况也越来越少,因此我们也越来越熟练和轻松。最终我们形成了条件反射,decision=f(路况输入),函数f就是我们的驾驶模型,它的参数已经高度调优。

我们日常所谓的熟能生巧其实就是上面的过程,我们从小学习走路、奔跑等都是类似的过程。到现在,我们很少需要思考怎么走路,除非我们碰到没遇到过的场景,比如在沼泽地、雪地、悬崖等我们没有见过的陌生环境。

一般情况下,我们的大脑是有富余计算能力的,因此我们的意识在不停的流动。所谓的流动就是我们大脑除了处理实时的输入,还有富余能力从Replay Buffer里不断的取出最近的一些场景来进行强化学习——调优我们的模型。但是如果需要实时处理的信息用光了我们所有的计算资源,那么我们就无法同时进行模型调优了。我们通常会有这样的感受,在经历某些复杂的事件时,比如在考试时,我们会完全”忘记”了自我的存在,全身心的投入到解答考题的过程中。又比如在初学开车的时候,总感觉手脚不够用,其实是大脑处于超负荷的运算过程中,还没有来得及把决策传递给脊髓从而控制肌肉的运动。这种全身心的投入是一种很特别的体验,我们会彻底忘掉其它的事情——包括那些烦心事,因为在大脑的优先级队列里当前任务的优先级最高。因此有的人会去做一些能够占据大脑CPU的事情,比如看恐怖电影、进行各种刺激的极限运动。这些事情通过占据大脑来让我们暂时的”忘掉”(其实是把记忆从内存换到磁盘)不愉快的事情。一些宗教也会有冥想或者禅定的行为,我不知道和这个有没有关系。

如果只是为了打发无聊时光的刺激性运动,过去也就过去了。但是像学开车,我们在Replay Buffer里存储了大量有用的新场景的训练数据,当时我们并没有时间反思(强化学习)。我们会在大脑闲下来的时候进行这些工作,因此休息和睡眠就非常重要。休息的时候,我们的四肢虽然处于放松状态,但大脑可能一直在做强化学习。在睡眠的时候,我们的大脑不需要处理实时的信息(其实也不完全是,只是我们的大脑忽略了大部分信号,但是一些紧急信号还是可以唤醒我们,让我们从休眠状态进入正常状态),因为这些场景大部分都是”历史”,因此没有必要再次告诉”我”,它默默的在后台强化学习就行。但有的时候某些重要的历史还是会重新被大脑以处理过的形式存储起来,并且形成新的意识,这可能就是梦的产生过程。

从这个角度,我们也可以解释劳逸结合的重要性。有一部分强化学习过程是在收集训练数据的过程中就完成的,但是如果收集数据过于复杂以致于大脑没有空闲资源学习,那么我们就需要停下来休息一下。

和强化学习类似,很多状态的Return是需要等到一个Episode结束或者一定时间以后才能知道。比如我们做了一个预测,也就是有了(s, a),但是这个预测需要第二天才能看到结果,因此Reward r当时是不知道的。所以我们需要把这个(s, a)存储起来,到了第二天,我们把r加上得到(s, a, r),就可以强化学习了,这也许就是所谓的”反思”过程。

自我意识

根据前面的观点,自我不过是为了进行强化学习的一个内存Buffer,存储了一些重要的决策以及决策的理由。因此并不存在一个”我”,”我”只不过是一些关于”我”的记忆而已。回想一下,真的有一个实有的”我”存在吗?那不过是众人给的一些标签而已。我们觉得自己是好孩子,那不过是父母老师给的标签,我们不会一生下来就认为自己是好孩子或者坏孩子。

自我意识看起来是跟他人的评价密切相关的,是社会性的产物。非常的凑巧,昨天读到的一篇文章好像能印证这个看法。这篇文章的标题是一条鱼也有自我意识?近50年的权威试验遭重创。下面是摘录的部分原文:

镜子测试(mirror test)通常用于检测生物体的自我认知能力。近期,一项报告指出鱼也通过了镜子测试,这重新引发了人们关于如何定义与衡量这种神秘特质的争论。

一条蓝黑相间的小鱼游到一面镜子前。之前研究人员在它的咽部做了一个褐色标记。小鱼面向镜子竖着游动,露出它的腹部。这时,它突然转身向缸底的沙堆俯冲,用咽部撞击沙子,然后重新游到镜子前。小鱼的这一系列操作意味着什么?对一些科学家来说,这个试验毫无意义;而在另一些科学家看来,这可能是一项颠覆性的发现。

德国马克斯-普朗克鸟类研究所的演化生物学家Alex Jordan认为,这只裂唇鱼(cleaner wrasse)通过了一项经典的自我识别测试。长期以来,科学家一直认为,能够在镜子中辨认出自己,反映出该生物体具备某种自我意识甚至能感知他人意识的存在。近50年来,他们一直在利用镜子试验测试动物的自我意识。让动物熟悉镜子之后,他们在动物身上的某个地方画上记号,动物只有在镜子里才能看到。如果动物面对镜子时碰触或检查到了身上的标记,它们就通过了测试。

演化心理学家Gordon Gallup在还是研究生的时候,有天在镜子前刮胡子时想出了这个经典的试验。不久后,Gallup在杜兰大学任职时,接触到了三角洲地区灵长类动物研究中心的动物,他可以在那里验证他的想法。

Gallup首先向四只黑猩猩展示一面镜子,每只黑猩猩被单独关在一个笼子里。起初,黑猩猩的反应就好像看到了一个陌生人。但几天后,他们在镜像前停止了威胁和叫喊行为,转而开始用镜子观察自己:清洁牙齿上的食物、抠鼻子、检查生殖器。为了证明黑猩猩明白他们所看到的镜像,研究人员麻醉了黑猩猩,并在它们的眉毛和耳朵上涂上了红色颜料,之后把黑猩猩放回镜子前。黑猩猩照镜子时会用手指碰触脸上的颜料。

与此同时,猕猴却没有通过Gallup的测试,这比黑猩猩成功辨认出自己更让Gallup等人吃惊。

Gallup给我展示了一些黑猩猩镜子测试的黑白照片,并表示,镜子测试反映的是自我意识。他将其定义为“可以把自己想象成为镜中物体的能力”。他认为这意味着一种罕见的智慧。Gallup认为,任何能在镜子中辨认出自己的动物,都有可能意识到其他动物也有独立的思想,甚至同情它们。个体的自我意识意味着对群体的意识。

然而,在Gallup看来,只有三个物种算得上通过了测试,它们是:黑猩猩、红毛猩猩和人类。他发现其他所有物种的行为证据都没有说服力,并认为研究人员正在解读动物行为中不存在的东西。

社会联系造就自我意识

Jordan研究的是群居动物演化过程的心智技能。他和合作者想要探索群居鱼类的认知极限,因此想到了镜子测试。首先,他们测试了丽鱼(cichlids,一种热带鱼),但它没有通过测试。因此,研究人员考虑下一步要尝试什么鱼。“答案来了,当然是裂唇鱼。”Jordan说,“这是一种非常聪明的动物,具有高度的社会性。”

关键结论是”社会联系造就自我意识”,因为根据前面的讨论,自我完全是别人对”我”的看法(标签)的记忆,因此社会性的动物更容易有自我意识。

“我”除了存储历史的场景和决策(类似于强化学习的(s,a))之外,还根据他人的反馈存储了很多自我的标签,这些标签有的会伴随人一生而有些随着人年龄、经历或者地位的变化而不断变化。

自由意志(free will)

自由意志可以说是二元论者的最后”武器”。说”武器”其实不恰当,它更像是最后的”避难所”。常见的说法是:如果意识不存在或者完全由物质决定,那么就没有自由意志。我们从自我的主人变成了一个看客,所有的一切都是按照剧本在演出。那”我”存在还有什么意义呢?接着他们可能会说:既然我的所作所为跟我没有关系,那就没有任何责任可言了,一个杀人犯也是没有责任的呢,因为他完全做不了任何决定。

作者的答案是:既然”我”都不存在,那么有什么必要谈论”我”的价值呢?如果”我”指的是物质的身体,那么它的意义就是别的话题了,我们在后面的生命部分讨论这个话题。责任的问题就更加简单了——既然没有意识了,物质身体犯了什么错误就接受什么样的惩罚。这些惩罚法规是长期进化过程中总结出来有利于种群进步的法律等规章制度。

但是执着于”我”的人还是会说,既然”我”都没有了,那活着还有什么意思呢?那我就得过且过,随波逐流算了。如果你这样的想法只是为了”说明”意识存在的价值,那么前面的解释已经足够,你的这个想法并不是武器,而只是最后的”避难所”而已。如果你真的有如此的想法,那么作者希望你在后面讨论生命的意义时能找到意义。如果还是找不到意义的话,那么作者在这里承认前面所说的都是荒谬的无稽之谈。因为让读者陷入虚无主义,作者的罪过就极大了。

我们也可以换一种世界观。既然没有了自我,那么遇到问题就可以从更高的层次来思考问题了。首先我们在遇到问题时第一反应就不会是逃避了。比如疼痛是不好的感受,但是我们可以需要庆幸疼痛的存在,它是身体发送给大脑的报警信号,使得我们可以发现问题并及时解决。我们不会纠结于疼痛带给”我”的感受而怨天尤

标签: 智能型功率变送器m11传感器t型m12连接器

锐单商城拥有海量元器件数据手册IC替代型号,打造 电子元器件IC百科大全!

锐单商城 - 一站式电子元器件采购平台