特斯拉汽车公司的创始人之一埃伦·马斯克最近患上了“科技恐惧症”,他在社交网络上连发两条耸人言论,警告人类要对人工智能特别小心,因为人工智能在未来很可能比核武器还要危险。
埃伦·马斯克冷不丁地抛出这样的言论,是因为不久前看了一本名为《我们最后的发明:人工智能及人类时代的终结》的书,这本书的作者认为,人工智能的出现将会为人类带来灭顶之灾。暂且不说这种可能性有多大,仅从目前来看,人工智能对待人类的态度还算友善。
比方说,前不久被微信列为不受欢迎名单的微软小冰,不久将以小冰二代的身份重返微信平台,而且还带来了一项特殊功能——控制智能家居,假如你在微信中对小冰下达关灯的指令,家中的智能电灯就能自动关闭。假如有一天小冰不高兴了,顶多不听你的指挥,拒绝开灯,尚不至于要了你的命。当然,如果未来你家的电锯也受小冰控制,那就不好说了。
所以,我说目前人工智能对待人类的态度还算友善,这句话还隐藏另外一个意思,就是即便它不友善,现在也还没到对人类生命构成威胁的时候。不过,埃伦·马斯克的担忧也并非杞人忧天,我认为人工智能哪怕具备以下四点中的一点,就足以对人类带来不可想象的后果。
一、通过图灵测试
著名的“图灵测试”说的是假如一台电脑能在5分钟内回答人类提出的一系列问题,且超过30%的答案让测试者误认为是人类所答,那么这台电脑就通过了测试,并被视为具有人类智能。
30%的说法是由英国人工智能之父阿兰·图灵提出的,这个标准现在愈发遭到人们质疑。图灵本人后来也否认自己曾为这项测试设定所谓标准,30%只是自己随口一说。说者无心听者有意,图灵去世后37年,美国科学家兼慈善家休·勒布纳把这项将这项测试办成了一年一届的赛事,这项赛事从1991年开始,直到2014年6月,主办方才宣布首台计算机通过测试。不过这次事件随后遭到媒体质疑,将其视为一次炒作。
我对此到有些不同的看法。计算机之所以能够通过测试,依托于强大的数据库作为支撑。在接受测试之前,计算机已经有了大量的人类知识作为储备,以及人类为它精心编制的智能化程序。也就是说测试的实质是由作为人类的测试者提出问题,然后再由伪装成人类的计算机说出人类为其设定好的答案作为回答。许多质疑者认为,这项测试表面上看是计算机与人类之间的较量,实际上只是人与人的博弈。我倒认为,测试的实质和结果并不重要,重要的是它的的确确骗过了一些人。
如果拿人类本身来举例,一个孩子编造的谎言很难骗过一个成年人。这是因为成年人比孩子的生活经历更为丰富,辨别真伪的能力自然也更强一些。这么一想,那个伪装成13岁男孩的计算机“尤金”之所以仅仅骗过了30%而不是更多的人,只是因为他的“经历”还不够丰富,也就是说如果他的数据储备足够强大,程序足够智能,让更多的人上当只是时间问题。而现在他已经以一个13岁孩子的身份成功骗过了30%的成年人,也就是说相比13岁的人类,尤金显然更为智慧。
尽管目前人工智能还停留在对人类的拙劣模拟阶段,但随着人工智能技术的发展,有一天计算机将可以通过对性别、年龄、职业、生活习惯等方面的数据分析,进行智能化的模拟,好比现在的新闻网站会根据你的浏览习惯进行智能化的推荐。那时,计算机将可以模仿任何人,坑蒙拐骗等犯罪行为将成为司空见惯的事。
二、超越人类智慧
事实上,人工智能在数据计算、博弈系统、管理系统等许多领域已经超越了人类智慧,Kiva智能仓储系统实现了仓储自动化应用、深蓝超级计算机在1997年战胜了国际象棋冠军、沃森超级计算机在2011年的智力竞赛中战胜人类、由谷歌制造的无人驾驶汽车也即将成为现实。这意味着计算机在这些领域中已经超越了人类智慧,由此引发的直接后果将是相关从业者将不得不面临失业的处境。
好比无人售票系统的投入使用导致售票员的失业,无人驾驶汽车的出现也将让司机这一职业成为历史。而在计算方面,人类几乎已经全部依赖于计算机,口算、心算和珠算等计算方式已经被当做一种特殊能力,作为表演常常出现在电视节目里。更加贴近我们生活的例子是,人们在处理生活难题时也越来越依赖于计算机给出的经验和答案,而不是依靠自身思考。比如我们中国人最为熟悉的“百度一下,你就知道”。
人类在某些领域已经越来越依赖于计算机,从而使得人类本身在这些领域逐渐丧失了与计算机的竞争能力。换个角度说,人类正在逐渐放弃自己的智能,而将这种智能赋予了计算机。如果说由此导致的失业问题会有一个循序渐进的过程,而不至于引发人类恐慌,那么更严重的问题是,假如有一天计算机突然失去某些能力,或者拒绝施展某些能力,而人类本身已经不具备这项能力,后果将会如何?
三、拥有创造能力
机器与人类一样,都具备学习的能力,不同的是机器的学习依赖于经验的积累,其过程也就是不断地增加知识的储备量,和不断地从处理问题的过程中获取经验,从而在遇到同类问题时根据知识和经验解决问题,也就是我们通常所说的“举一反三”。而人类不同于机器之处在于,人类的学习除了经验的积累之外,同时还具有创造力。
人类的这种创造力又被称为“跳跃型学习”,在某些情形下也被称为“灵感”或“顿悟”。一直以来,计算机最难学会的就是“顿悟”。或者再严格一些来说,计算机在学习和“实践”方面难以学会“不依赖于量变的质变”,很难从一种“质”直接到另一种“质”,或者从一个“概念”直接到另一个“概念”。缺乏创造力,也就意味着机器将很难突破自身知识储备的局限性,从而像人类一样完成自我进化和完善。
不过,人类在帮助计算机超越自己上向来毫不吝啬,据说,科学家们已经研究出了一套新的数据分析方式,这套分析方法将为机器的具备创造力提供可能性。人类在计算能力上已经远远落后与机器,如果在创造力上也失去优势,无异于将世界拱手让给机器。
四、拥有人类感情
很显然,科学家们绝不会满足于一台智能化的仅限于进行处理人类作业的机器,而会进一步赋予机器以类似于人类的感情表达能力。现在智能聊天机器人已经可以通过对人类文字的分析做出相应的掺杂有人类感情的回答,比如你对它说“我爱你”,它会做出“我也爱你”的回答。比如升级之后的微软小冰,会刻意与领养者形成一种主仆关系。这些都是机器做出的类似于人类的感情表达。
人类感情有喜怒哀乐等多种形式,作为对人类的模仿,机器自然也应具备这些能力,否则按照人类对人工智能的标准,就算不上是智能。这种情况就导致人类很容易与机器建立起类似于人类之间的情感关系。比如相互欣赏、相互信任或者相互厌恶。假如与你互相信任的机器有一天突然感染某种病毒对你实施诈骗,你很有可能就会信以为真。这就要回到了机器利用模拟人类的方式对人类实施犯罪行为的问题。
假如你与机器彼此之间产生了相互厌恶的情绪,那么机器就有可能因此而拒绝执行你下达的命令,甚至做出伤害你的行为。鉴于这种可能性,科幻小说家艾萨克?阿西莫夫在他的小说中为机器人设定了三大定律。一是机器人不得伤害人类,二是机器人必须服从于人类,三是在不违背第一第二法则的前提下,机器人必须保护自己。不过定律只是定律,制定出来就是用来违反的。
人工智能本身就是对人类的模仿,人分善恶,谁能保证机器的绝对无害呢?