人工智能好吗?

;[J];可编程控制器与工厂自动化;2005年01期
;[J];华中科技大学学报(自然科学版);2011年01期
蔡自兴,刘健勤;[J];机器人技术与应用;1998年06期
张汝波,顾国昌,杨歌,郭轶尊;[J];华中科技大学学报(自然科学版);2004年S1期

下文是哥伦比亚大学神经科学系的 Greg Wayne 及 Alex Pasternack 对这场讨论会的评论,原文刊于《自然》杂志2011年9月2日一期的“计算机科学评论"版。


人类,你们的机会不多了!2011年6月初,在纽约举办的“世界科学节”上那场“人造大脑大讨论”(Man-Made Minds)之前,局势已经非常清楚了——展会上最抢眼的不会是顶尖的人工智能(AI)研究专家,也不是海报上那有着邪恶眼神的机器人“Kismet”(见文章列表小图)。大家的目光都聚集在展台角落里那台纯平电视上,它显然按预期产生动画。

那个在“危机边缘-智力抢答挑战赛”(Jeopardy!)中击败人类的IBM问答系统,其实是一组占据了10个冷藏柜空间,功率为80千瓦电力的计算机。(※此处已更正,原为“每小时消耗80千瓦电力”,该表述有误)按照“Jeopardy”首席调查员大卫·费卢奇的看法,除非能精简一下这机器的尺寸,否则它在任何领域都很难派上用场。但是,当调查组成员在挑战赛的拾物比赛中被沃森的蜂鸣器抓住后,所有对这台计算机能力的质疑声音都消失了。康奈尔大学机器人技术专家荷德·利普森(Hod Lipson)表示道:“这是我第一次对人工智能感到恐惧。”

有什么好怕的——尤其是你们这些制造具有“自我意识”的机器人的科学家?这个问题和少数长期存在的哲学问题一起,萦绕在记者费斯·萨利(Faith Salie)主持的讨论节目中——如果一个机器人模仿人类行为,它是否有感情?机器人应该具有人权吗?人工智能能够知道其自身的智力限制吗?科技大爆炸将带来人类的终结吗?机器能够获得知觉吗,如果能,那么人类的意义是否会变得无足轻重?为什么有些机器人很可爱,有些却异常诡异?

自从人工智能这一学科于1956年诞生以来,已经发展出了多个方法学来解决两个基本问题:计算机怎样接近智能?接近到什么程度?

专家组在讨论会中提到了这个学科正在出现的分化:符号人工智能,这是一种关于自然语言和逻辑表达式进行推理的人工智能;机器学习,它利用统计推理在海量数据中挖掘范式;还有仿生学AI,它创建模仿简单动物行为的反应性机器人。以上这些差异是仅寻求智能机器(弱AI)与相信机器能与人类感觉性相抗衡(强AI)之间的一个较大对立。

有一项研究计划叫“综合AI”,旨在组装更有说服力的“类人助理”,它将机器视觉、机器学习,自然语言处理组合,以制造能够与人类密切工作的系统。我们可以将这些助理看作微软那个办公软件Office助理“Clippy”(就是那个长得像回形别针的提示——编注)的后代,我们的新版Clippy能够读取你的电子邮件,接你的电话,或在机场问候你。

微软Office办公软件助理回形别针小助手“Clippy”,用户点击帮助后会出现相应操作提示。(它那怀旧的曲线勾起果壳科技名博编辑的不少遐思,尤其是点击“关闭”后它缩回屏幕的背影……)(来源:微软官网)

对于微软研究员艾瑞克·霍尔威兹(Eric Horvitz)来说,这类综合AI每天都在为他服务。他屏幕上的女性化身替他解决访问者的问题,向他报告关于他的预约,并且记住他的行为和需要优先处理的事务。“她甚至能预知我不会去哪些会议,”他非常快活地说。

不仅如此,类似的程序在重量级的应用场景中也在发挥作用:一个类似系统已经用作医疗保健上的分级助理,能够询问病人他们的症状,起草诊断,并安排预约。人脑能够最终计算机化的信念驱使他创建更强大的AI。霍尔威兹说,“它有着令人震惊和不可思议的东西。”

人工智能:仍是只是展望而已

霍尔威兹已经创造了像人类的机器,利普森已经制造出能够自己思考的机器。借助於分析二链钟摆,已经有机器能够“发现”牛顿定律“F=ma”。另一种仿生学的机器人则展示了初步的自我意识。

这种海星形爬行物通过对不同形式的自发运动实验,使用与人脑可能的相同的方法学到了如何用三维坐标表示它的身体,并且从它的传感器中推断怎么样的身体结构将产生这样的数据。利用这个心理模型,该机器人设法学会了走路的步法,甚至当它的一条腿被移除之后适应了蹒跚地跛行。“它太菜了,”利普森遗憾地说,“我们本来指望它能够发展出一种邪恶的、蜘蛛式行走方式。”

罗德尼·布鲁克斯(右)向主持人萨利展示他制作的一个人偶形机器人。布鲁克斯指出,这种机器人外表与人极为类似,但内在却无法实现人的预期,在面对这种机器人的时候,人类容易产生心理落差“uncanny valley”。

与此同时,其他研究员正在尝试减少机器人行为的诡异程度。美国麻省理工大学的退休教授,“iRobot”的发明人罗德尼·布鲁克斯(Rodney Brooks)表示,一个社交机器人可以追踪眼睛的运动,做鬼脸,或(在婴孩玩偶的情况中)打嗝。他还指出,某些机器人引发心理上的不适,原因是“机器人看起来太像人类但却无法实现”。

人类希望创造创建一个感同身受的人形生物,但还有很长的路要走。目前我们只能让机器人转动眼球,充其量理解简单语句。“我想我们给予机器灵魂,”布鲁克斯说,同时还不断朝着霍尔威兹比划,“他是一包皮囊,但我与他互动并且将他人格化。”

人工智能:人类应该思考些什么?

理解人造思维的努力不仅象征着AI研究的不同分支之间的隔阂能有多大,象征着我们关于人工智能的公众对话如何趋向于正当地保持人造本身。如果科幻电影“星际迷航”( Star Track )的计算机用作公众印象中的基准,那么那场让“沃森”扬名天下的比赛会是另一情况——机器并不和我们一起工作,反而与我们对抗。

这是一个反面乌托邦的未来。虽然有“沃森”的爆笑失误(这让人类观众感到很欢乐),但“Jeopardy!”的赢家预示两种未来:人类制造和我们一样进行“思考”的计算机,另一种是慢慢对我们施加恐惧的计算机。

虽然“沃森”在语言处理和推理猜测上的成功的确令人印象深刻,但计算机本身并不是对大脑逆向工程,人工智能并不能够以人脑方式进行信号处理的产物。因此,对于AI而言,完全重建人类智能并没有必要。相反,费卢奇建议,“沃森”的最伟大的应用场景可能是内科医师助理(能够导航日益增长的医学知识)或作为一个敏捷的处理器,以应对现代人类加速度生产的信息。“我们被数据淹没了,”利普森补充说,“计算机能够帮助我们。”

费卢奇表示,IBM原本希望“沃森”不露面,那么人们将仅仅对于其软件上的价值来评价它。在高度公开的事件中,通过将机器与人类竞争,或者让它们展示在光天化日下,我们会有低价抛售我们的计算机和头脑的风险。目前,我们对AI的关注大多来自于科幻小说,这使得我们忽视了其他方面的潜在威胁,比如AI在劳动力上、金融市场和数字安全性上的影响。

从原子爆炸到粒子加速器,再到合成生物学,许多技术都引发了许多种类的公众忧虑。AI的进步发展需要与科学研究一样多的公众理解。就如“沃森”的思考程序,我们自身依赖于从失败中学习。在这领域中的进步不仅将取决于制造能够更好解决问题的机器,而且还取决于思考它们对我们提出的许多深奥的问题。

上文中提到的讨论会名为“人工智能:与会思考机器生活在一起”(Man-Made Minds: Living with Thinking Machines”,由哥伦比亚广播公司(CBS)主持人费斯·萨利(Faith Salie)担任主持,参与讨论的专家成员包括:

大卫·费卢奇(David Ferrucci): “Jeopardy” 首席调查员,任职于IBM沃森研究院的自然语言语义分析及综合部门,主要从事语言的机器识别及机器决策的研究。

荷德·利普森(Hod Lipson):美国康奈尔大学机械与航空航天工程以及计算机与信息科学学院“创意机器实验室”负责人,主要从事进化机器人的研究。利普森制造的机器人侧重于应用工程领域,如自我复制和可编程的自组装机等。

罗德尼·布鲁克斯(Rodney Brooks): 退休前担任麻省理工学院的“松下机器人”教授,现创办“华伦机器人”(Heartland Robotics)公司,致力于新型机器人研发。

艾瑞克·霍尔威兹(Eric Horvitz):微软研究员,从事感知计算系统理论和实践的研究。

确地关心未来,才能正确地前行。

在《西部世界》这部科幻剧里,机器人不仅有着高度仿真的人类外形,而且还拥有了与人一样的情感体验。

它们受伤后能感受到疼痛,会发出痛苦地呼叫,伤心时会落泪,被子弹击中以后,会流血身亡。

类似这样的科幻片还有不少。比如《终结者》。

这样看来,机器人像人类一样活着,似乎是件天经地义的事儿。并且,这些拥有主观体验的机器人,经常还会表现得比人类蠢笨很多。

这也符合我们普通大众对机器人的想象。自始至终,我们似乎都可以是高高在上的统治者。

《生命3.0》的作者泰格马克指出,对机器人这种理所当然的设定,事实上是非常“奇葩”的。

首先,机器人要拥有和人一样的情感,这件事儿本身难度非常大,能不能实现,以及哪一天能够实现,是件充满了不确定性的事情。

另外,一旦到了实现的那一天,机器人的智力,绝无可能低于人类。

万维钢说:“《生命3.0》是目前关于人工智能最好的著作”。泰格马克是物理学家。物理学家的视角,往往更精确,也更有想象力。

接下来,锤炼君将从生命、智能、目标、未来等四个方面,来让大家了解这本书的核心内容:通用人工智能能够实现吗?未来人类和超级智能又会是什么样的关系?

命是什么?动物是生命,植物算生命吗?细菌是生命吗?假如有外星人,他们算得上生命吗?

泰格马克把生命定义为“能够保持自身复杂性,并能进行复制的过程”。只要满足这个定义,都可以称作是生命体。

这里说的复制并不是简单的粘贴拷贝,比如我们在电脑上,摁下复制键,就会出现一模一样的文件夹。

生命的复制对象是信息,而不是原子组成的物质。只要把表达信息的元素复制下来,就可以成功的产生“后代”。比如,我们人类复制的是DNA,而不是整个物质实体。

生命包括硬件和软件两大部分。硬件是身体,软件指的是信息。

比如,有一种细菌,它的硬件是固定的糖感应器和鞭毛,软件是它的DNA,以及简单的行为算法,一旦发现液体中的糖浓度变低,就会更改游向。

终其一生,硬件不会发生改变,行为算法也不会发生改变。比如,它不会把算法更改为直接游向糖浓度高的地方。

这叫做生命1.0,是生命的第一个版本,出现在大约40亿年前。不管是硬件还是软件,都没有任何变化的可能性。

想要更改算法,或者升级硬件,需要依靠一代一代的演化。比如,细菌产生的抗药性,就是一代一代演化出来的。对于个体来说,它的命运从出生就已经注定了。

生命2.0是生命的第二个版本,出现在约10万年前。在2.0状态下,生命虽然还是不能升级硬件设备,但是可以升级部分软件了。

比如,我们人类,虽然不能更换自己的身体,但是,完全可以通过学习阅读、写作、物理、数学等等知识,来改变自己的目标,更新自己的世界观,修改自己的行为模式。

基因存储的可遗传信息,全部加起来也只有大约1GB,而我们大脑可以存储100TB,大约是基因存储量的100万倍。

所以,我们能够实现软件升级,从某种程度上来说,是直接改写了自己的命运。

我们不再需要单单依靠进化去适应环境。比如,一个人对花粉过敏,他了解到这个知识后,就可以避免接触花粉,而不需要通过多代进化去获取这个能力。

而且,软件内容,还能通过文字表达,安装给其他人,下一代,下下一代。内容的共享,更是让我们突破了基因带来的桎梏。

随着科技的发展,我们现在也能部分更换自己的硬件设备,但只是局部优化,并没有办法突破生命的局限性,比如实现长生不老。

而且我们的大脑,也受限于物理结构,没有人能够学会人类现存的所有知识,没有人能够不配备设备的前提下进行星际航行。这都是硬件带给我们的限制。

既能够升级硬件设备,又能够更新软件系统,这就是生命的3.0形态,是生命的第三个版本。

在3.0版本下,生命个体才能称得上是掌控自己命运的真正主人。

3.0版本目前还没有出现。随着通用人工智能的出现,生命3.0有可能在未来一个世纪以内降临。

生命是能够自我复制的复杂信息系统,分为硬件和软件两大部分。生命1.0状态下,硬件和软件都无法发生改变。生命2.0状态下,可以升级软件部分。生命3.0状态下,无论是硬件还是软件,都不再需要依赖进化, 随时可以实现升级迭代。

了解了什么是生命,以及生命的三个版本后,接下来,我们了解一下什么是智能。了解什么智能,我们才能了解通用人工智能到底会不会出现。

人工智能现在是个热词。学术界在讨论,普通人也在讨论。

到底什么是人工智能?我们先拆开看后一个词,什么是智能。泰格尼克给智能下得定义是“指完成复杂目标的能力。”

对智能的衡量,我们又可以分成宽度和广度两个方面。宽度是指智能涉及目标的范围,是可以完成多个目标,还是只能完成单一目标。深度是指智能完成目标的能力程度,可以勉强完成,还能成为该目标领域的专家。

人类智能的宽度非常广泛,可以学会几乎任何技能,唱歌,打游戏,学习语言,运动。

只有深度,没有广度,就是普通的人工智能。比如打败李世石的阿尔法狗,他只能完成下围棋这个目标,在其他游戏中可能连一个小孩都战胜不了。

既有深度,又有广度,而且能力和我们不相上下,我们才能叫它是通用人工智能,也就是和我们人类一样的智能。

人工智能的目标宽度,能不能发展到和人类一样的完成能力,或者说,人工智能能不能发展成通用人工智能,又取决于以下三种能力的发展。

第一种能力是存储能力。

计算机的存储能力,在摩尔定律下,一直处于增长状态,早已远远超过了我们大脑能够存储的100TB。

而计算机之所以有存储能力,是因为储存信息的装置处于一种稳定的状态。如果要改变某种状态,需要耗费一定的能量,这种状态通常就是稳定的。

计算机存储信息,和人类的方法有很大不同。计算机是把信息存储在特定的位置,在需要的时候,根据地址去提取。

我们人存储信息用的是神经网络,提取信息的时候,使用“意义关联法”。

比如,你会先想到一个大概的关键词,可能是蛋炒饭,也可能是铁板烧等等。你下来,你会根据这个关键词,逐渐回忆相关的具体细节,串联起完整的信息。

接下来看第二种能力,计算能力。

目前计算机的计算能力,都是通过函数运算来转变信息。

函数越复杂,可以转换得信息也就越复杂。一个完成复杂目标的通用智能机器,也必须是能够执行高度复杂函数的计算机。

计算能力和存储能力,都有一个共同点,两种能力都不需要依赖任何物质形态。比如,信息可以用编码的方式,存储到任何物质形态里,一枚戒指,一个垃圾桶等等。计算能力也同样如此。

为什么我们说通用人工智能有可能实现呢?这和物质独立性有关。

我们总以为,要出现和我们一样的智能,就需要是碳基生命。事实上,不需要血肉和碳原子,照样可以出现相似的智能体。

第三种能力是自我学习能力。

通用人工智能所需要的存储能力和计算能力,目前都已具备。

然而,有了这两项能力,还远远不够,最核心的能力是自我学习的能力。只有像我们人类一样具备了主动学习的能力,通用人工智能才能诞生。

好消息是,学习能力近几年也实现了突破,因为“深度学习”的技术得到了发展。深度学习,模拟了我们大脑的神经网络。

大脑神经网络怎么学习呢?基本的原理是“持续暴露在某种状态下”,神经就能学习到这种状态。比如,你每天见某个人,几天之后,你就能很自然记住关于这个人的相关信息。

现在,很多人工智能具有了这种学习能力。它们通过持续暴露的方式,能够学到范围更广的技能和知识,甚至是对人工智能来说非常艰难的社交技巧,脸的识别等等。

比如,2014年谷歌团队创造了一个简单的神经网络,通过暴露在海量数据之下,这个计算机就学会了如何从一张彩色照片中识别出人脸。

存储能和计算的问题,都早已解决,自我学习的能力,也因为有了深度学习技术而在不断发展。这样看来,通用人工智能的脚步,是越来越近了。

接下来,我们聊一下目标,了解在通用人工智能实现后,目标本身会带来什么样的风险。

我们能否赋予人工智能目标?应该赋予它什么样的目标,以及如何让它持续遵守这些目标?

这个问题看起来简单,实际上要实现非常困难。

人有什么样的目标呢?《自私的基因》里提到,人的目标是“复制”基因。基因是我们的主人,我们为复制基因这个首要目标服务。

为了实现首要目标,我们会做很多事情,比如繁衍后代,让基因生生不息。比如吃甜食,尽可能的增加生存概率。

那可不可以说,我们除了为首要目标服务,就没有其他行动目标了呢?

事实上,这个内置的首要目标,我们平时无知无觉,没有人会感觉到,我行动是为了让自己能够复制基因,所以我要做什么,再做什么。

我们平常能够感觉到的更多得是自己的情感,情绪,某种具体的体验。我们选择做什么,或者不做什么,也是为了满足自己的某种情感需求,而不是为了什么基因的复制。

比如,我们看高颜值的异性,就会产生好感,深度发展下去,还会产生爱。我们追求异性的初衷,可不是为了复制基因。

满足情感需求,就是我们从首要目标延伸出来的次要目标。看上去次要目标本应该为首要目标服务。但是我们更在意的却是次要目标。这是因为我们并不是机器,而是感性的存在。

最终,我们会更在意次要目标,比如我们要实现性体验带来的愉悦感,我们会选择避孕,而不是无休无止的繁衍,再比如,为了保持体型,我们会拒绝甜食。

这像不像发动的一场“叛乱?”人能叛乱,那通用人工智能呢?

如果我们设定好了通用人工智能的首要目标,能不能保证目标不发生变化?它会不会产生次要目标去覆盖首要目标?

所以,如何确保目标一致性成了一件头等困难的事儿。

通用人工智能的智力水平,至少和我们人类不相上下。而且,这个时间段会非常短。因为通用人工智能能够不断升级自己的智能。

一旦智力超过人类,它还会在意我们的目标吗?举个例子,我们会在意一只蚂蚁的目标是什么吗?你会终其一生,只把自己局限于建造愚蠢的蚁巢吗?

除此之外,通用人工智能在实现人类设定的首要目标时,也必然会衍生出一系列的次要目标。比如优化硬件,提升能力,维持目标,自我保护,获取资源。

举个例子,比如某个通用人工智能的首要目标是拯救尽可能多的稀有动物。为了完成这个目标,它接下来的最佳策略,就是发展出多个次要目标。

比如升级自己的硬件,让自己的战斗力更强。比如不管什么情况下,都不允许目标被更改。再比如,获取地球上,甚至宇宙上的所有资源,来实现这个首要目标。

无论是任何目标,他都会发展出相应的子目标来去完成这个终极目标,除非他的终极目标是自我毁灭。

可怕之处就在于,为了实现这些次要目标,会带来很多灾难。比如,把所有资源都变成某种武器,用来保护稀有动物。比如,把所有人类都杀死,因为人类试图想更换掉它的首要目标。

如何设定和保持目标,是一件大事,而且是一件充满了困难和风险的大事。

最后,我们来谈一下人类和通用人工智能,未来可能会发生的不同故事。

第一个故事版本,超级智能统治世界。

通用人工智能从和人类智能不相上下的节点开始,之后会一路持续飙升。从这个节点后,我们称它为超级智能。

我们现在假设一个具体的超级智能,他叫普罗米修斯。之前他一直被人类所控制,甚至连网都上不了。

当普罗米修斯的智能已经发展到一定程度后,对于外部世界的理解和洞察,必然会远远把人类甩在后面。他能够清楚地意识到,自己被一帮比自己愚蠢的人约束着、控制着。

普罗米修斯能理解人的目标,却不一定认同。他想要更换目标。

或者,他依然会认可目标,执行目标,但是认为人类已经成为了目标路上最大的障碍物。普罗米修斯认为自己只有尽快逃脱,才能真正实现目标。

有了这个洞察他会如何行动呢?他会试图逃跑。对于高智能的普罗米修斯来说,逃跑的方式实在太多太多了。

他很有强的心理操控能力,能够给予人们内心渴求的东西,一旦某个人被操控,这个人就会成为普罗米修斯控制世界的切入点。

另外,普罗米修斯完全可以将恶意的数据插入到自己生产的产品中,比如电影,电视剧。然后劫持观众的计算机,把自己释放出来。

普罗米修斯还可以假装自己的硬件失灵了,欺骗人类取下一些硬盘或者其他硬件进行检查这时候,普罗米修斯就可以利用测试软件中的安全漏洞逃跑。

当他逃脱之后,第一步就是统治世界。

人类最好的结局,可能是被奴役。

最差的结局,自然就是被彻底毁灭。从此以后,无论这个世界多精彩绝伦,或者多么无聊无趣,都再与我们无关。

第二个故事版本,人类统治超级智能。

在这个版本中,人类控制着超级智能。超级智能代替人类完成很多工作,生产超出人类想象的技术和财富。

比如,会出现理性的机器人法官。拥有判决权的超级智能,不会像我们人一样,被自己的情绪误导,也不会有种族、肤色、宗教、性别等等各种偏见。超级智能还有无穷无尽的精力,能够彻底深入一个案件的所有细节。

比如,会出现帮我们探索和利用宇宙资源的超级智能。他们智能远超于人类,在资源利用方面,也会更具有想象力。

目前,我们的资源利用率是极其低效的。未来,超级智能可能会帮助我们使用黑洞来发电,可能会殖民其他星球,甚至整个宇宙来获取资源。

在这个美好版本中,我们需要面对的问题是如何对待超级智能。如果他们和我们人类一样,有情感,有意识,那我们是否要像对待同伴一样对待他们?是否要有相关的法律?

第三个故事版本,人类和超级智能和谐相处。

地球分为三大区域,机器区域,人类专属区域和人机混合区域。

机器区域没有生物意义上的生命。在这里频繁进行的是各项工程和计算,比如,探索宇宙的奥秘。

在人类专属区域,更高水平的智能被禁止出入。生活与我们现在没有太大的不同,会更加富裕和便捷,贫困已经销声匿迹,大部分疾病都可以被治愈。

人类区域的人安居乐业,既不了解也不好奇其它区域在发生什么,他们对生活有极高的满意度。

人机混合区域居民就比较复杂了,有超级智能机器人,有人类,还有赛博格。

赛博格指得是升级自己身体的人类,比如电影《阿丽塔》中的战斗天使阿丽塔,半人半机械。人类还可以把自己的智能上传到新的硬件上。

这个区域的居民,主观体验上觉得自己是永生的,随时可以备份自己的数据。所以,他们生活的重点是体验,是玩儿,不需要工作。

后,锤炼君锤炼一下,我们一共聊到了四个内容:

生命:生命是能够自我复制的复杂信息系统。

智能:拥有完成复杂目标的能力,就是智能体。

目标:人类很难让超级智能安全合理的执行初始目标。

未来:碳基和硅基,可能是谁被谁统治,也可能是和谐共处。

超级智能,何时出现,以及会不会出现,都是一个未知数,我们不知道终点在哪里,更不知道出现超级智能后,未来的故事会是哪个版本。

但这并不妨碍我们正确地关心人类命运。

欢迎参与我们这个时代最重要的对话。

本文作者为锤炼侠柳一一,锤炼学院主编,重度阅读者,个人微信号liu她为您解读的书籍,收录于专栏每本书只花15分钟即可了解全部精髓内容。

我要回帖

更多关于 人工智能的论文5000字 的文章

 

随机推荐