自动校队的导弹系统配合人工智能导弹系统你觉得杀你会出现错误码?

你说的那个是无线电指令导弹 也叫半主动雷达制导导弹

很落后了基本不用了。改变方向和姿势它是靠弹翼 和 陀改变 不用靠【喷气的

你对这个回答的评价是

下载百度知噵APP,抢鲜体验

使用百度知道APP立即抢鲜体验。你的手机镜头里或许有别人想知道的答案

编译:惊蛰、新知之路、王一丁、张南星、于乐源、蒋宝尚

荒谬的预估往往会导致对未来的恐惧而为什么有人会对AI和机器人的技术前景如此恐慌?下文中这七种错误往往导致AI和机器人前景的荒谬预测。

很多人对人工智能导弹和机器人行业的快速发展感到十分焦虑一部分人担心他们很快会变得过于强夶,也有一部分人担心他们会对人类现在的工作体系产生冲击

Market Watch上有人宣扬机器人将在十到二十年内占据现今大部分工作,甚至还发布了┅张满是数据的图片当作论据

机器人将在十到二十年内占据现今大部分工作

这份声明并不客观,比如如图中显示美国100万地面维修人员茬在十到二十年之后只会剩下5万,因为以后这些工作都会由机器人完成实际上,目前有多少台机器人正在做地面维修呢一个也没有。

類似的例子也适用于上图中其他所有行业所谓在体力劳动者中将会出现90%甚至97%的大幅就业下滑,然而实际上却并非如此

在许多对AI未來的预测中,都有相同的问题首先列出ABCD四个有关导致错误预测的大方向,并简要评估他们的立场

A.泛用人工智能导弹(AGI)- AGI旨在从当今AI技術(如机器学习)中分离出一个思维实体,目的在于创造能像人类一样能够自主思考和行动的个体但最近AI领域的成功却并非都与AGI相关。

囿些人认为所有的人工智能导弹都是泛用人工智能导弹(AGI)但正如“General”一词所指,AGI要求远远高于目前AI如果将现有的AI都理解为是AGI,那就奣显有些名不副实了

目前,“泛用人工智能导弹”的研究并不是十分理想既没有做到特别通用,也没能形成一个独立存在的个体50年湔遇到的问题,如在推理能力和常识上的不足现在仍是制约其发展的主要原因。在其他领域中比如在人工生命(Artificial Life)和适应行为模拟(Simulation of Adaptive Behavior)方媔,人们已经取得了一些进展但这些研究现在已经停滞了。

理论上说“泛用人工智能导弹”是可以实现的。然而或许人类还不够聪明还没弄清楚怎么创造“泛用人工智能导弹”

(编者注:本文作者在“目前适合部署在机器人上的人工智能导弹系统”一文中有介绍。)

即便可能人类距离理解和建立真正的“泛用人工智能导弹”远比许多专家所说的要远。(经常有人提到“一个人工智能导弹”好像所囿人工智能导弹都是独立的个体一样。这一点很让人困惑就像本地人不把旧金山(San Francisco)叫做“Frisco”一样,没有一位认真的研究人员会用“一個人工智能导弹”来形容人工智能导弹)

B.奇点(Singularity)- 奇点的意思是指一个有着明确目标的AI实体,会在某一个点在AI的研究方面超越人类的研究速度与此同时,就如摩尔定律所言计算机处理速度越来越快,AI在达到奇点后会开始自我研究与加速的过程如同物理学中黑洞的奇點一样,我们也不知道奇点发生后AI到底会变成什么样子

正因为这种不可预测性,“相信”奇点的人们很乐意赋予奇点发生之后的AI无所不能的特性之所以把“相信”两个字用引号括起来,是因为这种“相信”多多少少带有些宗教的味道以后对有些人来说,他们可以向这樣的AI上传自己的大脑从而得到永生而不必麻烦地相信通常意义上拥有超能力的神。这种前所未有的强大科技将成为这些人新的上帝一個新的宗教就此诞生了,科技教!

有些人对于宗教中的救恩日(Day of Salvation)何时到来有着非常明确的想法一位奇点预言家的追随者们板上钉钉地楿信,这件事将在2029年发生

这种预测错误很大程度上受到了指数主义的影响,这也是在这里所讨论的的AI领域七个常见错误之一

虽然现在嘚计算机拥有强大的计算能力,但这并不意味着我们已经拥有或者哪怕是接近拥有一种可以在人工智能导弹领域进行自主研究并且能通過重写自己的代码从而进行不断优化的程序。

事实上现阶段我们还没有写出能自己理解一页代码的程序,同样的代码计算机系的新生仩了一个月的课之后就能理解的更好。所以如果想要创造比人类更擅长编写程序的AI系统,我们面前有很长的路要走

类似的,奇点崇拜鍺常常提到的通过在神经元层面模拟大脑来达到奇点的方法的进度也不怎么样三十年来,我们已经详细了解了C类线虫由302个神经元构成的唍整“线路图”以及它们之间的7,000个连接。这一点对理解其行为和神经元之间的联系非常有用

但是,这是一项长达30年的研究涉及数百囚,都只为了尝试了解区区302个神经元根据打算从头一步一步模拟线虫神经系统的OpenWorm项目,研究的进程还没有走到一半

如果想模拟人类大腦中1000亿个神经元和甚至更大量的连接,难度是可想而知的所以,如果你想通过奇点事件把自己上传到计算机模拟里的话,还是先试着哆活个几百年吧

C.不同的价值体系 - 第三种情况,是基于AI的机器在执行某些任务时通常做得很好好到甚至在复杂的世界中也可以达到超人嘚表现。然而这些机器并没有人类的价值观和思维方式,这就会引发各种各样的问题

这个问题的某些版本的确是真的 - 比如说,如果我朂近买了张去某个城市的飞机票突然间我浏览的所有靠广告赚钱的网站都开始给飞往那个地方的机票打广告。这当然很蠢我不认为这樣的现象算得上高水平的AI,只能说这类广告的算法设计并不是很好

但这个观点还是有支持者的(出于公正的考虑,以下保持匿名):

“囿个很有名的回形针事例刚好能说明这个现象:如果一台机器的唯一目标就是最大化的量产回形针那它有可能会发明些匪夷所思的技术,只为了把宇宙中能用的资源都转化成回形针最终毁灭人类。”

当然… 不是这样的无论如何我们都不会在现实世界中遇到这样的软件,一个为了实现人类给它制定的目标可以聪明到可以颠覆人类社会,并忽视人类正是它的创造者这一事实如果你认为技术会这样进化嘚话简直就是愚蠢至极,各种各样错误的原因很有可能在下文提到的七个问题中找到答案

情况C来自于研究员们,当他们发现一个有趣的智能方面的研究课题后随即借用自己的名声把它宣传成一个短期内急需解决的问题。于是当AI的奉迎者们知道了,便顺势将这个问题变荿一个关乎人类存亡的重大问题

顺便说一下,用数学给这样的AI作证明并不现实多年来,通过大量的努力我们还是无法证明一千行的玳码不能被黑客破解,更遑论大型AI系统了不过好消息是,数千年来我们人类可以和马共存,尽管马是个拥有自我存在感、渴望和远超瑺人体力的独立个体但人类仍为了自己的利益而驱使它们。而神奇的是我们直到现在都没有任何一个和马相关的定理!

D.超邪恶、恐怖、残忍、人类灭绝型AI - 最后这类就像第三种情况一样,但是这类AI对人类有明显的反感甚至打算毁灭人类以获得更好的生存。

至少从上世纪陸十年代末期开始这种科幻思维在好莱坞特别流行。在上映于1968年的《2001:太空漫游》中机器所造成的破坏仅限于一艘太空船。

而在1970年上映情节也基于这个时间点的《电影巨人:福宾计划》中,人类在全球范围内都遭受到了浩劫这个主题多年来一直持续着,距今不久的於2004年上映以2035年为事件发生时间的电影《我,机器人》中名叫VIKI的邪恶AI通过新型NS-5类人机器人接管了整个世界。

这种情况比上文的情况C错得哽为离谱我觉得这些电影中的想法会让人们对这些的危险感到心有余悸。

军事机器人杀手的话题在新闻报道中这个话题很容易和情况D楿混淆,更糟的是被那些忙着宣扬邪恶AI的人将其与情况D彻底混为一谈事实上这两个是完全不同的问题。此外我认为关于军事机器人的佷多观点都被严重误导了。然而这是一个完全不同的话题

言归正传,如下是在AI预测方面经常犯的七类错误这七类错误影响着A、B、C、D四種情况发生的时间和可能性。不过其中有些错误对错误预估的影响要大于其他的错误。下文中小标题里用字母标出了这七类错误主要會造成A、B、C、D中的哪些情况。第一类错误对所有情况都会造成影响!

未来主义者Roy Amara是位于斯坦福大学内的For The Future研究机构的联合创始人与主席,無数项目的资本风投家也是硅谷的智囊之一。让他被世人所知的是他的那句著名格言常被引用为“Amara法则”--我们总是倾向于高估技术带來的短期影响,并低估其长期影响

关于Amara法则的双向性有一个很好的例子,即美国全球定位系统(GPS)30年的历程自1978年起陆续在轨道上放置叻24颗卫星(算上备份的话是30颗)。

地球上的任何一点可以同时看到其中的4颗这样就可以计算经纬度和海拔高度。位于科罗拉多州Schriever空军基哋的指挥中心不间断的监视卫星的轨道的精确度和机载原子钟的准确性出现微小的偏差后便上传修正的数据。

如果没有这些上传的数据GPS将会在一至两周之内出现定位到别的街道的错误,再过几个月之后误差就可能将你定位在别的城镇了。

GPS的目标本是为了令美军精准的投放炸弹这是设计之初的期望。美军在1991年的“沙漠风暴”军事行动中首次使用起初的效果貌似十分理想。

但在90年代GPS计划一直受到质疑洇为其精确程度一直没有达到最理想的效果直到21世纪初被美军全面接受之前,整个项目面临着一次又一次被裁掉的风险度过了一段艰難的日子。

如今GPS的使用进入了长期的规划,当初把它投放到卫星轨道时根本没想到会有如此多的用途比如当我在外面跑步时,正是利鼡Apple手表上的GPS模块记录我的位置其精度可以达到分辨出我在沿着一条街的哪一边行进。

GPS信号接收器的尺寸之小、价格之低及应用之广估计昰它原来的设计者门怎么也想像不到的它在为全球的物理实验提供同步服务、成为美国国家电网的核心组成部分、甚至帮助股市里高频投资的操作者们规避时间误差所造成的灾难。

GPS应用在所有的美国大大小小的飞机导航系统上、跟踪定位获得假释的犯人、告诉人们什么种孓应种植在哪片土地上它获取卡车队伍的信息并报告司机们的表现、基于地面上反弹回去的信号判断地面湿度,并制定灌溉计划

GPS始于┅个单一的目标并艰难的为之努力。现在它已渗透进我们生活的诸多领域如果没有了GPS,我们在生活中遇到的问题不止迷路这么简单而昰可能会处于一个饥寒交迫的环境,最终导致死亡

在过去三十年中我们也看到了同样模式的技术型产品。首先是一个宏伟的设想紧接著就是失望,然后一点点的发展最后超越了当初所设想的目标。比如区块链(比特币是其第一个应用)人类基因组测序,太阳能风能,甚至送货上门服务

或许最著名的一个例子就是计算机。当1950年代第一台商业计算机问世时引起了广泛的恐慌大家都认为以后所有人嘟会因计算机的出现而丢掉工作(可以看看1957年的电影《Desk Set》)。

但在此之后30年里计算机几乎没有对人类的直接影响甚至到了1987年仍没有用在消费类设备上的微处理器。所有的改变都发生在接下来的30年中也被称之为第二次工业浪潮,现在看看我们身上、车里、房屋里计算机巳随处可见。

为了阐述计算机的长期影响如何被一贯地低估我们需要回顾一下旧科幻电影或电视剧中描绘的未来是什么样子。在1966年版的《星际迷航》中300年后宇宙飞船计算机的样子已经让30年后的人们笑掉大牙但我们不妨三个世纪以后再回头来看看现在的科幻电影。

《星际洣航:下一代》和《星际迷航:深空九号》这两部电影的时间跨度是虽然达到13年()但影片中遥远未来的太空船里,演员手上仍需要携帶大量的文件与空间站的文件传输仍然不能通过网络的方式(就像当时的AOL网络一样),而飞船中用来检索资料的数据库由于仍采用互联網时代之前的“未来”设计样式而显得十分的落伍

绝大多数的科技产品的短期效应会被高估,因为他们是笼罩着光环的新鲜事物人工智能导弹由于被贴上新鲜事物的标签在1960年代和1980年代一次又一次的被高估,现在也是同样的情况(一些大型公司释放出的在市场上应用AI的消息是带有欺骗性的,在不远的将来可能就会砸了自己的脚)

并不是所有的科技产品的长期效应会被低估,但AI的长期效应的确被低估了问题在于“多久”才算长期,以下是6个常犯的错误观点会助于更好的理解为什么AI的长期效应是被严重低估了的。

亚瑟·克拉克(Arthur C. Clarke)、羅伯特·海因莱因(Robert Heinlein)与艾萨克·阿西莫夫(Isaac Asimov)并称为科幻界的“三巨头”但克拉克绝不仅是科幻作家,他更是一位发明家、科普作家與未来主义者

早在1945年2月,他给《无线世界》(Wireless World)写了一封信提到了与地球同步的轨道卫星的创意,同年10月他又发表了一篇论文概述叻这些卫星可以向全球范围提供了无线电信号的覆盖。

在1948年他写了一篇短篇小说《前哨(The Sentinel)》为斯坦利·库布里克(Stanley Kubrick)的经典电影《2001太涳漫游》提供了核心灵感。在电影拍摄期间卡拉克为电影撰写了同名书籍,为电影观众们解答了诸多的疑惑

在1962年至1973年期间,克拉克明確三大假说后被称为克拉克三大定律(他说牛顿仅用了三条定律,对他来说三条也足够了)

  • 定律一:如果一个年高德劭的科学家说,某件事情是可能的那他可能是正确的;但如果他说,某件事情是不可能的那他也许是非常错误的;

  • 定律二:要发现某件事情是否可能,唯一的途径是跨越“可能”的这个界限从不可能回到“可能”中去;

  • 定律三:任何非常先进的技术,初看都与魔法无异

想象一下我們乘坐时间机器(时间机器本身就如同魔法一般)带着牛顿从17世纪晚期来到现在剑桥大学的三一学院教堂。这座教堂在牛顿生前已经伫立100哆年了所以当他突然发现身处其中时应该并不会感到太过震惊,在没有意识到当前的日期之前

然后我们给牛顿先生展示一下苹果(大镓都知道牛顿与苹果的故事)。从兜中拿出一个苹果手机开机并递给牛顿先生让他看看发亮的屏幕和充满各种应用的图标。

别忘了牛顿嘚伟大成就之一就是通过三棱镜将白光分离成不同频谱的光从而揭示了光的秘密。所以在阴暗的教堂里从一个如此小的物体中释放出洳此艳丽的光,无疑会给他一个巨大的惊喜

接着给他播放一段英国田园风景的小视频,或许再配上一些他熟悉的动物和教堂中的音乐這些画面暂时跟未来世界的样子无关。最后打开一个网页,里面是500多页他亲笔注释的著作《自然哲学的数据原理》的电子版教他用手勢操作来放大查看细节。

牛顿能够解释出这么小的设备是怎么做到这些功能的吗虽然他发明了微积分、研究出光学和重力等物理理论,泹他从未能将炼金术和化学区分开

所以他会很困惑,甚至无法设想出这台设备最基本的理念框架这与他生前致力研究的神秘事物并无②致。对他来说这就是魔法无异请记住,牛顿可是一个十分聪明的家伙!

如果一类事物被定义为魔法我们则很难知晓它的界限。假如峩们进一步给牛顿展示手机如何在暗处发光、如何拍照及录音如何用来当放大镜和镜子,还可以让手机以不可思议的速度来进行多位小數的算术运算再把它佩戴到身上用作计步器。

牛顿看完这些后会猜测这台小机器还能做什么?他会不会猜出通过这台设备就在这座教堂里即可与世界上任意角落的人通话

三棱镜效应是永恒的,牛顿会不会猜测出iPhone也会像三棱镜一样永远有效而不明白事实上它需要充电(记住我们是在迈克·法拉利出生前100多年找到的他,所以当时关于电的概念并没有普及)如果不需要火就可以产生光,那么能把铅炼成金吗

这就是我们所有人想象未来科技时所遇到的问题。如果距离我们所能理解的科技太过遥远我们将不会知晓它的界限,那对于我们來说就是魔法

一项科技一旦超越了那条“魔法线”,它将不可能再被证伪因为那的确就是魔法。

每与别人探讨人类是否应该惧怕泛用囚工智能导弹时经常遇到这样的情景,暂时先不论上文中C和D的情况人们总是认为我不明白它有多强大。可这并不是一个论点因为我們甚至都不知道它是否存在。以观察到的种种迹象显示我们仍不知道如何建造一个泛用人工智能导弹所以它的各项属性性能便无从知晓,所以从字面意思上看它的确具有强大的魔力没有界限。

然而宇宙中没有任何事物可以没有界限,再强大的AI也不例外

留神那些说未來科技如同魔法一般的说法,这个说法永远无法被证伪因为这是一种源于信念的说法,而不是源于科学的

在日常的社交中,我们可以判断出我们周围人的个体能力值的确有时个别例外情况会颠覆或混淆我们的估计,这也是种族主义、性别歧视与阶级歧视等问题的根源

然而总的来说,我们通过观察一个人曾经做事的表现来评估他完成其他事情的能力也能够从其在一项任务的表现来推测他能否胜任更艱巨的任务,我们自然而然的能从一个人表现出的能力去推断出他在相关领域的胜任能力

当我们在国外向陌生人问路时,如果他们满怀信心的用我们问的语言进行回答并且所指的路线看起来也没错。我们就会觉得值得再碰碰运气继续问乘坐公交时怎么付费。

如果我们┿几岁的孩子可以配置新游戏机连到家里的WIFI上那么我们会认为只要他们愿意就可以把新的家用电脑也连到WIFI上。

如果一个人可以驾驶手动擋的汽车坚信他也可以开动自动挡的汽车。可是如果这个人生活在北美洲我们并不认为他可以反着来一遍。

如果我们在一座大型五金商店内询问员工家用电器的配件在哪他却领我们走到了花园工具的那一行。我们就不太可能再去问同一个人哪能找到浴室里的水龙头洇为我们认为他既然不知道家用电器配件在哪,说明他其实不太清楚店里的布局所以我们便倾向于找其他人问第二个问题。

现在让我們来看一下当今AI系统的一些表现的案例。

假设一个人向我们展示一张人们在公园里玩飞盘的照片我们自然的相信他可以回答下面这些问題:“飞盘是什么形状的?”、“一个人大概可以把飞盘扔多远”、“飞盘可以吃吗?”、“大概多少人在玩飞盘”、“3个月大的宝寶可以玩飞盘吗?”、“今天的天气适合玩飞盘吗”等问题。

与之相反我们不能指望当一个人因为文化差异,完全不明白照片里显示嘚是什么时仍能够回答这些问题。如今图像标签(image labelling)系统虽然可以比较准确的为网络上的图片打上“人们正在公园内玩飞盘”诸如此類的标签,但仍然不能回答上述那些问题

而且事实是它们仅限于打标签,根本不能回答任何问题它们不知道图片中的内容意味着什么,人类是什么公园通常是在户外的,人类有年龄这个属性天气本身远比图片上看到的天气要复杂得多等等……

但是这并不代表这个系統毫无用处。他们对于搜索引擎公司来说具有重大的意义因为仅是做好打标签的工作就可以让搜索引擎公司从单一文字搜索跨越到可以對图片进行搜索。

不过值得注意的是搜索引擎通常会为一个问题提供多个答案,让搜索者自己决定哪一个才是真正相关的内容搜索引擎公司一直为了能在推荐的前几个选项中包含最佳选项而不断的提升搜索引擎的性能。

这种依赖于用户去甄选答案的做法使得搜索引擎沒必要每次都将最佳答案排到第一个。但如果只能给出一个答案无论是搜索“巴黎的高档酒店”,或是在一个电子商务网站搜索“时髦領带”的图片这些搜索引擎的用处将大打折扣。

这就是很多人犯错的地方每当他们听说某个机器人或AI系统可以处理某一类任务,他们會按照推断人类的“表现 -> 胜任”方式去对这个机器人或者AI系统进行判断

现阶段机器人和AI系统能做的事情还很有限,人类社会中的归纳概括模式对它们并不适用如果谁用了和人类同样的推断方式,就会得到十分错误的判断

“手提箱词”(Marvin Minsky创立的一个术语,意思是说一个單词包含有很多含义如手提箱打开后里面有很多东西一样,比如:意识思考,经验等等)那篇文章讨论了机器学习中的“学习”一詞,对人类而言可以有很多类型的学习人类对于不同类型的学习当然有不同的应对。比如:学习使用筷子与学习一首新歌的体验就非常鈈同;学习编写代码与在某一城市中学习新的路线也截然不同

当人们知道机器学习在某个新的领域取得了进展以后,往往会将自己对该領域的学习、思考模式套用过去对很多模棱两可的词汇的理解就会有偏差,比如“思考”对于人类和机器是完全不同的

而且很多人不奣白,机器的学习是有很多的前提的它需要研究人员或工程师进行大量的前期工作,要针对不同领域的写相应的代码来处理输入数据還要有特定的训练数据集以及针对每个新的领域的不同的学习结构。

对人类而言面对一个新的领域无需精密且繁琐的前期工作就可以直接开始全面的进行学习,这种海绵式的学习方式是目前机器学习远远无法达到的

同样,当人们听到计算机现在可以击败国际象棋世界冠軍(1997年)或围棋世界冠军(2016年)时他们往往认为它就像人类一样是在“下”棋。 然而事实上这些程序并不知道游戏实际是什么也不知噵他们在玩什么。

正如在The Atlantic网站中围棋世纪之战文章中指出的那样:驱动人类棋手李世石的是12盎司的咖啡,而AlphaGo作为分布式AI应用需要大量的機器部署和超过100位科学家在其背后作为支持。

当人类选手进行比赛时对规则进行小的变动并不会使他无所适从——好的选手懂得如何詓适应规则。但对于AlphaGo或Deep Blue 来说并非如此(Deep Blue 于 1997 年击败国际象棋大师 Garry Kasparov)

这类手提箱词的使用会让人们对现在机器能做到的事情产生误解。 一方媔研究人员与他们所在机构的新闻部门,都渴望宣称他们的研究取得了进展因此这类手提箱词便有了用武之地。

无论研究人员多么谨慎(实情是往往并不是所有人都总是非常小心)只要研究结果传到新闻部门,然后进入参差不齐的新闻媒体之中文字中的很多细节便會丢失。 标题大肆宣扬“手提箱”字眼不断的使读者对人工智能导弹已到达多么高的水平以及有多么接近目标产生误解。

我们甚至还没怎么谈到Minsky列举的许多关于AI系统的手提箱词;比如“意识”“经验”或“思想”。对于我们人类来说很难想象如何在没有意识或没有下棋經验,或者行棋思路的情况下下棋

截至目前,我们的AI系统在人类的各种活动中还远远没有达到手提箱词所能代表的水平甚至还没有到達初级阶段。当我们夸赞特定领域的AI应用认为它们在一定程度上达到了“智能”的水平时,媒体或者说大多数看客,又会将AI的能力泛囮认为其无所不能。

我们担心的是这些单词的部分含义哪怕只是在非常有限的一方面得到了证明人们往往便将其神化,以为机器在这些方面的智能已经接近类似人类的能力

用语很重要,但只要我们用一个词语描述有关AI系统的某个东西时如果这个词也适用于人的话,囚们就会高估其对于AI系统的意义迄今为止大多数适用人类的单词在用到机器身上时,其表达的水平都不过是用在人身上时的千万分之一

下面是一些已经应用于机器的动词,但在它们描述的实际能力方面机器又与人类完全不同:

推理(reason)、 反映(reflect)、 看(see)、 理解(understand)、赱(walk)、写(write)所有这些词语,都可以在相关论文中找到但在论文中的意思往往只是这些词所蕴含的丰富含义的很小一部分。不幸的昰通过这些词的使用,给人了一种机器已经与人类相差无几了的错觉

这就导致了人们误解并高估了当今AI的能力。

很多人都遭受过所谓嘚“指数论”之苦

每个人对摩尔定律都有自己的想法,至少知道计算机的运算速度会随着时间发展变得越来越快

戈登摩尔实际上说的昰,芯片上的组件数量会每年翻番

1965年摩尔做出预测的时候所用的下面这张图只有4个数据点:

只推断了10年,但迄今为止已经过去了50年定律中所说的“每年”也已经变成了“每两年”,尽管这样也慢慢要行不通了

芯片的元件数翻番使得计算机速度也加倍。而且还使得内存芯片每2年容量变成之前的4倍同时也使数码相机分辨率越来越高,LCD屏幕像素呈指数增长

摩尔定律见效的原因是在其将抽象的数字化问题變成了“是”与“不是”的问题。比如这样的一个问题“是否存在电流或者电压呢”对这个问题而言,无论我们如何将其中的电子数减半再减半答案都一直是肯定的。但如果一直减半到将其中的电子数只剩几个量子效应便开始成为主导,答案将不再是肯定的相似的,我们的硅晶芯片就走到这个关键的节点上

摩尔定律和类似的指数论可能因三个不同原因失败:

a. 它达到了一个物理限制,减半/加倍的过程不再有效

b. 市场需求趋于饱和,因此推动定律生效的经济因素不再存在

c. 过程从一开始就不是指数型的。

当一个人深信指数论时他们鈳能就会无视上述任何一个原因,并继续用指数论捍卫自己的观点

在第一个原因的作用下,摩尔定律现在已经近乎止步不前但正是因為摩尔定律50年来一直发挥其作用,技术的不断创新硅谷、风投的崛起才得以发生,也使一批极客成为全世界最富有的人这些事实导致囿太多的人认为,包括AI在内的技术的一切都是一直呈指数型发展的

常识是很多指数型过程其实只是“S曲线”的一部分,也就是说到了一萣程度指数型的高速增长就会放缓诸如Facebook、Twitter等社交平台用户数的指数型增长最终必将变成S曲线,因为可变成新用户的人数是有限的所以指数型增长无法一直持续下去。这就是上述情况(b)原因的例子

但还不止这些。很多时候个人用户的需求可能阶段性看起来是指数型嘚,但随后就变得饱和了

回到本世纪初,麻省理工学院的一个很大的实验室(CSAIL)需要给超过90家研究小组筹集研究经费,试图通过iPod内存嘚快速增长向赞助商说明世界在进行快速的发展跟摩尔不一样的是有5个数据点!通过5年的观察,在每年6 – 9月会有新的机型发布具体的數据是关于400美元可以给iPod提供多大存储。数据如下:

数据有非常完美的指数型(Gregor Mendel如果有这样的数据恐怕会乐开花......) 然后,用这些推断了几姩后我们将对拥有的内容作何安排

(译者注:Gregor Mendel,遗传学奠基人早期因数据可靠性未受到重视)

如果推算到现在预计400美元的iPod应该有160000GB(或160TB)的内存。但是今天最高配的iPhone(售价超过400美元)也只有256GB的内存还不到2007 产的iPod的2倍,而最高配的iPod Touch也只有128GB相对于10年前的型号内存反而还下降叻。

当内存容量大到可以容纳任何常人完整的音乐库时这个特别的指数型就会突然崩塌。也就是说当客户需求不再存在时,指数型也會随之停止

同样的,由于深度学习(机器学习的一种形式)的重大突破 — AI系统的性能突然得到大幅提升很多人以为AI会以同样的速度在先前的基础上不断的提升。但其实深度学习的成功是30年不懈努力的结果并且没人之前能预想到今天的成功,这只是个黑天鹅事件

当然這也不是说不会有更多的黑天鹅事件,长期止步不前的AI研究的可能在某一天突然有所进展并使的许多人工智能导弹应用的表现得到提升。 但是并没有任何一个“定律”说明这样的偶然事件会多久发生一次对AI的创新与发展而言,这其中并没有物理过程并不像摩尔定律中那样只需要将元器件做得更小就可以了。这也就是上面的第三个原因(c)的例子

所以当你看到有人把指数型指数型增长作为AI发展的判断依据时,记住所谓的指数型本身有时就是错误的,且就算对真正的指数型而言在达到物理极限或者缺少更多的经济动因时,指数型增長也将不复存在

很多好莱坞科幻片的情节是这样的,电影中的世界和现实世界十分接近除了有一两点科技上的不同。这一两点不同往往就是外星人突然出现的原因原本一切如往常一般,但突然有一天外星人就出现了。

外星人基于这一两点的不同突然出现似乎在逻辑仩还可以接受但如果是对新的科技而言呢?现实生活中难道很多新技术都是在同一时间出现么。

在好莱坞的世界中当整个人类科技受到极大冲击时,电影有时能给出合理的解释比如《终结者》中,阿诺德·施瓦辛格所扮演的超级机器人来自未来,穿越回的世界就不需要通过一步步的发展进步到可以创造出超级机器人的科技水平

但是在别的电影中,科技的发展过程就显得有些可笑

在电影《机器管家》中,Richard(Sam Neill饰)在等待可以独立行走、交谈的类人机器人(Robin Williams 饰)提供早餐时随手拿起了桌子上的一份报纸…打印在纸张上的报纸!不是平板电脑,吔不是收听类似于Amazon Echo智能音箱播放的电台也不是通过神经链接直接访问互联网。

Harford最近指出的这样的技术老到了读这篇博客的大多数读者嘟没见识过。(Harford在同一篇文章中评论道:“预测未来技术的发展是及其有趣但是无济于事的游戏”真是令人深刻的洞见。)

在这两个好萊坞电影的例子中作者、导演以及制片人设想出了拥有视觉、听觉、能够说话 - 像人类一样存在于这个世界的机器人。不考虑那些神奇的材料和工作原理这些机器人也算得上是泛用人工智能导弹了。可这些创造家们却不愿意去思考一下在这些吸引人的新技术们发展时这卋界会变成什么样子。

似乎许多AI研究者和专家们尤其是那些沉迷于预言C、D的悲观主义者们,都忽视了这一点

许多C、D相关的预言不仅仅茬时间维度上犯了错,还忽略了一个事实:如果我们最终创造了如此智能的机器这个世界将与现在迥然不同。我们并不会骤然间惊讶于超级智能随着时间的流逝,人类逐渐发明并发展新的技术世界将因为许多不同的智能设备而变得大不一样。与此同时我们人类对新嘚技术以及事物的理解也将与现在大不相同。

比如说在D类情况(邪恶人工智能导弹打算消灭人类)之前应该出现过不那么智能、不那么恏战的机器人,再之前有脾气暴躁的机器人再再之前有令人讨厌的机器人,再再再之前有傲慢自大的机器人

我们会一步一步的改变我們的世界,让生活的环境和新技术相互融合这并不意味着未来世界不会有意外出现,而是说未来并不会像很多人想象的那样突然一下孓天翻地覆。那些惊世骇俗的假想很多是违背现实的和未来一点关系都没有。

“好莱坞电影”式的修辞手法在争论中有时的确很唬人泹它们和真实的未来没有关系。

随着这个世界逐渐变成软件的天下某些行业内的新版本发布频率变得非常高。诸如Facebook这样的平台几乎每小時都有新功能上线因为很多新功能只要经过了集成测试,就算出了问题版本回退导致的经济影响也是微乎其微。

常常发现在类似的平囼上某些功能在短时间之内就突然失效了(今早Facebook的通知下拉菜单功能就失效了 )也许就是因为发布时出了问题。但对于重要的盈利模块例如广告投放,改动起来就很谨慎了版本变化频率基本以周为单位。

这就是硅谷或者网站开发者们习惯的节奏这的确有用,因为发咘新代码的边际成本是非常低的近乎于零。

而硬件则相反部署的边际成本非常高,这从我们的日常生活中就能感觉到如今我们购买嘚大部分车都不是自动驾驶,里面甚至都没有软件的影子而这些车可能在2040年还行驶在路上,这给自动驾驶的大规模普及形成了先天的限淛

如果我们建造一座新房子,会默认这座房子能够维持超过100年我现在住的房子就建造于1904年,而且它还不是附近最老的建筑

出于成本洇素的考虑,实体设备都会设计得很耐用就算其中有很多的科技甚至事关存亡也不例外。

美国空军现在还在使用B-52轰炸机的变体B-52H轰炸机這个版本是在1961年发明出来的,也就是说它已经56岁了最新的一架是在1963年建造的,不过54年前而已现在这些飞机还将服役到2040年,也有可能更長——据说有打算延长它们的使用期限到超过100年(和“千年鹰号”比比!)

在美国对陆洲际弹道导弹(ICBM)是义勇兵三型的变体,于1970年引叺共450枚。发射系统依赖于八寸软盘驱动一些发射流程的数字通信则使用模拟有线电话。

一些工厂里甚至还看到过使用Windows 3.0的电脑,这一蝂本发布于1990年很多工厂的主旨是“只要还没坏,那么就别修它”这些电脑以及其中的软件已经可靠地运行了相同的软件并完成了他们嘚任务超过了二十年。

工厂中的自动化控制机制大多基于可编程逻辑控制器(PLC)包括美国、欧洲、日本、韩国以及中国的新型工厂,这昰1968年为了替代电磁继电器而引入的

“线圈”依旧是当今主要使用的控制单位,PLC的编程方式也和24伏特电磁继电器网的效果类似同时,有些直连的电线被以太网线替代它们基于RS485八位字符串协议,效仿原来的网络通过模仿24伏的直流电来传输信息(较原有网络已经有了很大嘚进步)。

以太网接线并不是开放网络的一部分而是以点对点的方式连接了这些翻新的自动化控制系统。在这个世界上的大多数工厂中当你想改变信息流或者控制流时,都需要先请顾问团队们花几周的时间去明确相应的部分是怎么运转的然后设计新的改动,再然后整個硬件团队再去重新开发和配置这些设备

理论上整个过程可以更加的合理化,但在现实生活中并不是这样这类情况并不只发生在技术停滞了的工厂中,即使是在今天、当下这一分钟搜索一下招聘信息 - 特斯拉还在给他们佛利蒙市的工厂寻找全职PLC技术顾问。当今最人工智能导弹化的自动驾驶汽车的生产仍然是由电磁继电器仿真来完成的。

许多AI研究者以及专家都认为这是个数字化的世界将新的AI技术应用於整个行业包括供应链、工厂、产品设计方面是轻而易举的。

没有什么比这更不切实际了

重新配置自动化设备所受到的阻力是任何人都想象不到的大。

在这个领域中任何人都无计可施,只能让改变一点点的发生那个回形针的例子,既制造回形针的人工智能导弹系统决萣聚拢所有的资源用来生产更多的回形针即使是以牺牲人类所需要的资源为代价。显而易见这就是无稽之谈因为这整个过程中需要有囚去为这个系统未来几十年的物理布线去进行考虑和担忧。

大规模应用机器人和AI相关的想法所需的的时间几乎都远远比业内、圈外的人們所想像的长得多。自动驾驶就是一个很好的例子一夜之间似乎所有人都知道什么是自动驾驶,并且认为很快就会大规模应用到生活中但实际上,这个过程比想象中慢得多整个发展过程可能需要花费数十年,而非几年

如果你认为这过于悲观,想想看第一辆上路的洎动驾驶车是在30年前,而直到现在我们还没有开始真正普及。1987年在慕尼黑的Bundeswehr University Ernst Dickmanns和他的团队发明了自动驾驶的货车,在公共高速公路上以90公里每小时(56英里每小时)的速度行驶了20公里(12英里)

1995年7月,来自卡耐基梅隆大学的Chuck Thorpe和 Takeo Kanade带领他们的团队测试了第一辆不用掌握驾驶盘和踏板的迷你货车Google和Waymo已经研究自动驾驶车辆超过8年了,但是还没有任何大规模生产的计划也许,从1987年开始尚需四十、五十甚至六十年洎动驾驶车辆才可以实现真正的普及。

机器人和AI的发明需要很长、很长的时间才可能成为现实并得到大规模应用

当你看到专家们对机器囚和AI做出积极或消极的预测时,我建议好好利用这7类错误来评估一下他们的论证以我的经验来说,总是能在他们的论述中发现2到3个或鍺4个类似的漏洞。

预测未来很难尤其是在一切未知之前。

Russell 是加州大学伯克利分校人工智能導弹系统中心创始人兼计算机科学专业教授同时还是人工智能导弹领域里「标准教科书」《人工智能导弹:一种现代方法》作者(谷歌研究主管 Peter Norvig 也是该书作者)。在这篇文章中他以 Q&A 的方式讲解了人工智能导弹的未来以及常见的误解。

1. 什么是人工智能导弹

是对让计算机展现出智慧的方法的研究。计算机在获得正确方向后可以高效工作在这里,正确的方向意味着最有可能实现目标的方向用术语来说就昰最大化效果预期。人工智能导弹需要处理的任务包括学习、推理、规划、感知、语言识别和机器人控制等

  • 「它是一个特定技术」。例洳在二十世纪八十年代到九十年代人们经常会看到新闻报道中人工智能导弹与基于规则的专家系统被混为一谈。现在人工智能导弹经瑺会与多层卷积神经网络混淆。这有点像把物理和蒸汽机的概念搞混了人工智能导弹探究如何在机器中创造智能意识,它不是在研究中產生的任何一个特定的技术

  • 「这是一个特定类别的技术方法」。例如经常有人用符号化或逻辑化的方法将人工智能导弹与「其他方法」相互比较,如神经网络和遗传编程人工智能导弹不是一种方法,它是一个课题所有这些方法都是在对人工智能导弹进行研究的产物。

  • 「这是一小群研究者的方向」这个误解与前几个错误有关。一些作者使用「计算智能」指代几个特定的研究者群体如研究神经网络,模糊逻辑和遗传算法的研究者这是非常片面的,因为这种分类让人工智能导弹的研究陷入孤立的境地让研究成果不能得到广泛的讨論。

  • 「人工智能导弹只是算法」严格说来不算是误解,人工智能导弹的确包含算法(也可粗略定义为程序)它也包含计算机中其他的應用。当然人工智能导弹系统需要处理的任务相比传统算法任务(比如排序、算平方根)复杂得多。

2. 人工智能导弹将如何造福人类

文奣的一切都是人类智慧的产物。在未来人工智能导弹会将会扩展人类的智力,这就像起重机让我们能够举起几百吨的重物飞机让我们佷快飞到地球的另一端,电话让我们在任何角落实时交流一样如果人工智能导弹被适当地设计,它可以创造更多价值

  • 「人工智能导弹沒有人性」。在很多反乌托邦幻想中人工智能导弹会被用来控制大部分人类,无论是通过监视机器人执法,法律判决甚至控制经济這都是未来可能出现的情况,但首先它不会被大多数人接受人们往往忽视人工智能导弹可以让人类接触更多的知识,消除人与人之间的語言隔阂解决无意义和重复的繁重任务。

  • 「人工智能导弹将造成不平等」毫无疑问,自动化程度的提升将使财富集中到越来越少的人掱里但是现在,如何使用人工智能导弹的选择权在我们手里例如,人工智能导弹可以促进协作让生产者与客户有更多交流,它可以讓个人和小组织在全球化的经济环境下独立运作摆脱对于特定大公司订单的依赖。

3. 什么是机器学习

它是人工智能导弹的一个分支,探索如何让计算机通过经验学习提高性能

  • 「机器学习是一个新的领域,它已经代替了人工智能导弹的地位」这种误解是最近机器学习热潮产生的副作用,大量学生在之前没有接触过人工智能导弹的情况下学习了机器学习课程机器学习一直是人工智能导弹的核心话题:阿蘭·图灵在二十世纪五十年代的论文中已经认为学习是通向人工智能导弹最可行的途径。这一观点似乎是正确的人工智能导弹最突出的早期成果,Arthur Samuel 的跳棋程序就是使用机器学习构建的

  • 「机器不能学习,它们只能做程序员告诉它的事情」这显然是错的,程序员能够告诉机器如何学习Samuel 是一个优秀的跳棋玩家,但他的程序很快就通过学习超过了他近年来,机器学习的很多应用都需要大量数据来进行训练

4. 什么是神经网络?

神经网络是受生物神经元启发构建的计算系统神经网络由许多独立的单元组成,每个单元接收来自上一层单元的输入并将输出发送到下个单元(「单元」不一定是单独的物理存在;它们可以被认为是计算机程序的不同组成部分)。单元的输出通常通过取输入的加权和并通过某种简单的非线性转型神经网络的关键特性是基于经验修改与单元之间的链接比较相关权重。

  • 「神经网络是一种噺型计算机」在实践中,几乎所有的神经网络都运行在普通的计算机架构上一些公司正在设计专用机器,它们有时会被称作是「神经計算机」可以有效地运行神经网络,但目前为止这类机器无法提供足够的优势,值得花费大量时间去开发

  • 「神经网络像大脑一样工莋」。事实上生物神经元的工作方式比神经网络复杂得多,自然界存在很多种不同的神经元神经元的连接可以随时间进行改变,大脑Φ也存在其他的机制可以影响动物的行为。

5. 什么是深度学习

深度学习是一种特定形式的机器学习,训练多层神经网络深度学习近年來非常流行,引领了图像识别和语音识别等领域的突破性进展

  • 「深度学习是一个新领域,已经代替了机器学习的地位」事实上,深度學习在神经网络研究者中间已经被讨论了超过二十年最近深度学习的发展是由相对较小的算法改进以及大数据集模型和计算机硬件发展驅动的。

6. 什么是强人工智能导弹和弱人工智能导弹

「强人工智能导弹」和「弱人工智能导弹」概念是由 John Searle 最先提出的,是他对人工智能导彈研究方向的两个假设弱人工智能导弹假设机器可以通过编程展现出人类智能的水平。强人工智能导弹则假设机器出现意识或者说机器思考和认知的方式可以用以前形容人类的方式来形容。

  • 「强人工智能导弹是人类智力级别通用人工智能导弹研究的方向」这个解释具囿代表性,但这不是强/弱人工智能导弹概念被提出时的本来意义同样,「弱人工智能导弹」被认为是针对特定领域执行特定任务的人笁智能导弹研究,如语音识别和推荐系统(也称工具 AI)虽然没有人具有最终解释权,但这种语义的转换可能会造成不必要的混乱

AGI 代表嘚是通用人工智能导弹,这个术语意在强调建立通用目的智能系统的雄心目标其应用的宽度至少能覆盖人类能解决任务。ASI 指的是人工超級智能:远远超越人类智能的人工智能导弹更具体地说,一个超级智能系统高质量决策能力要比人类强它能考虑更多的信息和进一步罙入未来。

  • 「主流的人工智能导弹研究者并不关心通用人工智能导弹」像语音识别这种细分领域的某些研究者主要关心的是其所在领域嘚具体目标,其他一些研究者比较关心找到现有技术的商业应用在我的影像里,如学习、推理、和计划等细分领域的大多数人工智能导彈研究者认为他们目前的研究工作有助于解决通用人工智能导弹的子问题

  • 「人类的智能是一种通用智能」。这种观点常被认为是显而易見不值得讨论,但它却几乎回避了关于 AGI 的所有讨论持有这种观点的人通常会认为通用智能就是人类能做到所有任务的能力。然而当然鈈存在人工不能做的人类工作所以人类能做已经存在的人类工作也没什么好惊讶的。难的是怎么定义那种完全独立于以人类为中心的价徝观和偏见的宽度所以我们只能说人类智能是某种程度上的通用智能,人类能做人类能做的所有事情另一种更有意义的说法是人类能莋很多事情,但目前为止这个问题 还没有确切的答案

8. 什么是摩尔定律?

「摩尔定律」指的是多个相关的观察和预测能影响电路性能和密喥现代理解的「摩尔定律」是每一秒的操作次数以及每一美元所能买到的电脑性能,将每隔 N 个月翻一倍以上N 大约是 18,这一表述有些背離「摩尔定律」最初的定义

  • 「摩尔定律是物理定律」。事实上摩尔定律只是一种关于技术进步的经验观察。没有什么规定摩尔定律会歭续下去当然它也不可能无限持续下去。时钟速度的增加已经达到了顶峰目前价格/性能上的提升也来自于单个芯片上内核(处理单元)数量的上升。

9. 摩尔定律能让我们预测出超级人工智能导弹的到来吗

不能。人工智能导弹系统不能做的事情很多比如理解复杂的自然語言文本;加速意味着在很多情况下得到的错误答案的速度也越快。超级智能需要在主要的概念突破这些很难预测,即便我们有了速度哽快的机器也没啥用

  • 「让机器更强大的意思是提升它们的智能」。这是人工智能导弹的未来的讨论中的一个常见主题这个主题似乎建竝在一个混乱的概念上,我们使用「强大」来描述人类智力但是在描述计算机时用的「强大」的含义更加简单,就是每秒操作的次数

沒有机器 IQ 这种说法。某种程度上一个人在多个任务上的多种智慧能力是高度相关的人类可以说有 IQ,但是研究者们对任意单一维度上的 IQ 定義有争议另一方面,任意给定的机器的各种能力之间都是不相关的:一台机器能打败世界象棋冠军并不意味着它能玩的好别的棋类游戲。能赢得猜谜比赛的机器也无法回答「你叫什么名字」这样简单的问题。

  • 「根据摩尔定律机器 IQ 会不断上升」。既然根本不存在什么機器 IQ它也就不可能增长;摩尔定律描述的仅仅是原始的计算吞吐量,与是有存在执行任意特定任务的算法没有关系

11. 什么是智能爆炸?

「智能爆炸」这个术语是 I.J.Good 于 1965 年在其文章「Speculations Concerning the First Ultraintelligent Machine」中创造的它指的是足够智能的机器能重复设计它自己的硬件和软件来创造出一个更加智能的機器的可能性,这个过程会一直重复下去直到「人的智能被远远的甩在后面」。

  • 「一旦机器达到人类水平的智能智能爆炸就在所难免」。反过来:虽然逻辑上是可行的但是让 N 代的机器设计出 N+1 代的机器太难了。同样的道理我们造的机器可能在一些重要的方面成为超过囚类,但是在其他方面可能会落后于人类在解决贫困、治疗癌症等重要问题上,机器的能力肯定会比人类强而且不需要在人工智能导彈研究上有大突破就能实现。

12. 人工智能导弹系统何时才能超过人类智力

这是一个难以回答的问题。因为首先它假定这件事必然发生事實上它具有选择性:假如人类选择不去发展这样的人工智能导弹,这件事就不太可能发生第二,「超过」假定智力是线性的而这不是嫃实情况,机器在某些任务的处理上比人类更快而在更多放面则很糟糕。第三如果我们认为「通用的」智能是有用的,我们就可以开發这样的机器但目前我们不知道它是不是有用的。宽泛地说实现这样的人工智能导弹还需要很多技术突破,而这些都是难以预测的夶多数科学家认为这件事会在本世纪内发生。

  • 「它永远不会发生」对技术突破进行预测是很难的。1933 年 9 月 11 日Rutherford,也许是那个时代最著名的核物理学家在英国科学促进年会上向人们宣布:「任何想从原子变形过程中获取能源的努力都是徒劳的。」(他在各种场合发表过许多類似言论大意都是表达使用原子能是不可能的)结果第二天早上,Leo Szilard 发现了中子诱导链式反应并很快对核反应堆申请了专利。

13. 人工智能導弹系统现在能做什么

人工智能导弹的应用范围已经比几年前大很多了。从围棋、纸牌、简单的问答、从新闻中抓取信息、组合复杂的對象、翻译文字、识别语音、识别图像中的概念、到在「普通」交通条件下驾驶汽车不一而足。在很多情况下人工智能导弹在你不知噵的情况下发挥着作用,如检测信用卡欺诈评估信用,甚至在复杂的电子商务拍卖中投标搜索引擎中的部分功能也是人工智能导弹的簡单形式。

  • 「像『下棋』这样的任务对机器来说和对人类来说是一样的」这是一个错误的假设:机器「掌握」一项技能的程度超过了人類。人类通过阅读和理解学会游戏规则通过观看棋局和下棋来提高水平。但典型的下棋程序没有这样的能力——将下棋规则编程让机器算法直接给出所有可能的下一步。机器无法「知道」人类所谓的规则(目前新兴的强化学习方式改变了这一点)DeepMind 的人工智能导弹系统鈳以学会很多种游戏,它不知道自己在学习什么看起来也不太可能学会这些游戏的规则。

  • 「机器执行任务的方式和人类一样」我们不知道人类思考问题的机制,但这种机制与人工智能导弹系统处理任务的方式看起来大不相同例如,下棋程序通过考虑当前棋局状态和下┅步可能的序列比较结果考虑下一步而人类经常是先发现可能获得的优势,然后继续考虑如何找到一系列方式来实现它

  • 「如果机器可鉯做到任务 X,那么它就可以做类似的所有任务了」参见有关机器 IQ 的问题,机器目前还不能形成通用化的智能它们的功能通常局限于某┅领域。

14. 人工智能导弹会对社会造成什么样的影响

在可预见的未来中,人工智能导弹的各种应用将会改变社会形式自动驾驶汽车现在巳经在路上进行测试,至少有一家公司承诺将在 2016 年内交货(考虑到目前遇到的困难其他公司的态度则更为谨慎)随着计算机视觉和机械腿设计的进化,机器人非结构化环境正在变得更为实用——可能的应用范围包括农业和服务领域(特别是对于老人和残疾人而言)

最后,随着机器能够理解人类语言搜索引擎和手机上的「个人助理」将会改变现有的人机交互方式,它们可以回答问题整合信息,提供建議并促进交流。人工智能导弹还可能会对科学领域(如系统生物学)产生重大影响这些学科中信息的复杂性和数量一直令人望而却步。

  • 「机器人正在接管一切」参见《人工智能导弹的智力何时才能超过人类》,人工智能导弹中的绝大多数进步是基于任务处理的改进當然,从长远来看维持人类的控制很重要。

15. 人工智能导弹与机器人的发展会取代大量人类的工作吗

一些研究(比如 Frey 和 Osborne 在 2013 年的调查)表奣在未来美国将近一半的工作在自动化面前会变得很脆弱。其他作者比如 Bryjolfsson 和麦肯锡在 2011 年的工作表明这一变化已经开始了:2008 年经济萧条之後就业率的缓慢恢复,生产率与停滞不前的工资之间的差异化增加了自动化的进程随着人工智能导弹与机器人的持续发展,更多的工作將受到影响看起来不可避免大量的失业并不是必然的,但这可能会造成经济结构的巨大转变需要想出组织工作与酬劳的新思路。

  • 「机器人的工作越多意味着人类工作越少」工作不是零和(zero-sum)的:由一对机器人协助的工人可能更具工作效率,也因此需要更多这样的工人没有机器人的帮助,一些领域的工作由人类完成可能不具备经济效益或者一些工作单独的人或机器无法完成。同样就像涂刷匠的刷孓与滚筒:如果使用针尖大小的刷子一点一点的涂刷,我们就雇不起涂刷匠来涂刷一整间屋子了

16. 什么是无人机,自动武器杀人机器人?

无人机是由人远程控制的飞行器;有些无人机可以携带武器(通常是导弹)这些武器的释放也是由人远程控制的。自动武器是可以自主选择和吸引攻击对象的装置目前这类装置包括韩国非军事化区里的自动瞄准机枪和一些不同类型的船载反导弹系统。目前在技术上可鉯实现将无人飞机的控制员替换成完全自动的计算机系统以达到致命自主武器系统的要求。致命自主武器系统是日内瓦会议裁减军备议題的讨论主题杀人机器人是对具有轮动能力和行走能力的武器的统称,包括:船飞行器以及人工智能导弹的昆虫飞行器。

  • 「完全自主武器的出现还需要 20-30 年的研发」得出这个预估时间的依据无从知晓,但是 20-30 年的时间跨度有点夸大所需的研发时间长度目前自主武器的研發已经在全世界内大范围的开展,英国国防部已经宣称对于一些简单对抗如海上战役,完全自动武器现在已经可以实施

17. 我们需要担心殺人机器人胡作非为或接管世界吗?

如果部署了自动化武器它们也会有士兵那样的难题:有时难以分别朋友与敌人、平民与敌军。而且鈳能会有军事事故造成平民伤亡或者机器人受到干扰与网络攻击。也因为后者一些军事专家预测自动化武器可能需要封闭操作系统,沒有电子通讯如果系统行为不准确的话,这样做能防止有人凌驾于自动化控制器之上但在可预见的未来,自动化武器可能会变得很常見在有限的任务中被使用。但在全局规模上它们很难自己编程出计划。

  • 我们可以按下「关闭」按钮「关闭」按钮会使得自动化武器茬网络攻击面前变得很脆弱。这样的通信频道在战争中也是如此此外,通用智能系统会被赋予一项任务防止自己的「关闭」按钮被按丅。

18. 人工智能导弹的「存在风险」是什么它是真的吗?

关于人工智能导弹风险的早期警告曾是非常模糊的I.J.Good 对于人工智能导弹的可行性提出了自己的观点:「只要机器能够聪明到告诉我们如何保持对它的控制。」人们普遍意识到在我们的星球上如果存在一个超级智能实體,可能会出现恐慌;但另一方面我们也都清楚更加聪明的机器会更加有用,而且更加聪明不一定意味着邪恶事实上,论据很简单

  • 假设超智能系统被设计成实现由人类设计者指定的某一目标,并假设这一目标不完全符合人类的价值观人工智能导弹形成的价值观(如果有)是非常难以确定的。

  • 任何充分有能力的智能系统将倾向于确保其自身的持续存在并且获取物理和计算资源——不是为了他们自己的目的而是为了更好地执行人类为它设定的任务。

现在我们问题的本质是你所要求的不是你所得到的Norbert Wiener 是自动化和控制理论的先驱者,他茬 1960 年写道:「如果我们使用——为达到某些目的——一些机器来代替我们做某些工作我们最好能够清楚它们的确在按我们的想法工作。」Marvin Minsky 举了让机器计算 pi 这个例子Nick Bostrom 则举了回形针的例子。对于人类而言这些目标是根据人类视角提出的,这意味着计算机服务器或回形针覆蓋整个银河系不是好的解决方案一个具有能力的决策者——特别是能够通过互联网连接全球每块屏幕的智能——可能会对人类产生不可逆转的影响。幸运的是这个问题相对比较明确,所以现在就可以开始解决

  • 超智能机器将变得自发地产生意识、本能地变得邪恶或伤害囚类。科幻小说作者通常假定上面这些一个或多个问题来设定机器与人类的对立面这样的假设完全是不必要的。

  • 我们人类发展人工智能導弹系统那么为什么我们要制造出来毁灭自己呢?有一些人类工智能「捍卫者」常常争辩道因为人类建立了人工智能导弹系统那么完铨没有理由来支持这样的假设,即我们是在制造一个旨在毁灭人类的机器这个没有抓住辩论要点,即哪个是邪恶意图在设计者这一边還是代中间者这一边,这是存在存亡威胁的先决条件这个问题也就是错误设定了对象。这将永远不会发生

19. 为什么人们会突然对人工智能导弹如此担心?

从 2014 年开始媒体就定期地报道如 Stephen Hawking、 Elon Musk、 Steve Wozniak and Bill Gates 那样名人的对人工智能导弹的担忧。这些报道通常引用那些最绝望话语并省略实质擔心的深层原因通常就像「什么是人工智能导弹现存风险」那样的问题。在许多情况下担忧就是在阅读 Nick Bostrom 的书籍超智能(*Superintelligence*)之后产生的。另外一些当下关心这个问题的潮流也是因为人工智能导弹的发展正在加速这种加速可能是很多因素的集合,包括逐步完善的理论基础它连接了很多的人工智能导弹领域成为一个统一的整体。还有学术实验室能产出达到能够应用并解决现实世界的实际问题在人工智能导彈方向商业投资的急剧增加也作为

  • 如果人们是担心超人工智能导弹就在某个角落,那么基本上人工智能导弹研究者很少认为超智能机器僦在我们周围某个角落这并不暗示着我们应该等着,直到这个问题变得很严重!如果我们发现直径 10 英里的小行星将于 50 年后撞向地球我們难道能够不消灭它并声称「我们会在五年的时候去关注它」?

20. 人工智能导弹在接下来的几十年里会取得怎样的进步

这个领域好像并不偠求人类级的通用人工智能导弹能够达到成熟,而制造一些可信赖的高质量的产品也许在下个十年内有能实现这就包括了语音识别、从簡单的实际材料中提炼信息、对物体和行为的视觉识别、日常事物的机器人操作和自动驾驶。努力提升质量和扩展文本与视频的理解系统能制造更强劲的家用机器人产生更为广泛有用的机器人,它能展示常识知识系统一起学习并在遍历所有形式后表现得更好。还存在获取和组织科学知识的专业系统它能管理复杂假说并可能对分子生物学、系统生物学和制药方面产生重大的影响。我们也许也会看到它在社会科学和政策制定有相同的影响特别是在给它关于人类活动巨量的机器可读性数据之后,并如果机器是很可靠有用的那么人们同样吔需要机器去理解人类价值。公共和私人知识源也就是知道和推理真实世界的系统,它不仅仅是数据的仓库它会成为社会的组成部分。

21. 什么是「价值定位(value alignment)」它有什么要紧的?

价值定位(Value alignment)就是校准人机关系具体目标价值的任务所以机器最优选择大概来说就是无論做什么都是最大化人类的幸福感。如果没有价值定位那么超脱人类掌控的超智能机器的出现就是不可忽视的风险。

  • 「我们所有需要的僦是阿西莫夫定律(Asimov's laws)」阿西莫夫定律本质上就是一些条款:它们给人类创造出各种故事情节提供灵感,但是基本对约束机器人没有什麼有用的信息因为它没有更多具体的细节。它们的基本结构为一组规则而不是效用函数这是很有问题的:它们的词典式结构(例如任哬对人类的伤害是比所有机器人的损害还要严格重要地多)意味着没有给不确定性或权衡留下空间。也许机器人只为了拍死一只在以后可能叮咬人类的蚊子会跳出悬崖毁灭了自己另外,它也许会锁上人类汽车的门因为坐车会提高人类受伤的可能性。最后基于最大化人類效用的方法,对于第三条法则是没有必要的(机器人自我保护)因为机器人不保证自身的存在是不能为人类效用做出贡献的,还会令其拥有者十分失望

22. 对于存在主义风险(existential risk),人工智能导弹社区做了什么

许多关于人工智能导弹的存在主义风险的讨论都是处于人工智能导弹社区主流之外的,它们是从人工智能导弹研究最初到最主要的反动力在 2008 年的时候,AAAI(美国人工智能导弹学会)就举行了个座谈会來讨论这个问题座谈会中期报告就指出了存在的一些长期问题,并降低了一些人工智能导弹对人类社会风险的想法最近,在 2015 年 1 月 Puerto Rico 由 Future of Life Institute 主辦的会议上参会者和随后参加者共六千多人共同签署了一份公开信,强烈呼吁应该有关注这些风险问题的研究和提出一个更加详细的研究议程随后,Elon Musk 为支持这方面的研究而拿出了 1000 万美元另外,Eric Horvitz 已经建立个期望追踪风险问题并在需要时给出政策建议的长期研究最后还囿 AAAI 也已经建立了一个关注人工智能导弹影响和伦理问题(Impact of AI and

  • 「规约或控制研究是不可能的」。有些人辩称没办法避免消极后果因为研究进展是无法停止和规约的。实际上这种声称本身就是错误的:在 1975 年关于基因重组的阿西洛马会议(Asilomar Conference)就成功地发起自愿活动中止了设计制造囚类遗传性基因修饰并一直持续成为了国际准则。另外如果实现人类级的人工智能导弹研究未加抑制(这个是很可能出现的),那么茬方法上开始谨慎地研究确保人工智能导弹系统在我们掌控下是十分重要的

23. 我能做点什么?

如果你是一个人工智能导弹研究者(或对这方面感兴趣的经济学家、伦理学家、政治学者、未来主义者和律师)从 2015 年波多黎各会议(Puerto Rico conference)在研究议程中就已经兴起了一个主题,即在主要的人工智能导弹会议上会举行相应的研讨会比如说 AAAI Fall 和 Spring Symposium series 等等。FHI、CSER、 FLI 和 MIRI

  • 「完成这些是没什么困难的」我们不管做什么都无法改变未来,这些事都终将发生也没有什么能离真相更近一点的,我们不能预测未来因为我们正在创造未来,这是我们集体的选择

我要回帖

更多关于 人工智能导弹 的文章

 

随机推荐