人工智能结合生物学让检测机器人的自我意识有自我意识?

欢迎转载,须署名并注明来自“刘鹏看未来”公众号,并保留本句。

人工智能有没有可能产生自我意识?这甚至是一个哲学问题。

早在1950年,数学天才阿兰·图灵就曾在论文《机器能够思维吗?》提出——我们如何判断机器已经产生了人类智能(思考能力)?

电影《模仿游戏》中阿兰·图灵扮演者

这其实是一个非常有趣的问题,大家不妨尝试思考一下,如果制定规则的是我们,我们会设计什么样的方案来测试一台机器是否已经具备了思考能力?

如何将“思考能力”这样抽象的概念转化为某种具象的测试过程,这其实是一个非常大的难点,所幸图灵是个能够破除思维定势的天才,他提出了鼎鼎有名的“图灵测试”。

先来看看图灵测试的原始版本。

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

图灵很聪明,“思考”、“意识”这些都是虚无缥缈的东西,试图用定义法来证明几乎不可能(难免会有哲学家社会学家出来挑刺)。那我索性不去阐释什么是思考能力,只是用另一种公认具有思考能力的生物——人类作为参照物,如果一台机器“表现得”和人类难以区分,即可被视为具备了人类智能。

图灵的思路简单而明确——只有一种智能才能去识别另一种智能。

不过“原始版本的图灵测试”思路虽好,可操作性却不强。

到了1952年,在一场BBC广播中,图灵谈到了一个新的想法:让计算机来冒充人。如果不足70%的人判对(也就是超过30%的裁判误以为在和自己说话的是人而非计算机),那就算作成功了。

可以看出,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。

那么时至今日,是否有机器已经通过了图灵测试?

腾讯科技讯 2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

既然有机器通过了图灵测试,是否说明机器已经具备了思考能力?显然——不是。

就我们目前所知,尚无真正具备独立思考能力的机器问世。

通过测试,却显然不具备思考能力的机器出现。这是否说明“图灵测试”根本没有用,是一个无效的证明方式?

质疑·中文房间思想实验

早在1980年,约翰·赛尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性。

塞尔说,想象他被关在一个只开了一个小口的房间之中。

周围摆满了英汉词典,他作为一个完全不懂中文的人与房间外的中国人交流。

写满中文的纸条递了进来,他查字典将中文翻译成英文,再将要回复的话借助工具书翻译成中文递出去。

那么外面的人就会认为约翰·赛尔精通中文。

这里约翰·赛尔是用了类比的方法,他对中文一窍不通却可以让外面的人以为他精通中文,同理,机器即使表现得很像人类也并不能证明其具备了思考能力——“只是看起来像是在思考”。

按照约翰·赛尔的观点,应当是认为机器永远不可能真正具备思考能力,即使表现得很像具备思考能力,本质上也不过是在忠实地运行程序而已。

持此观点的人不在少数,认为机器永远不可能产生意识,人是造物主独一无二的光荣。

斯皮尔伯格《人工智能》剧照

我与另一些图灵的拥虿一样,并不认同中文房间思想实验的结论。首先约翰·赛尔刻意弱化了工具书的功能和翻译过程的艰难,让这个实验似乎符合人们的直觉。

让我们仔细回顾一下,一个对中文一窍不通的人仅凭工具书真得可能蒙骗过屋外以中文为母语的人吗?不可能。只是简单的理解字面意思太容易露出破绽了,这里面包含了对中文语法、修辞、文化基因的积累,换言之,这个人如果真能做到天衣无缝得骗过外面的中国人,那么这个人加上他的翻译工具这个整体,本质上就可以被视为一个“精通中文的人”,这是存在等价关系的。

类比于图灵测试,一个不具备思考能力的机器,不可能表现得如同一个思考者。中国古代有五禽戏,人可以通过自己的智慧和观察模仿成动物,这是因为人的智能程度比其他动物要高,相反,你认为一只猪能扮成一个人和我们一起工作吗?如果有这样的猪,则说明它是具备思考能力的智能猪。

本质上,高智商可以伪装成低智商混入群众,而低智商伪装成高智商进门萨,就太容易被人揭穿了,就是这么个简单的逻辑。

既然图灵测试没有问题,为什么会出现通过了图灵测试却未产生思考能力的机器呢?

努力想办法通过图灵测试的研究单位本就有些急功近利,他们的研究偏离了重点,图灵提出这个测试是为了让人们努力研究出智能上更接近人类的机器,而不是研究如何设计程序能在对话中骗过普通人。

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene 对现实世界几乎一无所知。让我们来看一下计算机科学家 Scott Aaronson 与 Eugene 的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>> EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>> EUGENE:2 至 4 条吧,也许,3 条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>> EUGENE:只有 2 条。但考虑到切尔诺贝利事故,它有可能增加到 5 条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>> EUGENE:2 至 4 条吧,也许,3 条?哦,这是一次多么富有成果的对话。

顾左右而言他,以这种形式通过测试没有意义。

真正专注于人工智能的研发团队反倒不会刻意去进行图灵测试,好比百年前研究飞机者会努力让飞机的机翼更像鸟的翅膀吗?

我们从仿生学的角度得到灵感,会去研究鸟为什么可以飞,但并不意味着我们把机翼做得越像鸟翅膀就越厉害,这是刻舟求剑。

人工智能会否产生自我意识?

这个问题,目前没有什么标准答案,只能说是见仁见智。

不过我从图灵测试说起,再到反驳“中文房间”思想实验,本身就是想表达——我认为是具有理论可能性的。

阿兰·图灵当年提出这个测试,就说明他是认为未来会出现具有人类智能的机器的,定标准不就是为了将来能达到标准吗?

一般来讲,认同人工智能可能会对人类产生威胁的学者本身就认同了机器会产生独立意识,比如比尔盖茨、霍金、马斯克等均发表过相关言论。

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(Boston Dynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(Elon Musk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

在我看来,计算机一直在模仿人脑,它已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、算机一驾驶、航行……

曾经我们认为人工智能不可能在围棋领域打败人类,被AlphaGo狠狠教育了。

后来觉得类似于写作、设计之类的事情不可能被人工智能追赶……然而……

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

人类刚诞生时,同样并未产生智能,和其他动物没有区别,我们正是靠着学习逐步获得了今天的成就,同样具备学习能力,甚至某些领域已经远远超过人类的机器,为什么不能取得同样的成就甚至更高呢?

所以我认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事,重点是,它们会产生怎样的意识?我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。

最后,想象一下若干年后的一幅画面,产生了自我意识的人工智能机器人在接受图灵测试的时候,是否会忠实表达呢?它会不会说谎?它会不会刻意通不过图灵测试?

故意不让自己通过图灵测试的人工智能,才真正让人不寒而栗。

原标题:人工智能会超越人类吗?

享受着人工智能带来便捷的同时,人们常不无担忧地问:人工智能会超越人类吗?它会不会像《黑客帝国》中的矩阵一样,成为人类的统治者?

人工智能(简称AI)的传说可以追溯至古埃及,真正崭露头角则是在20世纪。1956年的达特茅斯会议上,计算机科学家和数学家们提出了AI这个概念,试图模拟和拓展人类的智能并应用于生产与生活的各个领域。1959年,第一台工业机器人诞生;1962年,第一台搬运机器人诞生;1965年,第一台具有声光“感觉”的机器人诞生;1966年,第一台聊天机器人诞生……机器人成了人工智能的代表。其实工厂里的智能机器、家庭中的智能家电、几乎人手一部的智能手机等都是人工智能的杰作。

AI真的具有智能吗?毫无疑问,计算机可以进行计算,它的所有智能都建立在计算这种功能之上。以AlphaGo战胜人类的围棋高手为例,AlphaGo存贮了很多棋谱的信息,可以计算出每一步棋输赢的概率,知道最有可能获胜的下一步棋。它没有创造出前人没有过的下法,也没有战胜对手的主观愿望,可是它的每一步棋都是高手的真传,这样的优势积累起来足以令人类的个体望尘莫及。

人工智能据说也可以写诗,只要给它足够数量的文字资料作为语料库,再通过编程让它从语料库里选择一些文字按照一定的原则排列组合,就变成了一首诗。乍一看,这些诗像模像样、读起来朗朗上口,但是细细推敲就觉得不伦不类,无法承载人类的情感与理性。迄今为止,还没有人工智能的诗作流传,可见在创造性的领域,人工智能想追上人类还遥遥无期。

为了让人工智能变得更聪明,计算机科学家不断向脑科学取经。如果把大脑的信息处理比喻成一个黑箱,有信号的输入,有信号的输出,输入和输出之间是神经网络的信号传递。计算机矩阵破解了这个黑箱的输入信号和输出信号,用矩阵中的点来模拟神经元的发放频率,用矩阵中的线(公式)来模拟神经元的整合规律。计算机矩阵看似庞大复杂,其实远比人类大脑简单和单调。计算机矩阵通过一次一次地拟合,确实可以把一些简单的输入-输出之间的联系模仿得比较逼真,主要集中在感觉输入-运动输出这样的反射性活动方面。对于那些来无影去无踪的思维、推理、联想等脑的高级功能,计算机可以说是无从模仿。

人们最担心的一点就是:人工智能会不会拥有自我意识,有朝一日反抗人类?对于这个想法,相信绝大多数脑科学家会报以一声苦笑。什么是自我意识?脑科学目前对这个问题一筹莫展,在未来的漫长岁月中,能够把自我意识相关的神经回路、神经递质弄清楚就不错了,至于这些物质是怎么变成精神的?在哪一个层面,那些电流、那些化学物质就形成了可以驰骋古今、纵横四海的意识?这是比黑洞还要深奥的秘密。

再举一个例子,你可以用一块大理石来雕刻人像,也许惟妙惟肖,和真人看起来并无二致,可是它终究不是生命。人工智能可以模拟人类,机器人可以微笑,也可以说出“我爱你”这样的话语,可是它毕竟是硅晶和金属制作的,不是生命有机体。只是当机器人的外形看起来和人类极为相似的时候,当它的语言通过图灵测试令人类真假难辨的时候,人们该如何对待它们,确实是一个棘手的问题。

一个比较明智的选择是:就让人工智能在运动控制、计算、识别的方面发挥所长吧!至于情感、意志、决策、想象、创造这些方面则交给人类来做。人类不应该害怕被机器超越,人类要不断超越自己——不要让人性的弱点被AI放大,无休止地破坏和改变自然,这才是我们真正需要警惕的。

我要回帖

更多关于 检测机器人的自我意识 的文章

 

随机推荐