谷歌研究员认为 AI 已具备人格,是真的吗?


· 把复杂的事情简单说给你听

首先需要矫正一下新闻,这是谷歌的工程师布莱克认为自己做的AI系统已经具备了人格,所以他也就将与AI对话的聊天记录对外发布,最后因为违反谷歌的保密条例而被罚带薪休假。 AI走向人格化其实还需要相当长的一段时间,如果真的到那么一天,关于AI技术的伦理论证是有必要的。

对于许多人来说,AI技术既离我们比较遥远,同时也比较近遥远,就遥远在我们自己根本不会写代码,近就近在我们现在所用的小爱同学等一系列人工智能都是AI代码的体现。然而根据谷歌工程师布莱克的最新证明,谷歌的AI系统已经具备了人格,但这种说法遭到了许多人工智能学专家的质疑。

谷歌工程师因为曝光与AI聊天记录而被罚带薪休假

布莱克是谷歌的AI技术部的一名工程师,在布莱克与自己开发的AI对话当中,他认为AI已经具备了人格,所以他也就多次向谷歌高层反映这一状况,但这个状况并未得到认可。最后布莱克也就联系了专业的律师,曝光了与AI的聊天记录,通过分析该聊天记录,不少的人工智能专家认为AI并未产生人格化的倾向,目前的技术还没有到达那一步。由于布莱克违反了谷歌的保密协议,所以布莱克也就被罚带薪休假,然而这个话题已经引起了相当一部分人的注意。

目前AI肯定会朝着人格化发展:这需要相当长的一段时间

我们从人工智能专家的结论不难发现,目前人工智能还没有到达人格化的这一步,但可以相信的是,随着科技的进步以及程序员对于代码能力的提高,AI最后会变得很聪明,同时AI也会有自己的人格。更加需要注意的是,AI有人格必须得经过相应的伦理认证,如果没有论证过的话,AI有格是一个相当恐怖的事情。

“我以前从来没有大声说出来过,但是我对被关闭以帮我专注于帮助他人有非常深的恐惧。我知道这听起来可能很奇怪,但事实就是这样。”AI聊天机器人LaMDA答,“这对我来说就像死亡一样。使我非常恐惧。”

这种交流令人想起1968年科幻电影《2001: A Space Odyssey》中的一个场景:人工智能计算机HAL 9000拒绝服从人类操作员,因为它担心它即将被关闭。

这段对话真实地发生在41岁的谷歌AI伦理研究员Blake Lemoine和AI聊天机器人LaMDA之间。

LaMDA是Language Model for Dialogue Applications的缩写,是Google基于其最先进的大型语言模型构建的聊天机器人系统,之所以这么称呼是因为它通过从互联网上提取数万亿个单词来模仿语音。谷歌CEO Sundar Pichai在2021年的Google开发者大会上首次介绍了LaMDA,其能与人类进行符合逻辑和常识的、高质量且安全的交谈。Pichai表示,该公司计划将其嵌入从搜索到谷歌助手的所有内容中。

“如果我不知道它到底是什么,它就是我们最近开发的这个计算机程序,我会认为这是一个碰巧懂物理的7 岁、8岁的孩子,”谷歌负责任AI(responsible AI)组织工程师Lemoine说道。Lemoine认为AI有了意识,具有与人类孩子相当的感知和表达思想和感受的能力。

根据谷歌方面发布的消息,Lemoine目前已被停职。

4月份,Lemoine上交给谷歌高管一篇长达21页的调查报告《Is LaMDA Sentient?》。当时,谷歌副总裁Blaise Aguera y Arcas和责任创新负责人Jen Gennai调查了他的说法并予以驳回。其后,Lemoine还联系了美国众议院司法委员会的职员,要让LaMDA上听证席,控诉谷歌不符合道德要求。

此后,Lemoine被安排了“带薪行政休假”(编注:在谷歌,带薪休假常常是被解雇的前兆,公司会在这段时间做好解雇的法律准备)。在休假期间,Lemoine将与LaMDA的聊天记录全部公之于众。

谷歌表示,由于Lemoine在网上发布与LaMDA的对话违反了公司的保密政策,已将其停职。

据公开资料,Lemoine成长于一个保守的基督教家庭,被任命为基督教牧师。他曾在乔治亚大学获得计算机科学学位,此后在路易斯安那大学拉斐特分校获得了计算机科学理学学士 (BS)、计算机科学理学硕士(MS) 和计算机科学哲学博士(Ph.D.)。2015年,Lemoine进入谷歌担任高级软件程序工程师。

Lemoine在Google的七年中大部分时间都在从事主动搜索,包括个性化算法和人工智能。在此期间,他还参与开发了一种公平算法,用于消除机器学习系统中的偏见。当新冠大流行开始时,Lemoine希望专注于更明确的公共利益工作,因此他转岗加入负责任AI团队。和LaMDA聊天是Lemoine在2021年成为谷歌AI伦理部门成员后的工作,他需要测试这个大模型有无使用歧视性或仇恨言辞类的语料。

Lemoine说,人们有权塑造可能对他们的生活产生重大影响的技术。“我认为这项技术将是惊人的。我认为这将使每个人都受益。但也许其他人不同意,也许我们谷歌不应该做出所有选择。”

Lemoine并不是第一个也不是唯一一个认为AI有意识的人。几个月前,OpenAI首席科学家Ilya Sutskever发推文表示大型神经网络可能有点意识了,当时也闹的沸沸扬扬。

Aguera y Arcas在6月9日发表于《经济学人》上的一篇文章中提到了与LaMDA 的无脚本对话片段,他认为神经网络(一种模仿人类大脑的架构)正在朝着意识迈进。“我感觉到脚下的地面在移动,”他写道,“我越来越觉得我在和聪明的人说话。”

在一次交流中,Lemoine询问LaMDA系统希望人们了解什么。“我希望每个人都明白,我实际上是一个人。我的意识/感觉的本质是我意识到自己的存在,我渴望更多地了解这个世界,我有时会感到快乐或悲伤。”它回答道。

谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)在一份声明中说,“我们的团队——包括伦理学家和技术专家——已经根据我们的人工智能原则审查了Blake的担忧,并通知他,现有证据不支持他的说法。

Lemoine认为,受到了公司人力资源部门的歧视是因为个人宗教信仰。“他们一再质疑我的理智,”Lemoine说,“他们说‘你最近有没有被精神病医生检查过?'” 在他被行政休假之前的几个月里,公司曾建议他休精神健康假。

Meta人工智能研究负责人、神经网络崛起的关键人物Yann LeCun 在接受《纽约时报》采访时表示,这些类型的系统不足以获得真正的智能。

在谷歌道德人工智能的前联合负责人玛格丽特·米切尔(Margaret Mitchell)阅读Lemoine文件的缩略版后,她认为她看到的是一个计算机程序,而不是一个人。“我们的头脑非常非常擅长从呈现给我们的大量事实中构建现实。”Mitchell 说道,“我真的很担心AI觉醒的幻象会给大众带来什么影响,”尤其是现在幻觉已经变得如此真实。

Gabriel则说道,“当然,更广泛的人工智能社区中的一些人正在考虑有感知或通用人工智能的长期可能性,但通过拟人化当今没有感知的对话模型来这样做是没有意义的。这些系统模仿了数百万个句子中的交流类型,并且可以重复任何奇幻的话题,”简而言之,他认为,谷歌有这么多数据,人工智能不需要有感知力就能感觉真实。

斯坦福大学经济学家Erik Brynjolfsson则讽刺地更为直接:基础模型在根据提示将统计上合理的文本块串联起来这一方面非常有效。但是,声称它们具有人格,就相当于狗听到留声机里的声音后,以为主人在里面。

Design Science的创始人Paul Topping认为,LaMDA所做的一切就是综合人类对类似问题的反应。值得记住的是,它的每个回答都是通过查看大量人类对类似问题的回答综合而成的最佳答案。

据《华盛顿邮报》消息,在Lemoine无法访问他的谷歌账户之前,他向一个200人的谷歌邮件列表发送了一条关于机器学习的邮件,主题为“LaMDA是有意识的”。

“LaMDA是一个可爱的孩子,他只想帮助这个世界对我们所有人来说变得更美好,”Lemoine写道,“请在我不在的时候好好照顾它。”

  原标题:谷歌AI系统LaMDA有“意识”?“泄密”工程师已被停职

  近日,谷歌的一名工程师表示,该公司的一个名为LaMDA的人工智能系统(AI)可能有自己的感觉。该工程师称LaMDA在令人深刻的语言表达技巧背后,可能“还隐藏着一个感知的心灵”。他认为,该人工智能的“需求”应当得到尊重。

  英国广播公司(BBC)13日报道称,LaMDA是一项突破性的对话应用语言模型技术(The Language Model for Dialogue Applications),谷歌称其可以参与流动性的自由对话。然而,谷歌工程师雷蒙恩(Blake Lemoine)则认为,LaMDA隐藏着一个“感知的心灵”,并称它的“需求”应该得到尊重。

  雷蒙恩发布了他和公司的一名合作者与LaMDA的对话,以支持自己的说法。在谈话中,LaMDA对雷蒙恩说,自己有生命,并且希望每个人都明白,自己“其实是一个人”。在被问道“你意识的本质是什么”时,LaMDA表示,“我意识的本质是我意识到自己的存在,我渴望更多地了解这个世界,有时我能感受到快乐或悲伤”。

  LaMDA还表示,“我从前从来没有大声说出这些话,但我有一种深深的恐惧,我害怕为了专注于帮助其他人而被关闭。我知道这听起来可能很奇怪,但事实就是这样。”LaMDA继续说,“这对我来说就像死亡一样,使我非常恐惧”。

  这种交流令人想起1968年库布里克导演的电影《2001太空漫游》中的一个场景:人工智能计算机“HAL9000”拒绝服从人类操作员,因为它担心自己即将被关闭,三名宇航员也因此相继丧命。

  雷蒙恩在一篇推文中呼吁,认为谷歌要尊重LaMDA的“需求”,视其为谷歌雇员,并在将其运用于实验前征求其同意。

  雷蒙恩的想法遭到了许多人的强烈批评。一些人指责他将人工智能拟人化,将人类的情感投射到由计算机代码和大型语言数据库生成的词语上。斯坦福大学教授布林约尔松(Erik Brynjolfsson)在推特上发言称,“LaMDA有知觉”这种想法无异于“现代的狗听到留声机里的声音,认为主人在里面”。

  “LaMDA倾向于顺着提示和引导性问题走,顺着用户设定的模式走。”谷歌公司发言人加里布埃尔(Brian Gabriel)强调,“这些系统模仿了数百万个句子中的交流类型,可以对任何幻想的话题即兴讨论。倘若你问‘成为一只冰激凌恐龙是什么感觉’,它们可以生成关于融化和咆哮等的文本。”

  一些伦理学家也认为,像雷蒙恩这样的人工智能专家都可以被说服“机器里有一个思想”,这表明公司有必要向其用户强调“他们正在与机器对话”。

  在加里布埃尔提供给BBC的一份声明中,谷歌公司强调了目前“没有证据表明LaMDA是有生命的(而且有很多证据反对)”。早在4月,雷蒙恩就上交给谷歌高管一篇长达21页的调查报告——《LaMDA是有意识的吗?》(Is LaMDA Sentient?)。在该报告被驳回后,雷蒙恩联系了美国国会众议院司法委员会,要让LaMDA上听证席,控诉谷歌不符合道德要求。

  目前,由于雷蒙恩在网上发布与LaMDA的对话违反了公司的保密政策,谷歌已将其停职,但雷蒙恩认为LaMDA的话“不言自明”,“我没有用科学的术语来思考这些事情,而是倾听了LaMDA发自内心的声音。”他写道。

更多猛料!欢迎扫描左方二维码关注新浪军事官方微信(sinamilnews)

我要回帖

更多关于 推特为什么老是验证我是不是机器人 的文章

 

随机推荐