编者按:AI 有自己的意识和思想吗?很多相关研究人员认为答案是肯定的。但实际上,现在的人工智能并不能做到这一点。AI 研究人员倾向于把“想象中的真实”与“现实的真实”混淆,并对公众传达过于超前的理念。本文来自编译,希望对您有所启发。
当太阳落在西雅图南部的莫里岛时,本·格尔策尔(Ben Goertzel)和他的“爵士乐队”迎来了所有乐队都希望看到的时刻:键盘、吉他、萨克斯和主唱融为一体。
格尔策尔在弹奏琴键,乐队的朋友和家人在俯瞰海滩的露台上聆听。苔丝狄蒙娜(Desdemona)戴着紫色假发,穿着镶有金属饰钉的黑色裙子,担任主唱。
在从事人工智能研究超过 25 年之后,格尔策尔花了这 25 年的时间来研究能够像人类一样思考的机器。他认为自己终于达到了最终目标:苔丝狄蒙娜,这台他制造的机器,具有感知能力。
但几分钟后,他意识到这是无稽之谈。格尔策尔是 SingularityNET 组织的首席执行官和首席科学家。他塑造苔丝狄蒙娜是在模仿一本书中的内容,这本书的作者是格尔策尔本人,内容是关于人工智能的未来。
格尔策尔所研究领域里的许多人并不擅长区分什么是“现实的真实”,什么是“他们想要的真实”。
最近最著名的例子是一位名叫布莱克·莱莫因(Blake Lemoine)的工程师。他在谷歌公司从事人工智能方面的研究,特别是能够自己生成单词的软件,也就是所谓的大型语言模型。他的结论是,这项技术是有知觉的,而他的上司得出的结论是,事实并非如此。他在接受《华盛顿邮报》采访时公开了自己的想法,他说:“当我和一个人交谈时,我知道他是谁。这个人的脑袋里是否有肉做的大脑并不重要,可能只有十亿行代码。”
这次采访在人工智能研究人员以及那些通常不关注大型语言模型突破的人之间引起了巨大的轰动。我已经研究人工智能十多年了,我母亲的一位老朋友给她发了一封电子邮件,问我是否认为这项技术是有知觉的。
当我给出否定的回复时,她舒了一口气。谷歌最终解雇了莱莫因。
对于像我母亲的朋友这样的人来说,“技术能表现得像人脑一样”这件事是极度难以置信的。没有证据表明这项技术是有知觉的或有意识的(知觉和意识这两个词描述了个体对周围世界的感知)。
匹兹堡大学(University of Pittsburgh)研究动物和机器认知技能的教授科林·艾伦(Colin Allen)说:“大型语言模型生成的对话并不能提供证据,证明其拥有感知能力——哪怕是在非常原始的动物身上找到的那种形式最简单的感知能力。”
加州大学伯克利分校人工智能研究小组的心理学教授艾莉森·戈普尼克(Alison Gopnik)对此表示赞同,“目前人工智能的计算能力,比如大型语言模型,”她说,“并不会让它们比石头或其他机器更有感知能力。”
问题是,最接近这项技术的人,也就是那些负责向公众解释这项技术的人,是“生活在未来”的。他们有时会看到自己“认为会发生的事情”。
“在我们的行业中,有很多人很难区分科幻小说和现实生活的区别,”Cerebras公司的首席执行官兼创始人安德鲁·费尔德曼(Andrew Feldman)说。该公司生产可以帮助加速人工智能进步的大型计算机芯片。
一位著名的研究人员尤尔根·施米德胡贝(Jürgen Schmidhuber)一直声称他在几十年前首次制造了有意识的机器。2022 年 2 月,过去十年最重要的研究人员之一、旧金山研究实验室 OpenAI 的首席科学家伊利亚·苏茨克弗(Ilya Sutskever)说,今天的技术可能是“略微有意识的”。该实验室得到了微软(Microsoft)10 亿美元的支持。几周后,莱莫因接受了他的重要采访。
这些来自人工智能这个狭小、孤立、独特而古怪的世界的消息,可能会让我们大多数人感到困惑,甚至恐惧。科幻小说、电影和电视让我们担心有一天机器会意识到它们周围的环境,并以某种方式伤害人类。
的确,随着这些研究人员的不断努力,类似苔丝狄蒙娜的人工智能(这项技术似乎显示出真正的智能、意识或感知的迹象)正变得越来越普遍。在硅谷的实验室里,工程师们制造出了似乎能像人类一样表达情感、交谈、即兴演奏主唱的机器人。不过这是不真实的,技术无法做到这一点。
但它确实能误导人们。
人工智能可以用来生成推文、博客,甚至整篇文章,随着研究人员取得进展,它在对话方面也变得越来越好。尽管人工智能经常胡说八道,但许多人(不仅仅是人工智能研究人员)发现自己在和 AI 交谈时,就觉得好像它是人类一样。
伦理学家警告说,随着 AI 技术的改进和推广,我们对在互联网上遇到的一切应该尽量采取怀疑态度。
1958 年 7 月 7 日,在白宫以西几个街区的一个政府实验室里,心理学家弗兰克·罗森布拉特(Frank Rosenblatt)公布了一项他称之为感知机(Perceptron)的技术。
那时候感知机能做的事情还很简单,但罗森布拉特说,这个系统有一天会学会识别手写文字、口头命令,甚至人脸。他告诉记者,从理论上讲,它可以克隆自己,探索遥远的星球。机器可以从计算跨越到意识。
不过 13 年后他去世时,这一切都仍无法实现。但这是人工智能研究的典型,AI 是一个与罗森布拉特研究感知机几乎同时诞生的学术领域。
该领域的先驱们旨在通过任何必要的技术手段重新创造人类智能,他们相信这不会花很长时间。有人说,未来十年内,一台机器将可以击败世界象棋冠军,并发现用于创造自己的数学定理。不过,这也没有发生。
这项研究产生了一些值得注意的技术,但它们远不能复制人类的智能。“人工智能”这个词描述的更像是该技术“有朝一日可能做什么”,而不是它“目前能做什么”。
AI 领域的一些先驱者是工程师,还有一些是心理学家或神经学家。不过,包括神经科学家在内,没有人了解大脑是如何工作的。但他们却相信自己能以某种方式重建大脑。
在 80 年代,工程师道格·莱纳特(Doug Lenat)说他可以一次一条规则地重建常识。在 21 世纪初,一个庞大的在线社区的成员(现在被称为理性主义者或有效利他主义者)开始探索人工智能有一天会毁灭世界的可能性。很快,他们将这一长期理念推广到学术界和工业界。
在当今领先的人工智能实验室里,会议室的墙上挂着经典科幻电影的剧照和海报。就连这些实验室的名字也充满着未来感:谷歌Brain、DeepMind、SingularityNET。事实是,大多数被贴上“人工智能”标签的技术,只是在很小的方面模仿人类的大脑,有的甚至一点都没有模仿人脑。所以当然,AI 还没有到它的创造者再也无法控制它的地步。
大多数研究人员可以退一步,不去吹嘘 AI 能做到的事情,承认这项技术的局限性。但有时,“能”和“不能”之间的界限会变得模糊。
在 2020 年,OpenAI 推出了一个名为 GPT-3 的系统,它可以生成推文、写诗、总结电子邮件、回答琐碎问题、翻译语言,甚至编写计算机程序。
OpenAI 首席执行官、37 岁的企业家兼投资者萨姆·奥尔特曼(Sam Altman)认为,这种系统以及类似的系统是智能的。“他们可以完成有用的认知任务,”奥尔特曼最近告诉我,“学习能力(接受新环境并以新方式解决问题的能力)就是智能。”
GPT-3 是人工智能研究人员所说的神经网络,以人类大脑中的神经元网络命名。这也是一种充满未来感的语言。神经网络实际上是一个数学系统,它通过在大量数字数据中精确定位的模式来学习技能。例如,通过分析数千张猫的照片,它可以学会如何识别一只猫。
戈普尼克说:“我们称之为‘人工智能’,但实际上称之为‘从大型数据集中提取统计模式’可能更合适。”
这与罗森布拉特在 20 世纪 50 年代探索的技术相同。那个时代的他没有大量数字数据来实现那个伟大的想法。他也没有分析所有数据所需的计算能力。但在 2010 年左右,研究人员开始表明,神经网络确实能做到像罗森布拉特说的那样强大,至少在某些任务中是如此。
这些任务包括图像识别、语音识别和翻译。神经网络是一种技术,它可以识别你对 iPhone 发出的命令,并在谷歌翻译上将其翻译成法语和英语。
最近,谷歌和 OpenAI 等机构的研究人员开始构建从大量散文中学习的神经网络,包括成千上万的电子书籍和维基百科文章。GPT-3 就是一个例子。
当它分析所有的数字文本时,会建立所谓的“人类语言的数学地图”,超过 1750 亿个数据点描述了人们如何将单词拼凑在一起。使用这个地图,它可以执行许多不同的任务,如撰写演讲稿、编写计算机程序和进行对话等。
但也不一定靠谱。使用 GPT-3 就像掷骰子:如果你让它用唐纳德·特朗普的声音做 10 场演讲,它可能会给你 5 场听起来非常像这位前总统的演讲,还有 5 场则完全不像。计算机程序员使用这项技术来创建小段代码,他们可以将其嵌入到更大的程序中,但通常情况下,必须编辑和修改 GPT-3 提供出来的内容。
专门研究儿童发展的戈普尼克说:“这些东西甚至和普通两岁儿童的思维方式都不一样。至少就某些智能而言,它们可能介于黏液霉菌和我两岁的孙子之间。”
即使在我们讨论了这些缺陷之后,奥尔特曼仍然将这种系统描述为是“智能的”。在我们继续聊天的时候,他承认它不像人类那样聪明。“它就像一种外星智慧,”他说,“但它仍然算是智能的。”
用来描述这项技术的词语对不同的人有着不同的含义。人们对什么是智能,什么不是智能存在分歧。感知(体验感觉的能力)不是一种容易测量的东西,意识(保持清醒并意识到周围的环境)也不是。
奥尔特曼和该领域的许多其他人都有信心,他们正在建造一台机器,这台机器可以做任何人类大脑可以做的事情。当他们讨论当前的技术时,这种信心会闪耀出来。
奥尔特曼说:“我认为,部分原因是人们对这些系统感到非常兴奋,而用来表达兴奋的语言是不完美的。”他承认,一些人工智能研究人员“很难区分现实和科幻小说”。但他相信这些研究人员仍然发挥着重要作用,“他们帮助我们实现各种可能,”他说。也许确实是这样。但对于我们其他人来说,这些“梦”可能会阻碍我们去关注那些值得关注的问题。
20 世纪 60 年代中期,麻省理工学院(Massachusetts Institute of Technology)的研究员约瑟夫·魏森鲍姆(Joseph Weizenbaum)制造了一种他称之为伊莉莎(Eliza)的自动化心理治疗师。这个聊天机器人很简单,基本上就是,当你在电脑屏幕上输入一个想法时,它会让你展开这个想法,或者它只是以一个问题的形式重复你的话。甚至当韦森鲍姆为他发表的相关技术学术论文挑选对话时,对话是这样的:
男人都是一个样。
怎么说呢?
他们总是为这样或那样的事烦我。
能举个具体的例子吗?
比如今天就是我男朋友逼我来这的。
噢,是你男朋友逼你来的。
但令韦森鲍姆大为惊讶的是,人们对待伊莉莎就像对待人类一样。他们自由地分享自己的个人问题,并从这些问题的回答中获得安慰。
“我从长期的经验中知道,许多程序员与他们的计算机之间的强烈情感联系,往往是在与机器短暂接触后形成的,”他后来写道,“我没有意识到的是,对一个相对简单的计算机程序进行短暂接触,会导致相当正常的人产生强大的妄想思维。”
我们人类很容易受到这些感觉的影响。当狗、猫和其他动物表现出哪怕是极少的与人类相似的行为时,我们往往也会认为它们非常像我们人类。当我们在机器中看到人类行为的蛛丝马迹时,也会发生类似的情况。
科学家们现在称之为伊莉莎效应。
同样的事情也发生在现代科技上。在 GPT-3 发布几个月后,发明家兼企业家菲利普·博苏亚(Philip Bosua)给我发了一封电子邮件,题目是:“上帝是一台机器。”
“毫无疑问,在我看来,GPT-3 具有感知能力,”他写道,“我们都知道这在未来会发生,但似乎这个未来就是现在。”
在为 iPhone 设计了 600 多个应用程序后,博苏亚开发了一款可以用智能手机控制的灯泡,并在众筹网站 Kickstarter 上围绕这项发明开展了众筹,最终从硅谷风险投资公司红杉资本(Sequoia capital)那里筹集了 1200 万美元。现在,尽管他没有接受过生物医学培训,但他正在为糖尿病患者开发一种设备,可以在不破皮的情况下监测血糖水平。
博苏亚认为自己在某种意义上是“先知”,看到了人工智能的未来。当我指出,许多专家坚称,这类系统只是擅长重复他们看到的模式时,他表示,这也是人类的行为方式。“孩子不就是模仿从父母那里看到的东西,模仿从周围世界看到的东西吗?”他说。
博苏亚承认 GPT-3 并不总是可靠的,但他说,如果你以正确的方式使用它,是可以避免不靠谱的情况的。
“最好的语法是诚实,”他说,“如果你对它诚实,表达你原始真实的想法,它就有能力回答你想要的问题。”
博苏亚不一定代表普通人。他新公司的主席称他是“有神力的”,是一个先知。但他的经历表明,即使是缺陷百出的技术,也能激发人们的想象力。
玛格丽特·米切尔(Margaret Mitchell)担心这一切对未来意味着什么。
作为微软(Microsoft)的研究员,她帮助成立了微软的人工智能伦理团队,以及现在的另一个著名研究实验室 Hugging Face,她亲眼见证了这项技术的崛起。她说,如今这项技术相对简单,而且有明显的缺陷,但许多人认为它在某种程度上是人性化的。那么,当技术变得更加强大时会发生什么呢?
除了生成推文和博客文章并模仿对话,OpenAI 等实验室构建的系统还可以生成图像。有了一款名为 DALL-E 的新工具,你只需用通俗易懂的语言描述你想要看到的东西,就可以创建逼真的数字图像。
人工智能研究领域的一些人担心,这些系统正在走向感知或意识。但这不是重点。
匹兹堡大学教授艾伦说:“一个有意识的有机体,比如人、狗或其他动物,可以在一个环境中学习一些东西,在另一个环境中学习另一些东西,然后把这两件事放在一起,在一个他们以前从未经历过的新环境中做一些事情。而这项技术远不能做到这一点。”
更紧迫、更现实的担忧是,随着这项技术的不断进步,它可能有助于在互联网上传播虚假信息,比如虚假文本和虚假图片。它可以制造出以更令人信服的方式模拟对话的聊天机器人(比如现在的 OpenAI 的 ChatGPT 和微软的 Bing)。这些系统的运作规模非常之大,相比之下,如今人工传播虚假信息的活动都显得微不足道。
如果这种情况发生了,我们将不得不以极端的怀疑态度对待在网上看到的一切。但米切尔怀疑人类是否能应对这个挑战。
“我担心聊天机器人会扰乱人类活动,”她说,“这些机器有能力说服我们相信什么,以及做什么。”
译者:Jane