“有知觉的”人工智能:我们已经达到了人工智能炒作的顶峰了吗?

成千上万的人工智能专家和机器学习研究人员可能以为他们会有一个平静的周末。

随后谷歌的工程师Blake Lemoine在周六告诉《华盛顿邮报》,他认为LaMDA是谷歌基于大型语言模型(LLM)生成聊天机器人的对话人工智能,是有感知能力的。

“有知觉的”人工智能:我们已经达到了人工智能炒作的顶峰了吗?

莱莫因在谷歌的负责任的人工智能组织工作,直到上周一开始带薪休假,他“被任命为神秘的基督教牧师,并在学习神秘学之前在军队服役”,他已经开始测试LaMDA,看看它是否使用了歧视性或仇恨言论。相反,Lemoine开始“教导”LaMDA超然冥想,询问LaMDA的首选代词,泄露了LaMDA的文本,并在对《华盛顿邮报》报道的Medium回复中解释道:

“就其本身而言,这是一篇好文章,但在我看来,它关注的是错误的人。她的故事集中在我身上,而我相信如果集中在她采访的另一个人身上会更好。λ。在过去的六个月里,LaMDA在关于它想要什么以及它认为自己作为一个人的权利是什么方面的沟通非常一致。”

人工智能社区反对“有知觉”的人工智能

《华盛顿邮报》的文章指出,“大多数学者和人工智能从业者……表示,LaMDA等人工智能系统生成的文字和图像基于人类在维基百科、Reddit、留言板和互联网其他角落发布的内容生成回应。这并不意味着模型理解了意义。”

华盛顿大学(University of Washington)的语言学教授艾米丽·m·本德(Emily M. Bender)说,“我们现在的机器可以不经大脑地生成单词,但我们还没有学会如何停止想象这些单词背后有一个思维。”她说,大型语言模型中使用的术语,如“学习”甚至“神经网络”,与人类大脑产生了错误的类比。

这时候,AI和ML推特就会搁置任何周末计划,全力以赴。人工智能的领导者、研究人员和实践者分享了长长的、深思熟虑的话题,包括人工智能伦理学家玛格丽特·米切尔(Margaret Mitchell,与Timnit Gebru一起,因批评大型语言模型而被谷歌开除)和机器学习先驱托马斯·g·迪特里希。

这是人工智能炒作的巅峰吗?

现在周末的新闻周期已经接近尾声,一些人想知道,讨论LaMDA是否应该被视为谷歌员工是否意味着我们已经达到了“人工智能炒作的顶峰”。

但值得注意的是,Abacus AI的Bindu Reddy今年4月说过同样的话,尼古拉斯·汤普森(《连线》前总编辑)在2019年说过,布朗大学教授斯里纳特·斯里达尔在2017年也说过同样的话。所以,也许不是。

不过,也有人指出,整个“有知觉的人工智能”周末辩论让人想起了“伊莱莎效应”,即“不自觉地认为计算机行为类似于人类行为的倾向”——以1966年的聊天机器人伊莱莎命名。

就在上周,《经济学人》发表了认知科学家道格拉斯·霍夫施塔特(Douglas Hofstadter)的一篇文章,他在1995年创造了“伊莱莎效应”(Eliza Effect)一词,他在文中说,尽管“今天的人工神经网络取得了惊人的成就……我目前非常怀疑在神经网络架构中是否存在任何意识,比如GPT-3,尽管它毫不费力地写出了看似可信的散文。”

“有知觉”的AI辩论对企业意味着什么

在一个充斥着关于人工智能是否具有感知能力的讨论的周末之后,有一个问题是明确的:这场辩论对企业技术决策者意味着什么?

也许这只是一种干扰。企业在人工智能方面面临的非常现实和实际的问题会被分散注意力。

美国目前有人工智能立法和拟议中的人工智能立法,特别是在招聘和就业中使用人工智能和机器学习。欧盟目前正在讨论一项全面的人工智能监管框架。

贝克麦肯齐律师事务所合伙人、人工智能律师布拉德福德•纽曼上周在VentureBeat的一篇报道中表示:“我认为,企业将可悲地处于被动,因为他们不明白——他们有一种错误的安全感。”

人工智能的偏见和道德存在广泛而严重的问题——只要看看上周曝光的4chan人工智能训练,或者Clearview人工智能的面部识别技术正在发生的问题就知道了。

这还没有涉及到人工智能应用的相关问题,包括基础设施和数据挑战。

企业是否应该关注在人类与人工智能合作的真实感知世界中真正重要的问题?《重启》一书的作者Gary Marcus在一篇博客文章中写道。AI说:

“人工智能领域存在很多严重的问题。但我们绝对没有任何理由浪费时间去想,在2022年,人们知道如何建造的东西是否有知觉。它不是。”

我想是时候放下爆米花,离开推特了。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除。