欢迎关注“新浪科技”的微信订阅号:techsina
文/机器之心
来源:机器之心(ID:deep_insights)
让我们结束这场哑谜吧。
几个月来,这位声称“AI 有意识”的工程师一直在与谷歌经理、高管和人力资源部门争吵,他的观点引发了学界广泛讨论,但在谷歌的职业生涯也终于结束了。
据持续跟踪报道的媒体 Big Technology 本周六称,公开声称谷歌大模型 LaMDA 对话式人工智能具有感知能力的工程师 Blake Lemoine 已被解雇。
6 月,在 Lemoine 就他因为“AI 人权”的担忧联系美国参议员办公室,并聘请律师代表谷歌 AI 对话系统 LaMDA 后,谷歌因违反保密协议给了 Lemoine 带薪休假的待遇。
谷歌发言人 Brian Gabriel 本周五通过电子邮件向 The Verge 发送了一份声明,部分证实了这次解雇,其中说道:“我们希望 Lemoine 一切顺利。”该公司还表示:“LaMDA 已经通过了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。”谷歌坚称其“广泛地”审查了 Lemoine 的说法,发现这些说法“完全没有根据”。
这与许多人工智能专家和伦理学家的态度一致。很多学者认为,鉴于当今的技术,Lemonie 的主张应该是不可能的。这名谷歌工程师曾声称,经过与 LaMDA 模型长期对话,他相信此 AI 已不仅仅是一个程序,它拥有了自己的想法和感受,而不是像原设计那样仅产生接近真人对话能力的程度。
Lemonie 认为,因为 AI 存在意识,因此谷歌研究人员应该在对 LaMDA 进行实验之前征得 AI 自身同意(Lemoine 本人被指派测试人工智能是否会产生仇恨言论),他在自己的 Medium 博客账户上发布了大量与 AI 对话的内容作为证据。
今年 1 月,超过 50 多位谷歌研究者参与撰写的论文《LaMDA: Language Models for Dialog Applications》完整介绍了语言模型 LaMDA。论文展示了 AI 在接近人类水平的对话质量以及在安全性和事实基础方面具有显著改进。LaMDA 通过微调一系列专门用于对话的、基于 Transformer 的神经语言模型构建,具有多达 1370 亿个参数,在对话时,模型还可以引用外部知识源作为参考。
谷歌表示,预训练的 LaMDA 模型已被广泛应用于自然语言处理研究中,包括程序合成、零样本学习、风格迁移等方向。
在 Lemoine 事件被媒体广泛报道之后,很多 AI 领域学者纷纷亮出了自己的观点,前特斯拉 AI 总监 Andrej Karpathy 认为大模型表现出有意识的样子“细思恐极”,而在纽约大学教授 Gary Marcus 看来,LaMDA 肯定毫无感知力。
大多数人工智能专家认为,该行业距离让计算机获得认知能力还有很长的路要走。
以下是谷歌的完整声明,其中还提到了 Lemoine 指控该公司没有适当调查他的说法:
正如我们分享的人工智能准侧一样,谷歌非常重视人工智能的发展,并始终致力于负责任的创新。LaMDA 已经通过了 11 次不同的审查,我们在今年早些时候发表了一篇研究论文,详细介绍了其负责任的开发工作。如果有员工像 Blake 一样对我们的工作表示担忧,我们会对其进行广泛审查。我们发现 Blake 声称 LaMDA 有知觉的观点是完全没有根据的,并与他一起努力澄清了好几个月。
这些讨论是帮助我们负责任地创新的开放文化的一部分。因此,令人遗憾的是,尽管在这个话题上进行了长时间的讨论,Blake 仍然选择持续违反明确的就业和数据安全政策,其中包括保护产品信息的需要。我们将继续精心开发语言模型,并祝 Blake 一切顺利。