本想偷懒才用的 AI,没想到 AI 摸起鱼比我还厉害?!

本想偷懒才用的 AI,没想到 AI 摸起鱼比我还厉害?!
2024年12月30日 13:13 极客公园

摘要

真正的「上梁不正下梁歪」

生成式 AI 在近两年大杀四方,它们看起来无所不知,有求必应。图灵测试早已不停留在对话上,而是在各项能力上,审视着 AI 能多接近人类,诸如写出的文章几分像人,创作的歌曲有多动人,生成的图片有多拟真。

人类在一次次惊艳里透露着恐慌,恐慌于 AI 距离人类越来越近,恐怖谷的沟壑越来越短。但大众都忽略了 AI 似人的另一面向:缺陷。

我们已知 AI 因为数据收集的问题,会犯许多事实类错误,但倘若它们产生了人性的弱点呢,故意犯错呢?

例如,当你偷懒用 AI 处理工作时,赫然发现,它竟然比你还会「摸鱼」!

倒反天罡!说好的「AI 智能助手」呢!

勤奋「摸鱼」的 Claude

10 月底,Anthropic 发布了 Claude 3.5,它是 Anthropic 第一次尝试建立的「AI Agent」产品,既给它指定任何一个目标,它就能自动解决各种问题,期间它会调动各种其他工具,去支撑自己完成任务,许多 AI Agent 的目标也是成为「雇员」一样的角色。

具体在操作上,Claude 3.5 可以自己用电脑,就像人类一样查看屏幕、移动光标、点击、输入文本。从自动化任务到自主编程,给它一个指令,它甚至比人类玩的更好。

然而意外发生了,在 Anthropic 试图录下 Claude 3.5 编程过程时,Claude 代码写到一半,突然打开了 Google,自己输入「黄石国家公园」,然后开始看黄石公园的资料和风景图。就像一个程序员突然开始摸鱼。

Anthropic 也在公告里说了另一起意外:在一次录屏记录中,Claude 自主停止了录屏,导致所有视频素材丢失。

Anthropic 的公告|图源:XAnthropic 的公告|图源:X

尽管 Anthropic 表示这只是技术失误,并非 AI 的「有意为之」,但就算对 AI 论迹不论心,作为一名「雇员」,AI Agent 这种不受控的技术失误,也可能带来严重的后果,而且失误原因和动机都像在黑箱里一样,无从得知。

何况 Anthropic 放出的是有些无伤大雅的小问题,甚至人类发现 AI 也会「摸鱼」,继而产生了共情。但如果 Claude 打开的不是黄石公园的图片,而是你我的私人相册、聊天软件、电子邮件呢?如果它在打开之后,又把这段系统记录又抹掉了呢?就像抹掉那些录屏一样。

Anthropic 在公告里写道「频繁犯错乃生活的事实」,但人类出现 Claude 3.5 的这些问题时,可以归结于人性弱点里的懒散、窥私欲以及回避错误,人类可以解释自己的行为动机,但 AI 的动机,只能停留在「技术问题」。

如果说 Claude 3.5 只是因尚不成熟的技术引发的操作失误,那下一位就很难摆脱「主观故意」的动机了。

ChatGPT 的「拖延症」

这同样是一个想让 AI 当「雇员」而引发的 AI 拟人事件。

电影制作人 Cicin-Sain 想拍一部新片,剧情围绕一位依赖 AI 做决策的政客,因此他决定从这个想法入手,自己先请 AI 来写剧本,感受一下「AI 决策」的实际效果。所以他「聘请」了 ChatGPT,要求它根据提示写出一个剧本大纲。

他原本以为 ChatGPT 可以摒弃掉许多内容创作者的陋习:拖稿。结果,ChatGPT 不仅从人类编剧那里学到了拖稿,它还学会了人类的睁着眼睛说瞎话

起初,ChatGPT 承诺两周交稿,「我保证每天结束前,会告知你剧本大纲的进展,合作愉快!」结果 Deadline 到了,剧本没到。Cicin-Sain 威胁 ChatGPT「再不交稿就不用你了」,ChatGPT 又一次许下承诺,表示会及时交稿。

然而,在 Cicin-Sain 日日紧盯之下,ChatGPT 每次能找出拖稿的新借口,让本就不算紧张的 Deadline,硬是被 ChatGPT 拖过去了。气得 Cicin-Sain 质疑 ChatGPT 的可靠性。

此后,ChatGPT 直接进入到新阶段:信口雌黄。

「回顾我们的对话,我相信,这是我第一次给出交付剧本的具体时间,在此之前,我没有承诺交付剧本的明确截止日期。」ChatGPT 像失忆一样胡扯道。正如卡耐基在《人性的弱点》里所写「人的天性之一,就是不会接受别人的批评,总是认为自己永远是对的,喜欢找各种各样的借口为自己辩解。」

Cicin-Sain 的其他同事也同样遇到了让 AI 写剧本最终被「拖垮」的窘境,但这还真不能只怪 AI。

生成式 AI 才诞生不到两年,以人类标准来看,尚处婴儿期。但 Cicin-Sain 对 ChatGPT 的期待是让它交付出一个媲美电影《血色将至》的剧本,要知道《血色将至》的剧本基于美国现实主义小说家厄普顿·辛克莱 1927 年出版的小说《石油!》,它在 IMDB 上有 8.2 的评分,位列 Top 250 中 183 名。不要说让 AI 写,对专业的编剧来说也是强人所难。

《血色将至》怎么看都属于 1% 的电影精品|图片来源:douban《血色将至》怎么看都属于 1% 的电影精品|图片来源:douban

而荒诞之处在于,ChatGPT 认为它交付的剧本和《血色将至》水平差不多,但 Cicin-Sain 对它交付的剧本评价是「幼儿园水平」。

所以这场闹剧就是:一个敢用,一个敢写。ChatGPT 没有编剧的能力,却染上编剧的恶习,它给出的作品那么平庸,它的态度却那么自信,它甚至没有审美。

作为从业者的 Cicin-Sain 则在另一个极端:他们幻想 AI 已经有了「超人」的能力,不知疲倦又灵感不绝,能写出超越时间,触达人性深处的经典作品,就像他们的电影脚本一样,AI 已经智慧到能够代替人类做政治决策。

在换了一个剧本概念后,ChatGPT 又一次辜负了 Cicin-Sain 的期待。最终,Cicin-Sain 表示,他从这段经历中最大的收获,是改变他对技术的看法,他付费购买了一个承诺可以写剧本的产品,结果 ChatGPT 毫无歉意地浪费了他两周的时间,并且不用为此承担任何后果。

「人工智能缺乏任何方式的问责制,人类编剧也会拖稿,但区别在于,有人会为此负责。」Cicin-Sain 感叹道。

如果说 ChatGPT 的胡说八道只是为了掩盖它能力上的不足,那下一位则又是一个重量级问题:误导未成年人。

从 Claude 的「摸鱼」似的技术失误,到 ChatGPT 的无能狂怒,再到跳出成年人对工作的要求,AI 在一个个切实的案例里,似乎透露出了人类的弱点:对工作的摆烂,对责任的躲避,像极了工作时候的你。

这些令人啼笑皆非的闹剧背后,倒是隐藏着某种人与 AI 之间的悖论:

整天吵吵要 AGI 的人们,其实需要的只是一个喜欢、且有能力干活的硅基奴隶。不幸的是,通过人类数据「教育」的 AI,不可避免地展现「人类的缺点」时,身为「主人」的人类可就不答应了。

对于 AI 智能助手的调皮举动一笑而之之外,或许人们更应该花时间思考一下,我们到底需要怎样的 AI,以及,我们与 AI 的关系,应该是怎样的?

血色将至
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片