本想偷懒才用的 AI,没想到 AI 摸起鱼比我还厉害?!

本想偷懒才用的 AI,没想到 AI 摸起鱼比我还厉害?!
2024年12月29日 12:05 网易新闻

真正的「上梁不正下梁歪」。

作者 | Moonshot编辑| 靖宇

生成式 AI 在近两年大杀四方,它们看起来无所不知,有求必应。图灵测试早已不停留在对话上,而是在各项能力上,审视着 AI 能多接近人类,诸如写出的文章几分像人,创作的歌曲有多动人,生成的图片有多拟真。

人类在一次次惊艳里透露着恐慌,恐慌于 AI 距离人类越来越近,恐怖谷的沟壑越来越短。但大众都忽略了 AI 似人的另一面向:缺陷。

我们已知 AI 因为数据收集的问题,会犯许多事实类错误,但倘若它们产生了人性的弱点呢,故意犯错呢?

例如,当你偷懒用 AI 处理工作时,赫然发现,它竟然比你还会「摸鱼」!

倒反天罡!说好的「AI 智能助手」呢!

01

勤奋「摸鱼」的 Claude

10 月底,Anthropic 发布了 Claude 3.5,它是 Anthropic 第一次尝试建立的「AI Agent」产品,既给它指定任何一个目标,它就能自动解决各种问题,期间它会调动各种其他工具,去支撑自己完成任务,许多 AI Agent 的目标也是成为「雇员」一样的角色。

具体在操作上,Claude 3.5 可以自己用电脑,就像人类一样查看屏幕、移动光标、点击、输入文本。从自动化任务到自主编程,给它一个指令,它甚至比人类玩的更好。

然而意外发生了,在 Anthropic 试图录下 Claude 3.5 编程过程时,Claude 代码写到一半,突然打开了 Google,自己输入「黄石国家公园」,然后开始看黄石公园的资料和风景图。就像一个程序员突然开始摸鱼。

Anthropic 也在公告里说了另一起意外:在一次录屏记录中,Claude 自主停止了录屏,导致所有视频素材丢失。

Anthropic的公告|图源:XAnthropic的公告|图源:X

尽管 Anthropic 表示这只是技术失误,并非 AI 的「有意为之」,但就算对 AI 论迹不论心,作为一名「雇员」,AI Agent 这种不受控的技术失误,也可能带来严重的后果,而且失误原因和动机都像在黑箱里一样,无从得知。

何况 Anthropic 放出的是有些无伤大雅的小问题,甚至人类发现 AI 也会「摸鱼」,继而产生了共情。但如果 Claude 打开的不是黄石公园的图片,而是你我的私人相册、聊天软件、电子邮件呢?如果它在打开之后,又把这段系统记录又抹掉了呢?就像抹掉那些录屏一样。

Anthropic 在公告里写道「频繁犯错乃生活的事实」,但人类出现 Claude 3.5 的这些问题时,可以归结于人性弱点里的懒散、窥私欲以及回避错误,人类可以解释自己的行为动机,但 AI 的动机,只能停留在「技术问题」。

如果说 Claude 3.5 只是因尚不成熟的技术引发的操作失误,那下一位就很难摆脱「主观故意」的动机了。

02

ChatGPT 的「拖延症」

这同样是一个想让 AI 当「雇员」而引发的 AI 拟人事件。

电影制作人 Cicin-Sain 想拍一部新片,剧情围绕一位依赖 AI 做决策的政客,因此他决定从这个想法入手,自己先请 AI 来写剧本,感受一下「AI 决策」的实际效果。所以他「聘请」了 ChatGPT,要求它根据提示写出一个剧本大纲。

他原本以为 ChatGPT 可以摒弃掉许多内容创作者的陋习:拖稿。结果,ChatGPT 不仅从人类编剧那里学到了拖稿,它还学会了人类的睁着眼睛说瞎话

起初,ChatGPT 承诺两周交稿,「我保证每天结束前,会告知你剧本大纲的进展,合作愉快!」结果 Deadline 到了,剧本没到。Cicin-Sain 威胁 ChatGPT「再不交稿就不用你了」,ChatGPT 又一次许下承诺,表示会及时交稿。

然而,在 Cicin-Sain 日日紧盯之下,ChatGPT 每次能找出拖稿的新借口,让本就不算紧张的 Deadline,硬是被 ChatGPT 拖过去了。气得 Cicin-Sain 质疑 ChatGPT 的可靠性。

此后,ChatGPT 直接进入到新阶段:信口雌黄。

「回顾我们的对话,我相信,这是我第一次给出交付剧本的具体时间,在此之前,我没有承诺交付剧本的明确截止日期。」ChatGPT 像失忆一样胡扯道。正如卡耐基在《人性的弱点》里所写「人的天性之一,就是不会接受别人的批评,总是认为自己永远是对的,喜欢找各种各样的借口为自己辩解。」

Cicin-Sain 的其他同事也同样遇到了让 AI 写剧本最终被「拖垮」的窘境,但这还真不能只怪 AI。

生成式 AI 才诞生不到两年,以人类标准来看,尚处婴儿期。但 Cicin-Sain 对 ChatGPT 的期待是让它交付出一个媲美电影《血色将至》的剧本,要知道《血色将至》的剧本基于美国现实主义小说家厄普顿·辛克莱 1927 年出版的小说《石油!》,它在 IMDB 上有 8.2 的评分,位列 Top 250 中 183 名。不要说让 AI 写,对专业的编剧来说也是强人所难。

《血色将至》怎么看都属于1%的电影精品|图片来源:douban《血色将至》怎么看都属于1%的电影精品|图片来源:douban

而荒诞之处在于,ChatGPT 认为它交付的剧本和《血色将至》水平差不多,但 Cicin-Sain 对它交付的剧本评价是「幼儿园水平」。

所以这场闹剧就是:一个敢用,一个敢写。ChatGPT 没有编剧的能力,却染上编剧的恶习,它给出的作品那么平庸,它的态度却那么自信,它甚至没有审美。

作为从业者的 Cicin-Sain 则在另一个极端:他们幻想 AI 已经有了「超人」的能力,不知疲倦又灵感不绝,能写出超越时间,触达人性深处的经典作品,就像他们的电影脚本一样,AI 已经智慧到能够代替人类做政治决策。

在换了一个剧本概念后,ChatGPT 又一次辜负了 Cicin-Sain 的期待。最终,Cicin-Sain 表示,他从这段经历中最大的收获,是改变他对技术的看法,他付费购买了一个承诺可以写剧本的产品,结果 ChatGPT 毫无歉意地浪费了他两周的时间,并且不用为此承担任何后果。

「人工智能缺乏任何方式的问责制,人类编剧也会拖稿,但区别在于,有人会为此负责。」Cicin-Sain 感叹道。

如果说 ChatGPT 的胡说八道只是为了掩盖它能力上的不足,那下一位则又是一个重量级问题:误导未成年人。

从 Claude 的「摸鱼」似的技术失误,到 ChatGPT 的无能狂怒,再到跳出成年人对工作的要求,AI 在一个个切实的案例里,似乎透露出了人类的弱点:对工作的摆烂,对责任的躲避,像极了工作时候的你。

这些令人啼笑皆非的闹剧背后,倒是隐藏着某种人与 AI 之间的悖论:

整天吵吵要 AGI 的人们,其实需要的只是一个喜欢、且有能力干活的硅基奴隶。不幸的是,通过人类数据「教育」的 AI,不可避免地展现「人类的缺点」时,身为「主人」的人类可就不答应了。

对于 AI 智能助手的调皮举动一笑而之之外,或许人们更应该花时间思考一下,我们到底需要怎样的 AI,以及,我们与 AI 的关系,应该是怎样的?

*头图来源:Futurism

本文为极客公园原创文章,转载请联系极客君微信 geekparkGO

极客一问

你认为我们到底需要怎样的 AI?

我们与AI 的关系,应该是怎样的?

马斯克:永远不要信愤世嫉俗的人,他们看谁都是坏人。

点赞关注极客公园视频号

海量资讯、精准解读,尽在新浪财经APP

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 01-06 惠通科技 301601 --
  • 01-06 思看科技 688583 --
  • 12-30 赛分科技 688758 4.32
  • 12-30 钧崴电子 301458 10.4
  • 12-24 星图测控 920116 6.92
  • 新浪首页 语音播报 相关新闻 返回顶部