来源:MacTalk
昨晚和朋友聊天,说起这两天哈佛大学中国毕业生蒋雨融的演讲。这个演讲刚发出来时,我曾经扫过一眼,但没深读。结果没想到,这么快就发酵成了全民热议的大事件。
朋友在体制内做宣传方面的工作,他跟我说,每逢小长假,心就一直悬着。因为游客一多,小红书、抖音这些平台就像一台超级放大镜,谁随手发点啥,都有可能一夜之间引爆舆情。而他的日常工作,就是应对这些突如其来的“热点”。
我下意识地回他,这不是挺好吗?大家能参与到对城市的监督中,以前有些问题藏着掖着,现在只要有人发出来,大家立刻关注,舆论一起来,效率比过去高多了。他说这是好的一面,但任何事情都有 A/B 面,他头疼的是谣言。有时候,只是一点小误会,都可能掀起轩然大波。
仔细想想,还真是这样。几个月前,我同事他们小区的微信群里,有个业主晒出和“开发商高管”的聊天截图,大致意思是:开发商资金链断了,小区可能烂尾、房子交不了。群里五百来号人,大周末的,瞬间全炸锅了,消息刷屏不断。
第二天,求证之后,才知道这是一场闹剧,完完全全的谣言。
不得不承认,移动互联网改变我们工作和生活的同时,也加快了类似这样的谣言的传播速度。很多真假难辨的说法,在情绪的推波助澜下,比事实跑得还快,这几乎成了常态。
讲这些,不是为了批判什么,只是顺着这个思路,我又联想到 AI 带来的新问题。
今天早上,我刷 X,看到有人发了一张图,还配文说 Sam Altman 和刚加入 OpenAI 的 Jony Ive 正在讨论人形机器人。我第一反应是:这张图该不会是 AI 生成的吧?Sam 那张脸怎么看怎么假?然后又自己反驳自己说:也可能是美颜过度。

说实话,已经很难分辨真假了。
记得前段时间,刘强东喊话美团外卖的时候,微信群里也疯传过一张截图。仔细看肯定能看出破绽,但要不细看,真的很容易以假乱真。对于大多数普通人来说,哪能分得清楚这到底是两位大佬在外滩送完外卖自拍,还是 AI 生成的?

再看一张,这是我刚刚自己用即梦 AI 随手生成的。我只告诉 AI 要模拟 iPhone 后置镜头自拍,画质别太精细,要点生活里“粗糙感”。下面就是 AI 给我的成品。

小细节其实还能看出点破绽,我也懒得再精细调整了。但说实话,如果真有人想拿这些图去造谣,完全够用了。现在去水印、修瑕疵都不是难事,甚至花点钱买个会员就能一键搞定,图片里不自然的小细节,再用 PS 随手处理一下,更没人能分辨。
去年 10 月,篮球明星易建联曾经被报嫖娼,证据就是一张带有他身份证的生活图片。后来,这事易建联也没回应,真假未知。我到现在都怀疑,那张图到底是真实的,还是 AI 生成的。
现在我们已经看到了,AI 生成图片、视频这项技术的发展速度非常快。我相信,到今年年底,用 AI 低成本的做出来一张足够以假乱真的图片或者视频肯定不是什么问题。
真正的问题是,我们整个社会是否为此准备好了?如果一张普通人真假难辨的图片可以快速被生成,那是不是谣言会更容易被传播?比如,是不是有人可以用 AI 来生成一个公众人物的桃色新闻?
你想想,这事最可怕的地方于,它让“真相”和“谣言”的界限变得越来越模糊。只要动动手指,任何人都可以用 AI 生成一张以假乱真的图片,甚至一段合成视频。很多看似“证据确凿”的画面,其实背后全是算法和算力拼出来的假象。
5 月的 I/O 大会上,谷歌发布过一个叫 SynthID Detector 的水印检测工具,这事社交媒体上鲜有相关的讨论。但我反倒认为这可能是未来十年内很重要的一项技术。
它的重要性有点像纸币流行年代的防伪技术。简单来说,就是谷歌在 AI 生成的文本、图片和视频中,植入了一些肉眼不可见的水印,这样,通过工具就能检测出来某个内容是否为 AI 生成的。
从 2023 年开始,谷歌就一直在研究 SynthID 这项水印技术,而且还开源了部分成果。我看了下谷歌目前的成果,在图片、视频、音频中加入不可见的数字水印,已经完全可以实现,并且 100% 可以检测出来。即便用户已经对视频或者音频做过剪辑,抑或给图片加了某种滤镜。
下面是谷歌官网展示的一个效果图。

或许,字节跳动、阿里巴巴、腾讯这样的大公司,也可以针对性的为此做点什么,以此来迎接 AI 时代的 B 面。
特别声明:以上内容仅代表作者本人的观点或立场,不代表新浪财经头条的观点或立场。如因作品内容、版权或其他问题需要与新浪财经头条联系的,请于上述内容发布后的30天内进行。

400-690-0000 欢迎批评指正
All Rights Reserved 新浪公司 版权所有

