夜读丨当人工智能开始“讲故事”

夜读丨当人工智能开始“讲故事”
2025年01月02日 21:19 澎湃新闻

你有没有发现,今天的互联网正在变得“真假难辨”?而未来互联网的内容可能是由机器人编写的,这是好事还是坏事?

随着能力的提升,人工智能可以开始能“生成”整个网络世界的内容。比如,OpenAI 发布的DALL-E,使用120亿参数版本的GPT-3来解释自然语言输入,并生成相应的图像,它不仅可以创建现实中存在的东西,还可以创建现实中不存在的物体的图像。随着OpenAI等公司在大众市场上投放其产品,AI已经能够创造逼真图像、模仿音频和书写令人信服的人类文字的,而且这些技术现在正越来越多地被用于创建西方网络平台上的政治内容。

在某些方面,新创建的内容与多年来频繁出现的篡改图片和视频、误导性信息以及机器人电话并无太大区别。然而,以前的虚假信息活动总是面临着一系列的进入障碍——为社交媒体创建个性化的信息非常耗时,对图片和视频进行Photoshop处理也是如此。

但现在,生成式人工智能让任何拥有基本数字技能的人都能制作这类内容,而遏制它们的防护栏或有效监管却十分有限。生成式人工智能的可供性和可及性,正在降低虚假信息活动的进入门槛。

直到最近,很少有人关注人工智能的潜在恶意应用:在人工智能范围狭窄、必须为每种应用专门打造的年代里,需要整个的研究团队来开发用于恶意应用的人工智能工具,因为成本太大,并没有为恶意行为者提供多少“唾手可得”的应用。

如今,这一切都在改变。随着人工智能变得更加灵活和通用,人工智能的构建目的与其潜在下游应用之间的联系几乎消失了。大型语言模型可以被训练来执行有价值的任务,比如为写作提供支持、在不同语言之间转译或编写更好的代码。可是,一个能写文章的系统也能写假新闻,或者为类人文本生成机器人大军提供动力。

在21世纪第二个十年的末期,我们已经见证了社交媒体的分发革命所引发的虚假信息洪流;机器人(bot)、“喷子水军”(troll farms)和微定向(microtargeting)技术,会根据特定受众群体的个人特征和行为向其提供定制内容。2018 年的剑桥分析(Cambridge Analytica)丑闻(指8700万脸书用户数据被不当泄露给政治咨询公司剑桥分析,用于在2016年总统大选时支持美国总统特朗普)与这些现象尤其相关,它涉嫌未经授权收集数百万脸书用户的个人数据,以便为了政治目的而实现操纵舆论。

眼下生成式人工智能的出现,则更为直接,可以通过实现自动化内容生产的方式,大大增加操纵舆论的风险。

比如,之前很多人使用网络自动化机器人来让他们的观点看起来更受欢迎,热度更高,营造互动频繁的假象。比如,在一些社交平台上,许多账户会在同一时间内发表完全相同的内容,因为用的就是自动化机器人。不过在之前的技术条件之下,为每个虚假账户生成唯一的信息既昂贵又耗时,但是现在借助生成式人工智能,可以毫不费力地生成高度个性化的内容,并使之广播。

又比如,你利用外国的内容农场(content farm),甚至毋需掌握某一门流利外语,就能用目标受众的语言写出一篇读起来十分流畅的文章。你需要做的只是,让一个语言模型为你“吐”出这篇文章,其中的语法和词汇都与说本族语的人相差无几。

已有专家预计,从2025 年到 2030 年,99%以上的互联网内容将由人工智能生成。自动化创建内容的发展将彻底改变互联网的面貌,并使人们在海量内容中更难以分辨真假。

人工智能增强的虚假信息,会给整个互联网带来生存性的威胁。新的人工智能功能正迅速增加虚假信息操作的数量、速度和病毒毒性。随着这些功能的不断改进和扩散,它们进一步威胁到对社会治理的信任,并刺激受众怀疑公共生活中真相的可能性。

我们正在面临一个面目全非的互联网,20多年前那句“在互联网上你不知道对面的是条狗”,变成了某种诅咒,TA甚至不是一条狗,只是机器,被人为操纵的机器——但愿这只是一种杞人忧天。

海量资讯、精准解读,尽在新浪财经APP
人工智能 机器人

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 01-13 超研股份 301602 --
  • 01-13 兴福电子 688545 --
  • 01-06 惠通科技 301601 --
  • 01-06 思看科技 688583 33.46
  • 12-30 钧崴电子 301458 10.4
  • 新浪首页 语音播报 相关新闻 返回顶部