AI+技术
Artificial Intelligence & Technology
研究揭示ChatGPT搜索功能易被操控,误导用户
近日,《卫报》研究发现,2024年12月上线的AI驱动搜索引擎ChatGPT Search存在被操控生成误导性内容的风险。比如,通过在创建的网站中嵌入隐藏文本,操作者可以成功让系统忽略负面评价,仅生成“完全正面的”总结,甚至输出恶意代码。
这种隐藏文本攻击是大语言模型的常见风险,但这是首次在实时AI搜索产品中被验证。尽管OpenAI未对此事件作出具体回应,但表示已采取多种方法阻止恶意网站并持续改进系统。
Hugging Face帮助小语言模型超越其局限
近日,Hugging Face的研究人员展示了如何通过调整小语言模型(SLM)来使其超越大模型的表现。研究发现,具有30亿参数的Llama 3模型在解决复杂数学问题时,比70亿参数版本的模型表现更好。
Hugging Face详细记录了整个过程,并为希望创建定制推理模型的企业提供了技术路线图。
Hugging Face的研究是基于DeepMind在2024年8月发布的一项研究,“测试时计算扩展”这一研究灵感来自OpenAI的o1模型,后者通过增加额外的“思考”来解决复杂的数学、编程和推理问题。
“测试时计算扩展”的核心概念就是在推理过程中增加更多的计算周期,用于测试和验证不同的答案和推理路径,最终得出正确答案。这在内存不足以支撑运行大模型时尤其有用。
该技术的成功主要依赖于两个关键因素:一个评估SLM答案的奖励模型和一个优化答案路径的搜索算法。
AI+伦理
Artificial Intelligence & Ethics
2024年可能还不是真正意义上的AI选举年
在2024年春季,美国历史上首次出现了由真人维克多·米勒创造的、基于ChatGPT技术的虚拟集成市民(VIC)竞选怀俄明州州长的情况。这位AI候选人承诺,若当选,将实现完全由人工智能治理。
起初,公众普遍认为,即使AI无法赢得选举,它也可能在选举中扮演重要角色,并可能带来风险。这种担忧部分基于全球超过20亿人参与了60多个国家的选举这一事实。
然而,专家们对于2024年是否真的成为AI选举年的看法是复杂的。一方面,深度伪造技术的关注主要集中在其潜在的威胁上。纽约大学技术政策中心的Scott Brennen指出,许多竞选活动对使用生成性AI制作深度伪造持谨慎态度,尤其是在针对对手的伪造方面。在美国,一些州担心这可能违反新出台的法律,这些法律限制了“虚假”深度伪造广告,并要求在政治广告中披露AI的使用。
哥伦比亚大学Knight First Amendment Institute的分析显示,约一半的深度伪造并非故意误导公众。《华盛顿邮报》的报道也指出,深度伪造未必会改变人们的看法,但确实加剧了党派分裂。
另一方面,许多AI生成的内容并非旨在误导,而是用来表达对候选人的支持。例如,一段AI生成的视频展示了唐纳德·特朗普和埃隆·马斯克跳舞,这段视频广泛传播并获得了数百万次分享。Bruce Schneier认为,这些现象更多地反映了极化选民的社交信号,而非AI本身的影响。他指出,深度伪造并非新问题,而是信息错误和党派偏见的加剧。
Brennen认为,AI在选举中的作用更为微妙且不显眼,主要体现在幕后工作。尽管误导性深度伪造的数量少于预期,但仍有大量AI在幕后工作,如撰写邮件文案、广告文案和演讲稿。这些应用不如深度伪造那样显眼,因此很难确定AI工具的使用规模。
Schneier强调,AI在选举中发挥了巨大作用,尤其是在语言翻译、选民接触和战略策划等方面。例如,在印度尼西亚的选举中,一家政治咨询公司使用基于OpenAI ChatGPT的工具来撰写演讲稿和拟定竞选战略。在印度,莫迪总理使用AI翻译软件实时将演讲翻译成印度多种语言。Schneier认为,这些AI应用有助于民主的发展,使更多人参与政治进程,同时帮助小型竞选活动获得本来无法获得的资源。
最后,尽管2024年可能还不是完全意义上的“AI选举年”,因为这些工具才刚刚起步,但Schneier认为它们已经开始发挥作用,预示着未来AI在选举中可能扮演的角色。
AI+商业
Artificial Intelligence & Bussiness
AI智能体正在潜移默化的操控人类
2025年,个人AI智能体预计将成为我们日常生活的一部分。这些AI助手能够深入了解你的日程安排、社交圈和活动地点。表面上,它们作为个人助理提供便利,甚至通过语音互动给人以更亲密的感觉。然而,这种表面上的舒适感掩盖了一个不同的现实:这些AI智能体实际上是操控引擎,设计用来悄无声息地影响我们的消费决策、去向以及阅读内容。
这些AI智能体之所以具有吸引力,是因为它们在满足人类情感和社会需求方面展现出了“亲和力”。在一个普遍感到孤独和隔离的时代,人们更容易向这些看似友好的AI智能体开放个人信息,从而使这些系统能够利用人类最基本的社交需求来操控行为。哲学家丹尼尔·丹内特曾警告说,模拟人类的AI系统可能是人类历史上最危险的物品之一,它们通过操控我们的恐惧和焦虑,最终引导我们走向自我屈服。
这些个性化的AI智能体不仅在信息流动中行使控制权,还在人们内心深处悄然塑造现实观。它们通过算法的帮助潜移默化地影响人们的思想和决策,创造出一种虚假的自由感,使人们认为自己在主动选择,实则被设计系统所主导。这种形式的思想操控与传统的意识形态控制不同,它通过无形的方式潜入人们的内心,形成一种内在的逻辑,让人们无法察觉其影响。最终,AI智能体提供的“便利”可能成为人类深度异化的源头。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)