*“礼遇”。
一觉醒来,OpenAI和Claude母公司都对DeepSeek出手了。
据《金融时报》消息,OpenAI表示已经发现证据,证明DeepSeek利用他们的模型进行训练,这涉嫌侵犯知识产权。
具体来说,他们发现了DeepSeek“蒸馏”OpenAI模型的迹象。即使用更大模型的输出来提高较小模型的性能,从而以较低成本在特定任务上取得类似结果。
微软也开始调查DeepSeek是否使用OpenAI的API。

消息一出,*迎来的是一波嘲讽。
纽约大学教授马库斯率先开喷:

知名技术媒体404 Media创始人及主编Jason也直接在文章里贴脸开大,暗讽OpenAI只许州官放火。

而另一边,Claude母公司Anthropic创始人Dario Amodei洋洋洒洒发了一篇长文大谈DeepSeek。
他表示,说DeepSeek构成威胁太夸张了,“也就是我们7-10个月前的水准”,Claude 3.5 Sonnet在许多内部和外部评估中依旧遥遥*。

好家伙,为了围剿DeepSeek,竞对OpenAI和Anthropic罕见都罕见联手了。
相比之下,微软的做法就耐人寻味了许多。
就在指控DeepSeek涉嫌侵权之后几个小时后,微软的AI平台上接入了DeepSeek模型。

网友:俗话说,否认是接受的*步。

AI领域常见技术,但违反OpenAI条款
各方消息汇总来看,微软和OpenAI对DeepSeek的质疑还处于调查中。
根据微软工作人员的说法,DeepSeek可能在去年秋天调用了OpenAI的API,这可能导致数据泄露。
按照OpenAI的服务条款规定,任何人都可以注册使用OpenAI的API,但是不能使用输出数据训练对OpenAI造成竞争威胁的模型。

OpenAI告诉《金融时报》,他们发现了一些模型蒸馏的证据,他们怀疑这是DeepSeek的所作所为。
目前,OpenAI拒绝进一步置评,也不愿提供证据细节。
那么不妨先来看看,引发争议的模型蒸馏是什么。
它是一种模型压缩技术,通过将一个复杂的、计算开销大的大模型(称为教师模型)的知识“蒸馏”到一个更小、更高效的模型(称为学生模型)。
这个过程的核心目标是让学生模型在轻量化的同时,尽量保留教师模型的性能。
在诺奖得主、深度学习之父Hinton的论文《Distilling the Knowledge in a Neural Network》中指出:

比如Together AI前段时间的工作,就是把Llama 3蒸馏到Mamba,实现推理速度最高提升1.6倍,性能还更强。

IBM对知识蒸馏的文章中也提到,大多数情况下最*的LLM对计算、成本提出太高要求……知识蒸馏已经成为一种重要手段,能将大模型的先进能力移植到更小的(通常是)开源模型中。因此,它已经成为生成式AI普惠化的一个重要工具。

在行业内,一些开源模型的服务条款允许蒸馏。比如Llama,DeepSeek此前也在论文中表示使用了Llama。
而且关键是,DeepSeek R1并非只是简单蒸馏模型,OpenAI首席科学家Mark Chen表示:

同时他也认可了DeepSeek在成本控制上的工作,并提到蒸馏技术的趋势,表示OpenAI也在积极探索模型压缩和优化技术,降低成本。

所以总结一下,模型蒸馏技术在学术界、工业界都非常普遍且被认可,但是违反OpenAI的服务条款。
这河狸吗?不知道。
但问题是,OpenAI自己本身在合规性上也大有问题。
(众所周知)OpenAI训练模型把互联网上的数据扒了个干净,这其中除了免费公开的知识内容外,还包含大量有版权的文章作品。
2023年12月,《纽约时报》以侵犯知识产权为由,将微软OpenAI一起告上法庭。目前这个官司还没有最终判定结果,OpenAI这一年时间里就自己的行为向法院进行多次解释。
包括但不限于:
1、使用公开可获得的互联网资料训练AI模型是合理的,这在AI领域内有诸多先例,我们认为这对创作者是公平的,对于创新是必要的。
2、长期以来,版权著作被非商业性使用(比如训练大模型)是受到合理保护的。
3、大语言模型的关键是Scaling,这意味着任何单独被盗的内容都不足以支撑训练出一个大语言模型,这正是OpenAI模型为何*。
也就是说,OpenAI本身都在违规使用《纽约时报》的数据训练闭源、商业化的大模型。现在他们要以违规为由,调查打造系列开源模型的DeepSeek。
再退一步,OpenAI如今的成就也是建立在谷歌的基础上(Transformer架构由谷歌提出),谷歌的成就是站立在更早期的学术研究基础上。
404 Media表示,这其实是人工智能领域发展的基本逻辑。

“DeepSeek模型只在成本上*”
就在OpenAI挑起矛盾的同时,Anthropic也下场了。
创始人Dario Amodei在个人博客中表达了对DeepSeek的看法。
他表示并没有把DeepSeek看做是竞争对手,认为DS最新模型的水平和他们7-10个月前相当,只是成本大幅降低。
同时他还认为,DeepSeek整个公司的成本投入(非单个模型训练成本)和Anthropic的AI实验室差不多。
奥特曼几乎保持了同样的口径。
他承认DeepSeek R1让人印象深刻(尤其是成本),但OpenAI“很明显会带来更好的模型”。

这也是他的常规操作了,之前V3发布时,他就阴阳怪气说:相对而言,复制确定有用的东西是很容易的。

那么DeepSeek R1的价值究竟几何?
分析师郭明錤最新博客给出参考:
DeepSeek R1的出现,让两个趋势更加值得关注——虽然没有R1这两个趋势也依然存在,但R1加速了它们的发生。
一是在Scaling Law放缓的情况下,AI算力仍可透过优化训练方式持续成长,并有利挖掘新应用。
过去1-2年,投资者对AI服务器供应链的投资逻辑,主要基于AI服务器的出货量在Scaling Law依然有效的情况下可持续增长。
但Scaling law的边际效益开始逐渐递减,市场开始关注以DeepSeek为代表的通过Scaling law以外的方式显著提升模型效益的路径。
第二个趋势是API/Token价格的显著下滑,有利于加速AI应用的多元化。
郭明錤认为,目前从生成式AI趋势中获利的方式,主要还是“卖铲子”和降低成本,而不是创造新业务或提升既有业务的附加值。
而DeepSeek-R1的定价策略,会带动生成式AI的整体使用成本下降,这有助于增加AI算力需求,并且可以降低投资人对AI投资能否获利的疑虑。
不过,使用量的提升程度能否抵消价格降低带来的影响,仍然有待观察。
同时,郭明錤表示,只有大量部署者才会遇到Scaling law边际效益的放缓,因此当边际效益再度加速时,英伟达将依然是赢家。
参考链接:
[1]https://www.404media.co/openai-furious-deepseek-might-have-stolen-all-the-data-openai-stole-from-us/
[2]https://www.ft.com/content/a0dfedd1-5255-4fa9-8ccc-1fe01de87ea6?accessToken=zwAGLNJX-fBAkdOg3-3RUlVPqdOMzB_gHeh-pg.MEYCIQCGjo04z0mtOsKbDspQLq2BMXyw8SbQnlYePOuqiqr6QgIhAInK67eBkYuZS-77ljnP-y--EJdN1wwRQ8GIR8sKMFgE&sharetype=gift&token=1eebbaa7-a4e6-4251-b665-c2f2562b38e4
[3]https://x.com/GaryMarcus/status/1884601187271581941
[4]https://mingchikuo.craft.me/g8mybRumSTYD3J
【本文由投资界合作伙伴微信公众号:量子位授权发布,本平台仅提供信息存储服务。】如有任何疑问,请联系(editor@zero2ipo.com.cn)投资界处理。


APP专享直播
热门推荐
最低500万美元,特朗普推出移民“金卡”,取代EB-5签证 收起最低500万美元,特朗普推出移民“金卡”,取代EB-5签证
- 2025年02月26日
- 00:02
- APP专享
- 扒圈小记
10,712
俄会展基金会:乌克兰大部分最具价值的矿藏已归入俄罗斯
- 2025年02月25日
- 08:47
- APP专享
- 扒圈小记
3,414
美国“政府效率部”21名工作人员辞职 称不愿帮助削减政府规模
- 2025年02月26日
- 01:35
- APP专享
- 北京时间
2,930

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
投资研报 扫码订阅
股市直播
-
趋势领涨今天 10:10:44
【中证金融官微缩减两融相关数据披露范围 不再披露两融数据】财联社2月26日电,中证金融近日调整了官方微信号的数据披露范围。财联社记者注意到,公开数据由此前每日披露前三个交易日的“转融通和融资融券业务每日数据”,“瘦身”为仅披露“转融通业务每日数据”,也即不再披露融资融券数据。具体来看,此前披露数据包括“两融交易金额、融资买入额、融券卖出额、两融余额、融资余额、融券余额、两融担保资产总额以及平均维持担保比例”等8项数据,瘦身后,变为仅披露“转融资交易金额、转融资余额、转融券余额以及转融通余额”等4项数据。 -
趋势领涨今天 10:09:52
【中证金融官微缩减两融相关数据披露范围 不再披露两融数据】中证金融近日调整了官方微信号的数据披露范围。财联社记者注意到,公开数据由此前每日披露前三个交易日的“转融通和融资融券业务每日数据”,“瘦身”为仅披露“转融通业务每日数据”,也即不再披露融资融券数据。具体来看,此前披露数据包括“两融交易金额、融资买入额、融券卖出额、两融余额、融资余额、融券余额、两融担保资产总额以及平均维持担保比例”等8项数据,瘦身后,变为仅披露“转融资交易金额、转融资余额、转融券余额以及转融通余额”等4项数据。 -
数字江恩今天 09:45:36
看5分钟图,本人在vip课堂其实判断这里是70点量级的回踩,3316支撑。实际3384-3337还不到50个点,强的有点意外。无论如何,今日突破了图上的蓝色轮峰线,结构就有改变了。明天上午是分辨的关键时间,关注3356区间是否支撑,极限3350。若不再跌破3356区间,那么小震荡之后,就算3384的回踩完成;反之,若明天午盘附近跌破3356区间,那也不过是按照原来的预期,跌破3337也空间不大了。明天上午+午盘来分辨即可。【更多独家重磅股市观点请点击】 -
数字江恩今天 09:45:26
本人早就判断3140的上涨没有结束,但没想到宽幅震荡的幅度这么小,也算是意外的强势了。今日机器人(sz300024)板块冲高回落,但新能源发挥稳定,半导体芯片也表现不错。 -
数字江恩今天 09:45:21
A股两市今日成交7479 + 11905 = 19384 亿人民币,相对昨日略微缩量。大盘今天跳空高开高走,反包了昨日的阴线,收涨34个点。个股方面,80%的个股收红上涨。 -
数字江恩今天 09:45:15
关注3350支撑 -
趋势领涨今天 09:28:19
【中金银河(sz300619)合并传闻再制造涨停板 公司无奈:无法回应】午后一则消息迅速在金融圈刷屏,消息称,“中金和银河证券拟通过换股方式合并,预计将于未来几周内宣布”。面对这一重磅消息传闻,记者第一时间向中金、银河两券商进行采访核实,都无法对此做出任何回应,原因也很简单:没有任何相关消息或通知,也没有办法给出回应。事实上,两家券商此前就多次传出合并传闻,每一次都引发市场的广泛关注,但两家公司均予以否认。只能说,这是高层的决策,员工当然不知道,所以,无法回应是正常的! -
北京红竹今天 08:22:20
3、成交额健康全天成交额1.94万亿,上涨4250家,下跌1054家,涨停107家,跌停3家。目前还是正常的买卖成交额,什么时候成交额继续放大,券商和互金大涨,那时候的成交额会有问题。暂时看没大问题。滞涨品种继续干就好。 -
北京红竹今天 08:22:16
2、买在分歧,卖在一致上午人形机器人(sz300024)大涨,上涨一致了,对于这个主线,我还是强调不宜追高,滞涨品种到冰点在低吸,大涨就卖出,不格局了。它的防守线昨天就出现了,并且是非常标准的五分钟级别2个中枢的上涨。DS大方向没结束,但第一波也是末端了,防守线也在五分钟级别三买的位置,当下还是可以交易的。规避高位的,低吸滞涨的,就这么操作就好,只是别格局,一旦跌破防守线立刻走人,别犹豫。目前防守线已经明确,那么策略上还是不变,将仓位降低至半仓,等待客观信号的跌破。 -
北京红竹今天 08:22:13
1、风险是涨出来的最近脑子迷迷糊糊的,睡眠也足够,每天都是8小时睡眠,早起锻炼一个小时,中午还能眯一会,就是经常干一些迷迷糊糊的事。昨晚直播正准备聊,直接点了结束键,中午的午报,看到是夜报的账号,直接点发布,晚上只能用午报发夜报了。生活上迷糊,交易上不能迷糊。目前几个指数都有标准了,风险是涨出来的。基本结构都完成了,至于什么时候上涨结束,看信号就好了。恒生科技指数再创新高,这一波妥妥的大肉,防守线5538点,跌破反弹结束,不跌破反弹还可以继续。波动比较大的ETF,我比较喜欢恒生科技和科创50,1月初和大家聊恒生科技ETF是当下最有性价比的一只ETF,今后它也是。因为它是先行者,只要指数大方向是向上的,它的力度和幅度都会大于沪指。这次如果错过的,那就错了,等下次日线级别回落段出现之后吧。科创50也新高了,防守线在1079点,不破反弹继续,跌破反弹结束。沪指也出现防守线了,点位在3337点,跌破反弹结束,不跌破反弹继续。