格隆汇7月25日|据IT之家,今年2月,谷歌宣布与Reddit达成一项新协议,Reddit数据将用于训练谷歌的AI模型,并在谷歌搜索结果中着重显示Reddit结果。而最新消息称,Reddit禁止其他搜索引擎检索其网站内容,Reddit已更新其robots.txt 文件(网站与爬虫的协议文件),阻止所有机器人抓取网站的任何内容。该文件在今年6月首次更新,Reddit解释cheng ,这一更改是由于抓取Reddit内容的商业实体明显增多并且内容被滥用。
Reddit发言人Tim Rathschmidt在一份声明中表示:“这与我们最近与谷歌的合作完全无关。我们一直在与多个搜索引擎进行讨论,但无法与所有人达成协议,因为有些人无法或不愿意就他们使用Reddit内容(包括他们对AI训练的使用_作出可执行的承诺。”
海量资讯、精准解读,尽在新浪财经APP
VIP课程推荐
加载中...
APP专享直播
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)