转自:金融界
本文源自:金融界AI电报
社交媒体平台Reddit表示,将更新该平台使用的一项网络标准,以阻止从其网站上进行自动数据搜刮,此前有报道称人工智能初创公司绕过该规则为其系统收集内容。此举正值人工智能公司被指控剽窃出版商的内容来创建人工智能生成的摘要而不注明出处或征求许可之际。Reddit表示将更新《机器人排除协议》(Robots Exclusion Protocol),也被称为爬虫协议,是一种网站与网络爬虫之间的通信协议。通过这个协议,网站管理员可以指定哪些页面是允许爬虫抓取的,哪些页面是不允许的。
海量资讯、精准解读,尽在新浪财经APP
VIP课程推荐
加载中...
APP专享直播
热门推荐
收起
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)