□ 锐见
当AI(人工智能)以无比确信的口吻,告诉你一个完全错误的事实,甚至还信誓旦旦地说“如有错误,赔你十万!”。遇到这样的问题,能索赔吗?
图源:人民法院报近日,杭州市互联网法院审结了全国首例因AI“幻觉”引发的侵权纠纷案,判决驳回用户索赔请求。此案原告在使用某AI应用程序查询高校信息时,获得不准确内容,并被AI承诺“若生成内容有误将赔偿10万元”。
该案的核心是:当AI生成的不准确信息误导他人,是否构成侵权?而杭州市互联网法院作出“驳回用户索赔请求”的判决,明确了“AI不是人”这一根本法律定位。
该法院认定,AI(人工智能)不具有民事主体资格,其“承诺”不能视为平台的意思表示,这一认定直击争议要害。
在此案例判决中,该法院进一步明确了归责原则。根据《生成式人工智能服务管理暂行办法》,生成式AI属于“服务”范畴,而非“产品”。因此,本案应适用《中华人民共和国民法典》的一般过错责任原则,而非产品责任的无过错责任原则。这意味着,AI生成不准确信息本身并不构成侵权,必须证明平台存在过错才能追究责任。
最重要的是,该法院审查后认定,被告已完成大模型备案与安全评估,并在应用界面、用户协议等多个层面履行了提示说明义务,因此认定其已尽到合理注意义务,主观上不存在过错。
那么,为什么AI会产生“幻觉”?从技术角度看,AI“幻觉”是大语言模型基于概率生成的固有缺陷,其底层原理是预测下一个词出现的可能性,而非真正理解事实。正如专家所言,大模型的“幻觉”可能正是它保持“创造力”的必要代价。
从法律和产业角度看,如果将AI“幻觉”完全归责于平台,无异于给创新套上“紧箍咒”,抑制技术创新和发展,最终损害的可能将是技术普惠的社会价值。
当然,AI“幻觉”的危害程度,很大程度上取决于应用场景。
清华大学公共管理学院院长朱旭峰认为,如果只是将AI作为聊天工具,“幻觉”问题后果并不严重。
“然而,在医疗健康、金融投资、法律等高风险领域,AI‘幻觉’可能导致严重后果。在这些场景中,法律可能需要区别对待基础模型和模型应用。”中国社会科学院大学互联网法治研究中心主任刘晓春表示,对于高风险领域,可能需要法律设定更清晰的技术标准,要求产业投入更多成本降低“幻觉”的发生。
对公众而言,这起判决更像是一剂“清醒剂”,提醒用户再强大的AI也只是概率模型,而非全知全能的“智能”。就如有的网友所言,“尽信AI,不如无AI。”
毕竟,AI可以一本正经地“胡说八道”,而人们却必须对自己的决策负责。
技术的进步,永远需要法治的护航。未来,唯有坚持发展与安全并重,让平台守好责任边界、用户保持理性认知、法律做好动态适配,才能让AI行稳致远。
敏锐观察 洞见前沿
南京广电·牛咔视频记者:黄星编辑:张力伟
主编:梁娜
制作:南京广电融媒新闻中心
部分内容来源:央视新闻客户端、环球时报
【责任编辑:杨文玥】

VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)
