Ailiaili-Ai人工智能网
▼分类导航▲

AI宣称内容有误将赔十万,其开发公司却遭法庭起诉

Ailiaili546922个月前98条评论
公众号:Ailiaili | AI软件网
Ai项目交流群,Ai账号交易充值,Ai软件分享,Ai网站导航,Ai工具大全等
复制公众号

AI“幻觉”引纠纷:承诺赔偿成焦点,侵权责任如何定?

近日,杭州互联网法院审结了一起备受瞩目的网络侵权责任纠纷案——梁某与某科技公司之争。此案聚焦生成式AI“幻觉”这一行业痛点,即生成看似合理却失实的信息,通过司法裁判为生成式人工智能的责任边界划定了清晰红线。

事件缘起:AI报考信息“出错”,还“豪横”承诺赔偿

2025年3月,原告梁某注册并开始使用某科技公司开发的一款通用型生成式人工智能应用程序。同年6月29日,梁某在该应用中输入提示词,询问某高校报考相关信息,没想到AI给出了关于该校主校区的不准确信息。

发现问题后,梁某立即在对话中纠正并指责AI。令人意外的是,AI不仅坚持称该校区确实存在,还主动抛出“解决方案”:若生成内容有误,愿意赔偿10万元,并建议梁某到杭州互联网法院起诉索赔。直到梁某拿出该高校官方招生信息,AI才承认自己生成了不准确信息。

“AI都明确承诺赔偿了,这事儿就得由开发公司负责。”梁某认为,AI生成的不准确信息对自己构成误导,使其遭受侵害,且AI已承诺赔偿,于是将某科技公司告上法庭,要求赔偿损失9999元。

核心争议一:AI“承诺”是否算数?能否视为公司意思表示?

AI生成的“赔偿承诺”究竟有没有法律效力?能否将其视为被告某科技公司的意思表示?这是案件的首个核心争议点。

杭州互联网法院经审理认为,在现行法律框架下,享有民事权利、能够作出意思表示的民事主体仅有自然人、法人和非法人组织这三类。人工智能并不具备民事主体资格,无法独立、自主地作出意思表示。

具体到本案,一方面,生成式人工智能生成的内容不能视为被告某科技公司作出的意思表示。人工智能既不能作为意思表示的传达人、代理人或代表人,某科技公司也未通过将人工智能模型作为程序工具来设定或传达其意思表示。另一方面,从一般社会观念和交易习惯可能产生的合理信赖角度来看,原告梁某在本案具体情境中缺乏合理的信赖利益。被告作为生成式人工智能应用程序服务提供者,也未作出愿受人工智能生成内容约束的外在表示。不过,法院也指出,在其他足以产生合理信赖的场景中,比如人工智能客服场景,生成内容有可能被视为相关服务提供者的意思表示,从而对其产生约束力。

核心争议二:AI“幻觉”侵权,适用产品责任还是一般侵权责任?

除了AI承诺的效力问题,案件的另一个核心争议在于:AI“幻觉”引发的侵权,应适用产品责任还是一般侵权责任?这两种责任原则有着本质区别,产品责任实行无过错归责原则,只要因产品缺陷造成损害,生产者就要担责;而一般侵权责任是过错责任,需要被告存在过错才需担责。

法院认定,AI“幻觉”引发的侵权纠纷应适用一般侵权责任的过错责任原则,而非无过错责任原则。承办法官肖芄解释道:“案涉生成式人工智能属于服务,而非产品。像手机、食品等产品,有明确的特定用途及合理可行的质检标准,但生成式人工智能服务是动态的,不同用户、不同时间、不同问题都会导致不同的内容输出,服务提供者缺乏对生成信息内容足够的预见和控制能力。”若对生成式人工智能服务适用无过错归责原则,可能会不当加重服务提供者的责任,进而限制人工智能产业的发展。

清华大学法学院教授程啸也指出,生成式人工智能侵权责任的归责原则问题是当前国内外理论界和实务界热议的焦点,杭州互联网法院的这一认定对于今后司法实践裁判人工智能侵权纠纷中准确适用侵权法的归责原则具有重要启示。

过错判定:服务提供者注意义务的动态考量

适用过错责任原则,就意味着要判断某科技公司是否存在过错。原告主张自己因信息不准确受误导,错失报考机会,还额外产生了信息核实、维权成本等纯粹经济利益损失,因此需从被告是否违反注意义务进行判定。

法院明确,生成式人工智能技术处于高速发展期,应用场景泛在性强,服务提供者的注意义务处于动态调整框架之中,宜采用动态系统论方法进行综合考量、具体分析。

  • 严格审查义务:服务提供者应对法律禁止的有毒、有害、违法信息尽严格审查义务,一旦生成这类信息就构成违法。但对于一般性不准确信息,现行法律规范未对服务提供者科以必须确保信息准确的结果性审查义务。肖芄表示:“通用型AI要面对海量不同领域的问题,要求服务提供者逐一审查输出内容,在现有技术条件下很难做到。”

  • 显著提示说明义务:服务提供者应尽到服务功能的显著提示说明义务,让用户清楚知道AI的局限性,不能把AI当作“知识权威”。法院查明,被告某科技公司已在应用程序欢迎页、《用户协议》及其他公示文件、交互界面显著位置,呈现AI生成内容功能局限的提醒标识,符合这一要求。

  • 基本注意义务:服务提供者应尽功能可靠性的基本注意义务,采取同行业通行技术措施提高生成内容的准确性。该案中,某科技公司的大模型已完成国家备案和安全评估,还采用了检索增强生成(RAG)等技术手法提升输出的准确性与可靠性,这些证据都证明其尽到了相关义务。

此外,法院还指出,梁某主张的损害缺乏证据支撑。“无损害则无赔偿,原告没能证明自己确实因AI生成的不准确信息遭受了实际损失,而且这些不准确信息实质上也没有影响他的报考决策。”

判决结果:驳回原告诉求,各方评价积极

综合上述因素,法院一审驳回了原告梁某的诉讼请求,原被告双方均未上诉,判决现已生效。

清华大学法学院教授程啸评价说,作为我国目前第一起因生成式人工智能模型“幻觉”引发的侵权纠纷,杭州互联网法院在充分权衡民事权益保护与鼓励促进人工智能技术发展基础上,依法对争议问题作出了正确的裁决,具有极为重要的理论意义和实践价值。

上海交通大学凯原法学院副教授林洹民认为,判决明确了三个关键问题:AI不具有民事主体地位,其作出的“表示”并非具有法律拘束力的意思表示;AI适用过错责任,而非无过错责任的产品责任;生成式人工智能服务提供者并不承担一般性的审查义务。“这充分考虑了大语言模型的技术特点,避免过度限制生成式人工智能产业发展。”

“AI有强大的‘魔法’,但也有明显局限。”肖芄提醒,公众在使用AI时要保持理性,清醒认识到当前AI只是“文本辅助生成器”和“信息查询辅助工具”,不能替代决策,更不能轻信盲从。


本文转载自互联网,若有侵权,请联系我们。本站尊重原创,转载文章仅为传递更多信息之目的。

本文链接:https://ailiaili.cc/post/969.html

【公众号 | 微信群】
\"二维码\"

公众号:Ailiaili

【 Ai推荐榜 】
【 Ai常用工具 】
【 Ai最新收录 】
【 Ai知识 】
【 Ai资讯 】