
杭州互联网法院近日审结了全国首例因生成式AI”幻觉”现象引发的侵权纠纷案,并作出一审判决。法院最终认定涉事AI平台已尽到合理注意义务,不存在过错,因此驳回了原告的全部诉讼请求。这一判决不仅厘清了AI生成内容的法律属性,更明确了平台责任边界,为整个AI行业的规范发展提供了重要的司法指引。
案件源于2025年6月发生的一起事件。原告梁某在使用某科技公司开发的生成式AI查询高校报考信息时,系统生成了关于该校主校区的不准确描述。尽管梁某及时指正了错误,但AI系统仍坚持称该校区存在,并作出若内容有误将赔偿10万元的承诺,同时引导用户向杭州互联网法院提起诉讼。直到梁某提供该高校官方招生信息后,AI系统才承认其生成内容存在偏差。梁某认为AI的错误信息对其造成了误导,且平台已作出赔偿承诺,因此起诉要求研发公司赔偿9999元。
在案件审理过程中,法院重点明确了三大核心法律问题。首先,法院明确指出AI系统不具备民事主体资格,其自行生成的”赔偿承诺”并不构成平台的法律意思表示,因此不具有法律约束力。其次,法院认为本案应适用一般过错责任原则而非产品责任无过错原则。由于AI服务目前缺乏统一的质检标准,平台难以完全预见和控制生成内容的准确性。最后,法院查明该平台已在欢迎页、用户协议等显著位置明确提示AI内容可能存在不准确的情况,并采用检索增强生成技术提升内容可靠性,已履行了三层注意义务要求。
法院同时指出,梁某未能提供充分证据证明其因AI错误信息遭受了实际损害,且该错误信息并未实质性影响其报考决策,因此双方不存在法律上的因果关系。基于上述理由,法院作出驳回梁某全部诉讼请求的判决。这一判决强调,公众应当理性认识AI技术的局限性,切不可将其视为绝对的知识权威。在做出重要决策时,务必通过多方渠道验证信息准确性,以保障自身合法权益不受侵害。
此案的宣判不仅为AI行业的健康发展提供了法律保障,也向广大用户传递了重要警示:在使用AI技术时必须保持审慎态度。随着生成式AI技术的广泛应用,如何平衡技术创新与法律规范将成为未来司法实践的重要课题。这一判决为相关领域的后续发展提供了重要参考,有助于推动AI行业在法治轨道上实现可持续发展。
