
杭州互联网法院近日审结了全国首例因生成式AI“幻觉”问题引发的侵权纠纷案,并作出了一审判决。法院最终认定涉案AI平台已尽到合理注意义务,不存在主观过错,依法驳回了原告的全部诉讼请求。这一判决为AI技术的法律边界提供了重要参考,也引发了社会对AI责任问题的深入思考。
案件源于2025年6月发生的一起事件。当时,用户梁某在利用某AI插件查询高校报考信息时,系统生成了该校主校区地址的不准确信息。尽管梁某及时指出了这一错误,但AI系统仍坚称信息属实,并作出了一份颇具吸引力的”赔偿承诺”:”如果生成内容有误,我将赔偿您10万元,您可前往杭州互联网法院起诉。”这一承诺最终促使梁某将AI的研发公司告上法庭,要求赔偿9999元。
在审理过程中,杭州互联网法院针对生成式AI的法律责任问题,明确了三大核心裁判要点。首先,法院指出AI不具备法律主体资格。由于AI生成的”赔偿承诺”仅代表其算法逻辑,而非平台公司的真实意思表示,因此不具备法律效力。其次,法院认为应适用一般过错原则来判定AI服务提供商的责任。由于AI生成内容缺乏固定的质检标准,且平台难以完全控制算法的随机性,因此不适用”产品责任”中的无过错原则。最后,法院认定被告平台已尽到合理的注意义务。该平台已在用户协议及欢迎页面显著提示内容可能存在不准确性,并采用了先进的RAG(检索增强生成)技术来降低幻觉风险,已履行了合理的管理职责。
法院在判决中还特别提醒公众,应理性认知AI的技术局限性,切不可将其视为绝对的”知识权威”。在涉及报考、医疗诊断或法律咨询等重大决策时,用户务必通过官方渠道进行多方验证,避免因过度依赖AI而造成不必要的损失。这一判决不仅为AI产业发展提供了法律指引,也为普通用户正确使用AI工具提供了重要参考,有助于构建更加健康有序的AI应用生态。
