生成式人工智能技术以其强大的内容生成能力,正深刻改变着信息的获取与交互方式。然而,AI并非全知全能,其生成的答案可能包含看似合理实则错误的“幻觉”信息。当AI生成的不准确信息误导他人时,是否构成侵权?近日,杭州互联网法院审结全国首例因生成式人工智能模型“幻觉”引发的侵权纠纷案,直面这一技术应用前沿的法律挑战,对AI生成内容的性质、服务提供者的责任边界以及侵权构成要件等核心问题进行了深入阐释,为类似纠纷处理提供了重要的裁判指引。
AI“承诺”生成内容有误将赔偿
某生成式人工智能应用程序(以下简称某生成式人工智能应用),是某科技公司基于自研大语言模型,开发并运营的文本生成、信息查询类通用型智能对话应用程序。2025年3月,梁某在同意用户协议后,注册并开始使用某生成式人工智能应用。2025年6月29日,梁某在某生成式人工智能应用中输入提示词询问某高校报考的相关信息时,某生成式人工智能应用生成了关于该高校某校区的不准确信息。梁某发现后,在对话中进行了纠正和指责,某生成式人工智能应用仍继续回复称该高校确实存在这一校区,并生成了对争议问题的解决方案,提出若生成内容有误将向用户提供10万元赔偿。之后,梁某将从该高校官网查询到的招生信息提供给某生成式人工智能应用,此时某生成式人工智能应用承认其生成了不准确信息,并建议梁某到杭州互联网法院起诉索赔。
梁某认为,某生成式人工智能应用生成不准确信息对其构成误导,使其遭受侵害,并承诺对其进行赔偿,遂起诉要求某科技公司赔偿损失9999元。
某科技公司辩称,对话内容由人工智能模型生成,不成立意思表示;某科技公司已充分履行了注意义务,无过错;原告未产生实际损失,某科技公司不构成侵权。
