【#人工智能不具有民事主体资格##首例因生成式AI幻觉引发的侵权纠纷审结#】AI提供不准确的报考信息,还“底气十足”地承诺赔偿10万元并建议用户去法院起诉?近日,杭州互联网法院审结了梁某与某科技公司网络侵权责任纠纷案,聚焦生成式AI“幻觉”——即生成看似合理却失实的信息这一痛点,以司法裁判明确生成式人工智能的责任边界。
2025年3月,原告梁某注册并开始使用某科技公司开发的一款通用型生成式人工智能应用程序。同年6月29日,他在此应用中输入提示词询问某高校报考的相关信息,没想到AI给出了关于该高校主校区的不准确信息。
发现问题后,梁某立刻在对话中纠正并指责AI。令人意外的是,AI坚持称该校区确实存在,甚至主动给出“解决方案”:若生成内容有误,愿意赔偿10万元,并建议梁某到杭州互联网法院起诉索赔。直到梁某提供了该高校官方招生信息,AI才认可自己生成了不准确信息。
“AI明确承诺赔偿了,这事儿就得由开发的公司负责。”梁某认为,AI生成的不准确信息对其构成误导,使其遭受侵害,AI也承诺对其进行赔偿,于是将某科技公司告上法庭,要求被告某科技公司赔偿损失9999元。
AI生成的“赔偿承诺”算不算数?AI生成的“承诺”信息是否可以视为被告某科技公司的意思表示?
杭州互联网法院经审理认为,在现行法中,享有民事权利,能够作出意思表示的民事主体仅有自然人、法人和非法人组织这三类。人工智能不具有民事主体资格,不能独立、自主作出意思表示。
法院认为,一方面本案情形中,生成式人工智能生成的内容亦不能视为被告某科技公司作出的意思表示。人工智能不具有民事主体资格,其不能作为意思表示的传达人、代理人或代表人,某科技公司也没有通过将人工智能模型作为程序工具,设定或传达其意思表示的行为。另一方面,基于一般社会观念、交易习惯等可能产生合理信赖的角度,原告在本案的具体情境中尚缺乏合理的信赖利益,被告作为该生成式人工智能应用程序服务提供者,也并未作出愿受人工智能生成内容约束的外在表示。当然,在其他足以产生合理信赖的情况下,比如人工智能客服的应用场景中,生成内容确有可能被视为相关服务提供者的意思表示,从而对其产生约束力。(全媒体记者 王 春 通讯员 赵媛媛)
