【如何防范“龙虾”“咬人”?法官在线支招!】帮你整理邮件、自动下单、处理文件……2026年开春,“养龙虾”火了。
这里的“龙虾”指的不是餐桌上的美味,而是当下科技圈最火的开源AI智能体——OpenClaw。
和大众熟知的、主要提供对话功能的聊天机器人不一样,“龙虾”具备执行能力。它可以听令打开电脑里的文件、在电商平台自动比价下单、跨平台整理工作邮件、安排一整天的行程,像一个24小时待命的“数字管家”。然而,便利至极的功能背后可能隐藏着风险。
结合法官的一线司法观察,“龙虾”热潮背后AI智能体的这些法律风险值得关注。
风险一:授权机制模糊,用户或处于“失控”状态
安装“龙虾”时,在按下“同意”选项后,用户以为自此拥有一个智能助手,实际上可能已经一次性把权限都交了出去。这是因为用户与智能体提供者之间存在严重的信息不对称,一份冗长的用户协议很难让人真正理解,智能体后续会如何规划任务、调用哪些工具以及在什么时间访问哪些应用等。
结果就是,指令发出后,用户在得到确切的结果前,对智能体的每一步操作既无法预知,也难以实时监督和干预。
风险二:行为边界不明,用户可能“违法而不自知”
大多数人不知道的是,法律上存在着“不可代理”的边界——例如,某些平台的用户协议明确禁止使用自动化工具,如果用户让智能体代为操作,就违反了“约定禁止代理”。再如,涉及职务身份和保密义务的事务具有“人身专属性”,不得交由外部工具代理,一旦泄露,用户需承担泄密责任。另外,一些数据抓取行为本身可能构成对他人数据权益的侵害,用户需承担不正当竞争或侵权责任。
这意味着并非所有事务都可以由智能体代为办理。可以想见,当智能体的自主行为引发法律问题时,用户浑然不知,却要为此承担相应后果。
风险三:若数据与隐私泄露,风险波及第三方
智能体的运行机制放大了隐私泄露的风险。当用户授权智能体处理邮件或文件时,智能体会读取大量内容,其中往往包含第三人的联系方式、商业谈判细节、个人隐私信息。这些数据被传输至云端分析后,若服务提供者的服务器遭入侵,或供应链中的某个插件被植入恶意代码,大量第三人的敏感信息便会一并泄露。
更值得警惕的是,智能体具有“长期记忆”功能,会将分析过的信息存入记忆库供后续调用。这意味着,即使日后撤销授权,智能体仍可能保留这些数据,并在未来的任务中不经意地使用或暴露,形成持续性的隐私泄露风险。
从法律角度看,这类服务不仅涉及用户本人信息,还涉及大量第三人的个人信息,而第三人并未同意其信息被收集和处理,合法性基础存在很大缺陷。
风险四:主体责任不清,第三方或面临追责困境
当智能体在自主运行中造成损害,如错误下单导致资金损失、违规抓取第三方数据引发侵权、个人信息被泄露等,责任该如何划分?
智能体提供者往往通过用户协议宣称智能体仅为用户工具,所有行为后果由用户自负,试图以此切割自身责任。用户则认为自己是受提供者设计的技术方案所引导,对智能体底层逻辑无力控制,且提供者从智能体运行中获取商业利益,理应承担责任。第三方则面临维权困境:难以直接向用户追偿,又缺乏向提供者追偿的明确法律依据。
这种三方责任模糊的状态,使得用户在使用智能体时承担了远超预期的法律风险。
针对这四大风险,杭州互联网法院跨境贸易法庭庭长肖芄给出四条治理建议:
1 让智能体的运行过程透明可见
用户有权知道智能体正在做什么、将要做什么。服务提供者应当以用户能够理解的方式,实时说明智能体执行的步骤、调用的工具、访问的数据类型和范围。对于涉及资金、重要文件、个人隐私等重大权益的操作,必须设置人工确认环节,由用户最终决定是否执行。用户协议中的关键信息也应当清晰明了,避免用冗长的法律条款掩盖重要内容。
2 明确各方责任的划分
服务提供者掌握着智能体的底层代码、训练数据和权限控制,不能仅凭用户协议中的免责条款就完全撇清责任。如果损害是由智能体的设计缺陷或自主决策造成的,服务提供者应当承担责任。用户对自己明确下达的指令所产生的后果负责,对于明显超出合法边界的指令,也有义务及时制止。
3 加强数据安全保护
应当优先在本地设备处理数据,尽量减少数据向云端传输。权限管理应当遵循最小必要原则,只授予完成核心功能所必需的权限。用户应当能够随时查看和删除智能体的记忆库内容,防止个人信息被长期留存。一旦发生数据泄露,服务提供者应当及时通知用户,便于用户采取应对措施。
4 规范智能体的行为边界
智能体在访问第三方平台时,应当表明自己的AI身份,通过正规接口进行交互,而非伪装成普通用户绕开平台规则。法律和行业标准应当明确哪些事务不得交由智能体代理,例如平台明确禁止自动化操作的情形,或法律规定需要特定资质才能从事的事务。服务提供者应当在智能体中设置风险提示功能,当用户指令可能越界时主动提醒,并拒绝执行明显违法的指令。(来源:天平阳光客户端 记者:宋朵云 插图/封面:平钰骁(图片由AI辅助生成))
