meta这公司这几年真有意思,不是被告,就是投资失利比如元宇宙。今天又看到他们被起诉了。如今,其智能眼镜又因隐私问题卷入集体诉讼。
Meta于2023年起与Luxottica(依视路陆逊梯卡)合作推出Ray-Ban Meta智能眼镜(后续扩展至Oakley品牌),该产品内置摄像头、麦克风,支持“Hey Meta”语音唤醒AI助手,可实时识别物体、翻译、回答问题或录制视频。Meta在营销中反复强调“designed for privacy, controlled by you”(专为隐私设计,由您掌控)、“built for your privacy”(为您的隐私而造),并宣称数据“留在设备本地”,除非用户主动分享。
瑞典媒体(如 Svenska Dagbladet)揭露了关键事实:当用户使用AI功能时,眼镜录制的视频和音频会自动上传至Meta服务器,随后被转发给肯尼亚外包商Sama公司的数千名人工审核员进行人工查看、标注和分类,用于训练Meta的AI模型。这些审核员时薪极低,却能看到用户最私密的画面。调查显示,Meta声称的“自动模糊脸部与敏感信息”机制经常失效,用户根本不知情自己的镜头正被地球另一端的人类实时观看。Meta虽在隐私政策和AI条款中提及“有时会使用承包商审核数据以改进体验”,但这一信息被埋藏在细则中,与公开营销承诺严重矛盾。这一报道迅速引发全球关注,也直接催生了美国集体诉讼,案号 3:26-cv-01897。
原告为新泽西州用户 Gina Bartone 和加州用户 Mateo Canu,向美国加州北区联邦地区法院(旧金山分院)提起全国性集体诉讼,被告为 Meta Platforms, Inc. 以及眼镜制造商 Luxottica of America Inc.。本案作为拟议全国性集体诉讼,主要依据联邦民事诉讼规则第23条(Fed. R. Civ. P. 23)及加州消费者保护法等确立管辖,而非单一的《集体诉讼公平法》。涉诉产品为行业公开数据显示累计销量超700万台的Ray-Ban Meta智能眼镜。同期,英国信息专员办公室(ICO)已就同款产品的隐私合规问题启动调查,欧盟数据保护机构亦有关注。
诉状陈述,用户使用眼镜 AI 视觉功能时,拍摄的画面(含家庭私密场景、亲密行为、金融账户操作、裸体画面等高度敏感内容)会被同步上传至 Meta 云端服务器,交由位于肯尼亚内罗毕的第三方分包商 Sama 公司,由当地数千名数据标注员人工审核、标注内容,用于训练 Meta 公司的人工智能模型;Meta 声称的人脸模糊过滤机制存在严重漏洞,大量可识别个人身份的敏感信息被审核人员完整查看,且用户难以有效自主退出或充分知情该人工审核流程。
原告方主张:
1.虚假宣传与消费者权益欺诈:原告主张,Meta与Luxottica通过隐私保护的正向宣传诱导消费者购买产品,却隐瞒了“私密内容会被海外第三方人工查看”的核心事实,构成对消费者的重大误导与欺诈,直接违反加州《消费者法律救济法》(CLRA)、《虚假广告法》(False Advertising Law)以及《不公平竞争法》(UCL §17200)等多部消费者保护立法。从侵权法角度看,Meta主动作出隐私保护承诺,即对消费者负有披露与该承诺相悖的重大事实的义务,其刻意隐瞒的行为可能构成欺诈性隐瞒(fraudulent concealment)或疏忽性误导。
2.合同违约:原告主张,Meta 在用户服务协议、隐私政策中作出的数据保护承诺,构成双方合同的核心条款;Meta 未经用户同意,擅自将用户数据用于协议约定范围外的 AI 模型训练、交由第三方人工审核,超出了用户授权的数据处理范围,构成违约。
3.隐私权侵权与合理隐私期待的侵害:根据美国侵权法重述及联邦最高法院确立的裁判规则,原告主张其在私密空间使用智能眼镜时,对拍摄的内容享有 “不被陌生人窥探、查看” 的合理隐私期待。Meta 未经用户明确、具体的知情同意,擅自将敏感私密内容交由第三方审核,构成对原告私密空间的非法侵入,可能属于典型的侵犯隐私权行为。
4.全球数据合规体系的违反:原告主要依据美国法主张权利,同时,针对欧盟、英国地区的用户,监管机构认为Meta的行为可能违反《通用数据保护条例》(GDPR)及英国《数据保护法》的透明性原则、有效同意原则、数据最小化与目的限制原则,以及跨境数据传输合规义务。
本案的审理结果将对全球 AI 可穿戴设备的隐私保护规则产生标杆性影响,核心争议焦点:
1.知情同意的有效性边界:Meta 抗辩其已在服务条款中提及 “可能对 AI 互动内容进行人工或自动审查”,但原告主张该条款属于隐蔽的兜底性表述,未明确告知用户 “私密画面会被海外真人查看” 这一核心事实,用户使用 AI 功能的行为,不能等同于对该敏感数据处理行为的有效同意。这一争议的核心,是 AI 时代 “概括性授权” 能否构成数据处理合法基础的问题,后续还会有这样的问题,尤其是AI智能体的出现。
2.营销宣传与格式条款的效力冲突:Meta 对外公开的营销宣传作出了明确的隐私保护承诺,却在用户协议中通过格式条款扩大了数据处理权限。本案核心争议之一,是当企业的公开承诺与格式合同条款相悖时,应以何者为准?从消费者保护法的立法精神来看,企业对外作出的具体、明确的隐私承诺,对其具有约束力,不得通过内部格式条款变相推翻该承诺,这也是原告方的核心诉讼逻辑之一。
这条其实就是最关键的,法院会审查普通消费者是否会因“隐私设计”的广告而产生合理信赖。若陪审团认定Meta的披露不足以抵消营销承诺,原告胜诉概率较高。
3.合理隐私期待的认定标准:Meta 抗辩用户主动将内容分享给 Meta AI,即放弃了相关隐私权益;但原告主张,用户的合理期待是 “AI 自动处理相关内容”,而非 “私密画面被全球多地的陌生人工审核员查看”。所以,用户在随身设备中存储、处理的内容,即便上传至云端用于 AI 交互,其合理隐私期待的边界究竟在哪里。
4.AI 训练数据外包的合规义务,这就是老问题了,Meta 主张 “人工审核数据用于 AI 训练是行业通用做法”,但原告及监管机构认为,行业惯例不能豁免企业的法定数据安全保障义务。针对敏感个人数据,企业即便委托第三方处理,也需履行严格的风险评估、数据脱敏、全程监管义务,Meta 的过滤机制失效、敏感数据大规模泄露,已违反了数据控制者的核心法定义务。
本案是很有意义的,我们会持续关注,因为其对全球 AI 设备的隐私合规体系产生深远影响。在立法与司法层面,我觉得本案本案可能推动可穿戴 AI 设备隐私保护专项规则的出台,明确 “随身拍摄设备” 在公共与私密场景的隐私保护边界,同时强化 AI 训练数据处理的透明化义务,并可能确立确立 “敏感个人数据人工审核必须取得用户单独、明确授权” 的裁判规则。
发布于 江苏
