【OpenClaw走红背后:当AI助手拥有你的邮箱和硬盘访问权】
#AI智能体# 在使用过程中存在诸多风险。例如,即便仅局限在聊天窗口内,大语言模型也会出现错误,表现出不当行为。一旦它们配备网页浏览器、电子邮箱等可与外界交互的工具,这些错误带来的后果会严重得多。
这或许能解释,为何首款实现突破的大语言模型个人助手并非出自头部 AI 实验室,而是由独立软件工程师彼得・斯坦伯格(Peter Steinberger)研发。2025 年 11 月,斯坦伯格将这款名为 #OpenClaw# 的工具上传至 GitHub 平台,今年 1 月末,该项目迅速走红。
OpenClaw 依托现有大语言模型,让用户打造定制化的个人助手。对部分用户而言,这意味着要提交海量个人数据,包括所有的邮件记录与硬盘内容,这一情况让安全专家深感担忧。OpenClaw 带来的安全风险范围极广,过去几周涌现的相关安全分析博客文章,普通人可能需要近一周时间才能全部读完。中国政府已公开发布警告,提示 OpenClaw 存在安全漏洞。
针对这些担忧,斯坦伯格在 X 平台发文称,非技术人员不应使用该软件。他并未回应本文的置评请求。但市场对 OpenClaw 提供的功能需求明确,且这类需求并非只存在于能自主完成软件安全检测的人群中。所有希望涉足个人助手领域的 AI 企业,都需研发保障用户数据安全的系统。企业需要借鉴智能体安全前沿研究的相关技术方案。
戳链接查看详情:http://t.cn/AXtLKMUG
