【AI的能力悬崖:为什么大多数人还在用“聊天机器人”思维看待AI】
Box创始人Aaron Levie最近的一番话,戳中了当下AI应用的核心矛盾:
绝大多数人仍然把AI当作“有问必答的聊天机器人”,而非真正能替他们干活的工具。
这种认知差距造成了巨大的“能力悬崖”——模型能力早已跃升,但应用场景还停留在原地。
除了编程领域,几乎没有任何知识工作真正实现了智能体自动化。过去一个季度的模型更新,即将在几乎所有行业催生全新的AI智能体应用场景。
谁能赢得这场竞赛?Levie给出了三个关键要素:
第一,正确的智能体架构。把模型包装成能执行复杂任务的系统,而非简单的问答接口。
第二,精准的上下文工程。让智能体获得正确的数据和背景信息,才能做出靠谱的判断。
第三,真正的变革管理。技术再强,如果无法改变客户的实际工作流程,一切都是空谈。
这番观点引发了大量讨论,其中几个视角值得深思:
有人指出,除了能力悬崖,还存在“信任悬崖”。很多开发者试过ChatGPT,遇到一次幻觉就在心里给它判了死刑。真正有效的智能体,应该懂得在不确定时停下来询问,而不是自信满满地基于错误假设一路狂奔。
还有人一针见血:聊天机器人已经毁掉了人们对AI的体验,现在需要大量的“再教育”工作。
关于变革管理,有从业者提醒:这绝不只是一个“策略”问题。人员、流程、制度的改变,在某些深度整合的环境中可能需要数月甚至数年。真正的考验在于落地执行。
一个有趣的类比是“Waymo效应”——人类在交出控制权之前,需要看到系统的表现可验证地超越人类能力。这解释了为什么即使技术成熟,大规模采用仍然滞后。
也有人提出不同看法:赢家不会是那些做“包装”的创业公司,而是在垂直领域拥有分发渠道、且能承担错误风险的企业。2026年的关键词不是上下文工程,而是风险转移。
最深刻的洞察或许是这个:能力已经不再是瓶颈,信任、责任归属和工作流程中的激励机制才是。在有人愿意让智能体做决策之前,大多数“自动化”本质上还是建议性的。
用户不想要聊天机器人,不想写提示词,他们只想把活干完。未来属于那些能感知上下文、主动适应任务的界面——不是等着用户输入,而是预判需求、默默执行、最后只需要一个确认。
我们还在序章。大多数人还没见过AI不再等待指令、而是开始给自己写待办清单的样子。
2026年,将是这一切开始发生的时刻。
x.com/levie/status/2010927960006721960
