我记前几天刚看到国外有大佬有人说类似Adobe这种软件会落后于能被AI控制的软件,说是什么只有复杂的UI界面而不提供文本交互,就无法和大模型形成有效的人机协同。我没转也没发表意见,因为我并不是这么认为的,当然咱不专业也不好说。
但现在adb-mcp项目通过四层架构可以完全实现AI对Adobe软件的精准操控,其运作逻辑环环相扣,堪称技术与创意的完美融合。而这恰恰是我之前说过的,只要你能给软件写插件,尤其是脚本插件这种能控制软件原生功能的,那么必然可以用MCP来实现AI控制,因为只要给开发者提供接口,再复杂的软件都不存在壁垒:
1、AI与MCP服务器交互:用户向大语言模型(如Claude)输入自然语言指令后,AI将指令传递给MCP服务器。该服务器基于Python开发,作为核心中枢,为Adobe软件功能提供接口,将AI指令转化为软件可识别的操作代码。例如,用户要求“制作复古风格海报”,MCP服务器会解析指令,生成对应的Photoshop操作指令序列。
2、Node.js代理服务器中转:由于基于UXP的JavaScript插件对外API限制(仅支持客户端连接套接字,无法作为服务器监听连接),adb-mcp引入Node.js命令代理服务器。它如同“翻译官”与“中转站”,接收MCP服务器的指令,并转发给Adobe应用插件,同时将插件的反馈回传至MCP服务器,确保通信链路畅通。
3、Adobe应用插件执行:在Photoshop和Premiere中,安装的UXP插件持续监听代理服务器传来的指令。这些插件由JavaScript编写,一旦接收到指令,便会驱动软件执行具体操作,如新建图层、添加滤镜、调整视频转场等。例如,Premiere插件收到“添加交叉淡入淡出转场”指令后,会自动定位素材并应用相应特效。
4、软件反馈与闭环:Adobe软件执行操作后,插件会将部分状态信息(如图层列表、项目参数等)通过代理服务器回传至MCP服务器,再反馈给AI。虽然目前PS无法自动获取图像内容(需手动复制粘贴),但这一反馈机制仍能让用户了解操作进度与结果,形成“指令输入 - 操作执行 - 信息反馈”的完整闭环。
项目链接:github.com/mikechambers/adb-mcp
发布于 上海
