是煦煦哟 26-05-10 09:27
微博认证:科技博主 超话小主持人(科技超话)

移动这波属实是搞了个AI界的“大食堂”啊。

刚刷到新闻,上周移动云大会发了新东西,叫MoMA(不是那个现代艺术博物馆哈,虽然缩写一样)。

全称是“移动模型服务平台”,听起来挺唬人,但说白了就是个AI大模型的“超级聚合平台” 。

我一开始也觉得,不就是又一个大模型套壳吗?

但仔细扒拉了一下,发现这玩意儿跟现在的AI聚合网站还真不太一样。它现在一口气接入了超300款模型 。你说得出名字的——DeepSeek、通义千问、豆包、Kimi、智谱GLM——它全都有,连移动自家那个“九天”大模型也在里头 。

画风有点像移动想当那个“卖铲子的人”。

但这次讲得挺实在,没怎么吹参数,主要聊了钱和效率。

里面有个挺有意思的概念叫“Token集约化运营”。大家不是很头疼用API调模型太贵吗?尤其是那种长文本处理,Token跑得跟喝水似的。他们说搞了个智能路由引擎,能自动判断你的需求。比如你只是想总结个会议纪要,就不用非让那种特烧钱的超大模型跑,系统给你接个性价比高的;你要是搞复杂推理,它再给你切回效果最强的。

据说这么做能把单位Token成本压降30%以上,资源占用率降低50%。

讲真,这个才是正经事。现在模型那么多,不可能一个模型干所有活。移动想把所有模型“统一收编”,你只要接它一个API,就能换来换去用。甚至如果那个模型卡了或者崩了,它能毫秒级自动切换备用方案。

对于做AI应用的公司或者开发者,或者是大央企的政务需求,这种“不把鸡蛋放在一个篮子里”的稳定性,应该还挺香的。

另外看到了一个细思极恐的点——国产算力。它是基于国产卡部署的自研推理引擎。这其实是个信号,意味着在移动这种体量的基建狂魔推动下,国产算力生态可能真的要开始大规模“上车”了。

当然啦,现在还在发布阶段,具体用起来那个路由到底智能不智能,会不会“智障”?这个咱还得等等实际跑起来的反馈。

但如果真能降本,对咱这种天天琢磨怎么把AI搬进工作流的人来说,总归是多个靠谱的后路。

希望别最后又是一个只有网页没有官网的“薛定谔的发布”吧hhh
反正,多一个选择总是好的。 http://t.cn/AXihaDa5

发布于 福建