苹果AI的最新消息来了!
前几天,苹果官宣了和Google Gemini的合作之后,似乎没有更多的消息了🤔
但是这两天一些消息指出,苹果即将在下个月的IOS26.4中内测全新的Siri助手🎉
这次更新的重点,在于Siri终于不仅仅是个语音搜索入口了。
根据流出的信息,新版Siri能够读取屏幕内容,并代为执行应用内的操作😧
举个具体的场景:不用动手,直接语音让Siri打开外卖软件点杯咖啡(是不是很像之前国内的那些产品🤣
而在技术架构方面,虽然合作方是谷歌
但苹果在隐私这块还是不想松口。
希望能在自己的云上运行这个拥有1.2万亿参数,被内部称为“Apple Foundation Model V10”的模型(基于Gemini)。
但现实情况是,目前苹果自家的基建还撑不住,还是得调用谷歌的基础设施(就是GCP)。
目前的选择是“混合跑”模式,算是现阶段的一种妥协。
而再远一些,到了iOS 27和macOS 27,苹果计划全面引入聊天机器人(代号“Campos”)届时会升级到V11模型,质量据说能对标Google Gemini 3。
归根结底,苹果现在的处境很艰难,自家模型研发进度滞后。
不得不先通过每年给谷歌交10亿美元的“保护费”来维持竞争力。
但从长远看,为了要把控成本和解决根本的隐私顾虑,苹果肯定不会放弃自研。
现在的合作,更多是争取时间的权宜之计。
所以为什么选择和谷歌合作?
其实苹果最早找过Anthropic,嫌人家要价太高(一年几十亿刀);也找过OpenAI,但人家跟苹果前设计总监Jony Ive在搞硬件(属于潜在对手);
最后转了一圈发现还是老冤家谷歌最靠谱(技术好价格公道),而且反垄断的警报刚好也解除了。
在这期间苹果AI部门也进行了大换血,AI原本的负责人实际上已经被架空并“优化”掉了。
现在是Craig Federighi掌舵(图2️⃣,就是WWDC24表演跑酷的那个白发大叔)
这也解释了为什么苹果的AI战略会发生如此剧烈的180度转弯:从死磕自研到全面拥抱第三方。
虽然对于一家科技巨头来说,放弃底层模型的大部分控制权,变成一个套壳产品挺尴尬的。
但对于产品公司来说,这是目前止损最快、体验最好的路。
至于自研?
苹果没放弃,但那已经是长线的事了。
眼下的局面,就是花钱买时间。
等下个月iOS 26.4出来,看看这贴了苹果牌的谷歌引擎,到底能不能让Siri翻身。
#人工智能##程序员##苹果##Iphone##互联网[超话]##人工智能[超话]##科技快讯##互联网公司##科技改变生活##AI Open Day##ai创造营#
