知未科技 26-01-26 14:33
微博认证:知未科技官方微博

【岁月史书启动!Mistral CEO称DeepSeek-V3基于其AI架构打造】
据量子位,在最近一次访谈中,当被问到如何看待中国开源AI的强势发展时,Mistral联合创始人、CEO表示:中国在AI领域实力强劲。我们是最早发布开源模型的公司之一,而他们发现这是一个很好的策略。开源不是真正的竞争,大家在彼此的基础上不断进步。比如我们在2024年初发布了首个稀疏混合专家模型(MoE),DeepSeek-V3以及之后的版本都是在此基础上构建的。它们采用的是相同的架构,而我们把重建这种架构所需的一切都公开了。
然而事实上,DeepSeek MoE论文的发布时间和Mixtral论文相差仅3天,而且两种架构的思路也不同,甚至Mistral 3 Large还曾被扒出基本上照搬了DeepSeek-V3的架构。