Rick老张有话说 25-06-18 17:30
微博认证:科技博主

【不得了!DeepSeek R2可能要被截胡?】 #deepseek# #minimax# #超级AI工厂# #国产大模型聚齐了# 原本被寄予厚望的DeepSeek R2,可能要被“截胡”了。截胡的不是国外巨头,而是国内AI独角兽MiniMax,就在6月17日,他们突然甩出了一张“王炸”——全球首个开源大规模混合架构推理模型MiniMax M1。现在AI大模型的竞争,早过了“堆参数”的阶段,谁能让模型在复杂任务里更准、更快、更省成本,谁就掌握了主动权。特别是企业用户,用模型做代码生成、长文档分析、智能客服,最头疼两件事:一是长文本处理能力不够,二是算力成本太高——用国外模型贵到肉疼,用国产模型又怕性能不够。MiniMax M1的出现,正好戳中了这两个痛点。先说长文本,M1原生支持100万Token的上下文窗口,是DeepSeek R1(12.8万Token)的近8倍。再看训练成本,M1用了他们自研的CISPO算法,强化训练阶段只用了512块H800 GPU,耗时三周,总成本53.5万美元,比DeepSeek R1低了一个数量级。@新浪人工智能 http://t.cn/A6ee5hOj

发布于 北京