DeepSeek V4最强的地方不是跑分,而是其长上下文时的注意力惊人,这远比跑分厉害的多 [并不简单]
其1M 59%只比sonnet4.6差一点,GPT和哈基米在这方面连flash-Max都不如 [666]
注意力高就不容易出现幻觉,上下文越长AI越容易出现幻觉,这里要严重拷打哈基米3.1,感觉其真实注意力只有64k甚至32k [允悲]
东大的AI大模型各项性能越来越强,下半年升腾950芯片大规模出货后V4的输出价格还将大幅下降,黄仁勋和美国AI大模型的末日就要来了 [哈哈]
#DeepSeek v4 百万上下文##烽火问鼎计划#
发布于 湖北
