AI这个圈子越玩越邪性了[允悲]
Berkeley 自己做了一个7B的模型,这模型干嘛的呢?它自己没有什么回答问题的能力,但是用了1.5M个 chatbot arena的评分的QA 对,去训练这个模型,让它知道什么问题找哪个模型回答,后面挂着GPT, Gemini,DS 啥的,然后,它ELO 评分搞了个1400分,1400分什么概念呢?前两天所谓20万卡的Grok3 就是人类历史上第一个ELO 1400分[doge],但是他用7B的分类器+个家api就完成了这个壮举,纯纯摘桃子了[二哈][二哈][喵喵]
其实可以理解为MOE, 只是特别像以前的搜广推MOE, 基于业务的,而不是现在LLM的MOE基于token的
后面GPT4.5(5), Claude 4能实现的system 1和system 2融合,其实也是玩的一样的套路[害羞],我就先不剧透了
发布于 日本
