坤小七Human 25-09-02 07:00
微博认证:财经观察官 财经博主

早上好!

每日点赞,手有余香。
懂不?

#A股#

聊聊大模型。

当下,咱们国内主流模型还是以语言模型为底座,参数规模多在几千亿级别,比如你们都知道的千问3是大概3-4千亿级别,其他大厂的也大差不差。

我们做一个测算。
假设,训练一个语言模型基础版需要约3万张卡,如若我们再加上多模态(如图像、视频),总共需要约6万张H100级别的卡。

也就是说,至少2025年咱们目前总的训练需求在10万张卡以内就能满足的...

明年,我相信技术路径会是在控制参数规模。
同时,通过算法和数据集提升模型性能。

但参数规模本身还是会扩大,预计2025年主流在5000亿以下,2026年万亿。

所以说,参数大了,训练所需的卡数也要大增,预计从现在的10万到20万张卡。
这个逻辑能听懂么?

这两天有兄弟在问肺结节,
今天给大家分享看一个超牛的粉丝私信,
5.9毫米的磨玻璃结节,
坚持吃了3年灵芝孢子粉,
变成2个毫米的普通结节了。

下面是他发来的私信:
1、21年1月CT扫描检查出5.9毫米的磨玻璃结节,坚持服用孢子粉,
23年11月已经不足2mm(俺的经验吃的剂量应该是比较小,如果剂量大的早就搞定);
2、情绪稳定,不爱发脾气了;
3 、估计是调节脾胃,改善了微循环。排气不臭,指夹盖饱满,没有横纹了;
4、改善睡眠质量,长而且深,
总之,亚健康状态得到了很大的提升。非常感谢涛哥推荐的好产品!!!
现在,全家都在用。

检查报告附在下面了,兄弟们有相关问题参考[耶][耶][作揖][作揖]

http://t.cn/AXvRClOO
#大咖说财经# #这个好物闭眼入# #超级购物节清单#

发布于 湖北