中国科学院自动化研究所发布了一款名为"瞬悉1.0"的类脑脉冲大模型,这个用国产GPU造出来的"大脑"在处理长文本时展现出惊人效率。团队用仅占主流模型2%的数据量,就让7B参数版本的性能接近Qwen2.5-7B的九成水平,同时能和Llama-3.1-8B这样的国际主流模型掰手腕。
这套系统首次实现了两个突破:既是中国首个大规模类脑线性架构模型,也是首个完全在国产GPU集群上完成训练推理的大模型。研发团队用沐曦C550 GPU搭建的算力集群连续运行两周不停机,成功验证了国产自主可控的技术路径。最亮眼的是处理长文本的速度——在百万级token的场景下,生成首个token的耗时比全球主流模型骤降96%,相当于原本需要100秒的工作现在不到4秒就能完成。
这种高效处理能力特别适合需要分析超长文本的场景,比如医学报告解读、法律文书处理,甚至能帮科学家处理DNA序列和高能物理实验数据。能耗表现同样惊人,相比传统计算方式,运算能耗直降97%,相当于用一度电就能完成过去需要100度电的任务。目前团队已经开源了7B版本模型,开发者可以在手机上体验到比国际主流模型快15倍的推理速度。这项突破为全球人工智能开辟了新方向,更让我国在自主可控的大模型赛道上迈出了关键一步。
发布于 广东
