爱可可-爱生活 24-05-10 07:47
微博认证:AI博主 2025微博新锐新知博主

【Gemma 2B - 10M Context:支持高达 10M 的上下文长度的大型语言模型,通过递归局部注意力机制优化了内存使用,使得在低于 32GB 内存的环境下也能运行,并且对 CUDA 进行了原生推理优化】《mustafaaljadery/gemma-2B-10M · Hugging Face》 http://t.cn/A6HyF3IS #机器学习# #人工智能# ​

发布于 北京