【Gemma 2B - 10M Context:支持高达 10M 的上下文长度的大型语言模型,通过递归局部注意力机制优化了内存使用,使得在低于 32GB 内存的环境下也能运行,并且对 CUDA 进行了原生推理优化】《mustafaaljadery/gemma-2B-10M · Hugging Face》 http://t.cn/A6HyF3IS #机器学习# #人工智能#
发布于 北京
【Gemma 2B - 10M Context:支持高达 10M 的上下文长度的大型语言模型,通过递归局部注意力机制优化了内存使用,使得在低于 32GB 内存的环境下也能运行,并且对 CUDA 进行了原生推理优化】《mustafaaljadery/gemma-2B-10M · Hugging Face》 http://t.cn/A6HyF3IS #机器学习# #人工智能#