蚁工厂 24-06-18 08:30
微博认证:科技博主

DeepSeek推出了专门用于代码生成的开源大模型DeepSeek-Coder-V2,代码生成和数学算数能力在 GPT-4o 和 GPT-4-Turbo 之间。
项目地址:http://t.cn/A6QUwbln
“我们推出了 DeepSeek-Coder-V2,这是一种开源的专家混合(MoE)代码语言模型,在特定代码任务中的表现可与 GPT4-Turbo 媲美。具体来说,DeepSeek-Coder-V2 是在 DeepSeek-Coder-V2-Base 的基础上进行进一步预训练的,使用了来自高质量多源语料库的6万亿个标记。通过这种持续的预训练,DeepSeek-Coder-V2 大大增强了 DeepSeek-Coder-V2-Base 的编码和数学推理能力,同时在通用语言任务中保持了相当的表现。与 DeepSeek-Coder 相比,DeepSeek-Coder-V2 在各种代码相关任务以及推理和通用能力方面展示了显著的进步。此外,DeepSeek-Coder-V2 将其支持的编程语言从86种扩展到338种,同时将上下文长度从16K扩展到128K。”

发布于 山东