#如何看韩国AI用中国模型代码# 早上刷到韩国AI项目用中国开源代码这事儿,我愣了几秒,然后忍不住笑了。不是嘲笑那种,就是觉得...嗯,挺解气的?可能我格局小了。
这事儿是这样的,韩国一项主打“自主研发”的国家级AI项目,多家入围团队被发现使用了来自中国的开源代码或组件。
其中Upstage的推理代码被指与智谱AI开源模型高度相似,甚至保留版权标记;
Naver的视觉和音频编码器与阿里巴巴的Qwen 2.5权重相似度极高;
SK Telecom的推理代码被质疑与DeepSeek模型结构相近。
我看到有评论说"中国AI终于有被人抄的一天",说实话,这话听着挺爽,但仔细想想,其实暴露了我们自己的一个心态问题,总觉得被抄才是实力的证明。
国产开源模型现在确实能打了。
DeepSeek、阿里的通义千问、智谱GLM,这些模型放在全球开源社区里都是硬通货。特别是DeepSeek,MIT协议随便商用,API便宜,性能还猛。
所以韩国团队用中国代码,我觉得很正常,不用大惊小怪。
开源社区嘛,不就是互相"借鉴"。
我说得委婉了点,其实就是抄。
但问题出在那个词上:"自主研发"。
这四个字在国内被玩坏了,好像一旦沾了开源,就说不得。
其实韩国这次也一样,喊着要搞"AI主权",要摆脱中美依赖,结果转身就用中国代码。
这不就是典型的...既要又要?
我特地去查了他们的项目说明,还真有"利用本土技术构建"这种表述。
不过话说回来,AI研发用开源技术到底算不算普遍现象?
答案是:这不是普遍,这是唯一解。
从零开始写Transformer架构?
那是疯了吧。
现在哪个模型不站在巨人的肩膀上?
Meta的Llama开源后,全球多少模型是基于它微调的?
连OpenAI都被曝用了别人的数据集。
所以韩国团队用中国代码,从技术角度看毫无问题,
有问题的是他们遮遮掩掩的态度!
说到技术实力,我觉得这里有个界限。
用了开源代码,还能算自身实力吗?
我的看法是:看你怎么用。
如果你只是换个壳,改个名字,那算个屁的自研;
但如果你在开源基础上做了架构创新,解决了特定场景的问题,那绝对算实力。
就像韩国那个项目,如果他们在Qwen基础上做了韩语优化,适配了本土数据,那也算有价值的创新。
可惜他们没说,或者说不出口。
其实这事给我最大的感触是,开源正在重塑技术竞争的逻辑。过去拼的是闭源、专利、护城河;
现在拼的是谁能更快吸收社区养分,谁能把开源玩出花。
DeepSeek就是典型,开源了模型,反而倒逼自己迭代更快。
韩国这次事件,与其说是一次"抄袭"丑闻,不如说是开源时代各国技术实力重新洗牌的小插曲。
#科技先锋官# http://t.cn/AXGxdFPo
发布于 福建
