【DeepSeek新模型被硅谷夸疯了!用二维视觉压缩一维文字 单GPU能跑 “谷歌核心机密被开源”】DeepSeek最新开源的模型,已经被硅谷夸疯了!3B规模、指数级效能变革、大道至简,甚至被认为把谷歌Gemini严防死守的商业机密开源了。DeepSeek刚刚开源即火爆的模型DeepSeek-OCR瞄准的是大模型处理长文本时的算力爆炸难题……虽然模型参数很小,但四两拨千斤,其背后所代表的“用视觉方式压缩一切”的思想。简单来说,由于一张图能包含大量文字(用的token还更少),所以他们想到并验证了“将视觉作为文本压缩媒介”这一方法——就好比优秀的人看书都是扫一眼就知道内容,不必一字一句读完才理解内容。
DeepSeek研究后发现,当压缩率小于10倍时,模型OCR解码准确率高达97%;即使压缩率高达20倍,准确率依旧能保持在60%左右,效果相当能打。更主要的是,DeepSeek再次展现了高效能风格,他们的方法之下,生成训练数据——仅凭一块A100-40G GPU,每天就能生成超过20万页的优质LLM/VLM训练数据。所以这个研究一经公布,已经快速在GitHub斩获了3.3K star。HuggingFace则已经热榜第二……X上热议,好评声一片。刚“尖锐”评价过AI现状的卡帕西说:我很喜欢……特别是图像比文字更适合LLM输入,妙啊。还有人认为这是“AI的JPEG时刻”,AI记忆架构打开了新路径。还有爆料猜测,谷歌Gemini的核心商业机密被开源了。(华尔街见闻)
发布于 湖北
