#谷歌论文涉嫌抄袭中国博士后成果#
本周五晚,谷歌的学术不端事件成为了 AI 圈的焦点。
来自苏黎世联邦理工学院(ETH Zurich)的博士后高健扬发布文章,表示Google Research论文《TurboQuant: Online Vector Quantization with Near-optimal Distortion Rate》中,有关已有的RaBitQ向量量化算法的描述、理论结果对比、实验对比均存在严重问题,且相关问题早在论文投稿前便已被明确指出,却被作者方刻意忽视。
据悉,TurboQuant于2025 年4月公开于预印版论文平台arXiv上,2026年1月被ICLR 2026接收,3月24日经谷歌研究博客介绍引发了巨量关注。
在AI大模型的推理时,AI每次生成一个新词都需要“回顾”对话历史(上下文),这部分内容被存储于KV缓存上。因此,KV缓存占用的内存往往会成为限制大模型速度和成本的最大瓶颈。TurboQuant提出的极限无损压缩方法效果惊人,由于能够大幅降低运行大模型所需的硬件资源,它直接冲击了市场对内存芯片爆发式增长的预期。
这项被谷歌大肆宣传的技术到底是怎么做到的?简单来说,它用一套精妙的方法解决了内存消耗的死结。
TurboQuant通过两阶段压缩实现这一目标:第一阶段利用“随机旋转”和PolarQuant机制将高维向量映射到极坐标,实现极限压缩;第二阶段利用Quantized Johnson-Lindenstrauss (QJL) 变换,使用仅1 bit的空间来修正内积计算的偏差。
然而,正是这部分技术,成为了引爆学术丑闻的导火索。
ETH Zurich的高健扬博士列举证据表示,这项被谷歌宣传的“革命性”核心机制并非谷歌首创,其在两年前就已经被他的团队完整提出。
更令人气愤的是,谷歌在其论文中刻意“回避”和“淡化”了先行技术。
RaBitQ系列论文于2024年发表,提出了一种高维向量量化方法,并从理论上证明其达到了理论计算机顶级会议论文给出的渐近最优误差界。RaBitQ和扩展版分别发表于顶级会议SIGMOD 2024和SIGMOD 2025。
RaBitQ的核心思路之一,是在量化前对输入向量施加随机旋转(random rotation/Johnson-Lindenstrauss变换),利用旋转后坐标分布的性质做向量量化,在理论上实现最优误差界。
而TurboQuant的方法核心同样是在量化前对输入向量施加随机旋转(Johnson-Lindenstrauss变换),这一点,甚至是TurboQuant作者自己在ICLR审稿回复中亲口描述的。
然而,TurboQuant论文全程刻意回避了与RaBitQ在方法上的直接关联,反而在正文中将RaBitQ描述为grid-based PQ,并且在描述中忽略了RaBitQ中核心的random rotation步骤,有意模糊两者之间的传承关系。
TurboQuant的第二作者Majid Daliri早在2025年1月便曾主动联系高健扬,请求协助调试其自行用Python复现的RaBitQ代码,这说明TurboQuant团队对RaBitQ的技术细节知之甚详。
既然早已知晓并请教过原作者,为何在最终的论文中不进行合理的引用和客观对比?
高健扬团队在发现这些问题后本着学术严谨的态度,从2025年5月起就通过邮件与TurboQuant团队进行了多次私下沟通,并明确指出了其中的事实性错误。
然而TurboQuant团队以“随机旋转已成为领域标准技术,无法引用每一个使用它的方法”为由拒绝修正。随后,这篇论文不仅被推上了ICLR 2026,还成为了全球关注的焦点。
高健扬已在ICLR OpenReview平台发布公开评论,并向ICLR General Chairs、PC Chairs及Code and Ethics Chairs提交了包含完整证据的正式投诉,同时表示将在arXiv发布关于TurboQuant和RaBitQ的详细技术报告,并保留进一步向相关机构反映的选项。(机器之心)
