![]()
然而,就在3月27日,这场“技术革命”的剧情突然反转。苏黎世联邦理工学院的博士后、RaBitQ系列论文的第一作者高健扬,公开发布了一封长文,指控谷歌的TurboQuant论文存在严重问题,甚至可以说是“系统性造假”。他直接点名谷歌团队在知情的情况下,拒绝修正错误,并放任论文通过ICLR 2026会议审核,最终借助谷歌官方渠道大肆宣传。
事件核心:谷歌的“TurboQuant”到底是什么?
简单来说,TurboQuant是一种向量量化技术,核心是在压缩前对数据施加“随机旋转”,以提升压缩效率。而高健扬团队在2024年发表的RaBitQ技术,正是这一方向的先行者,其核心创新也是“随机旋转”,并且从数学上证明了其压缩误差达到了理论极限。
高健扬指控谷歌三大“罪状”
高健扬的澄清信直指TurboQuant论文的三大核心问题,每一条都相当致命:
指控一:系统性回避与RaBitQ方法的相似性
TurboQuant团队在论文中,对RaBitQ的描述要么不完整,要么干脆忽略。然而,早在2025年1月(TurboQuant论文发布前),TurboQuant的第二作者就曾主动联系高健扬,请求帮助调试他们基于RaBitQ代码实现的Python版本。这说明对方对RaBitQ的技术细节了如指掌,但在论文中却刻意回避这一直接联系。即便ICLR审稿人明确要求补充讨论,他们最终也未做修正。
指控二:错误描述RaBitQ的理论结果
TurboQuant论文在没有任何证据的情况下,将RaBitQ的理论保证定性为“次优”(suboptimal),并暗示其“分析粗糙”。但事实上,高健扬团队已在后续论文中严格证明RaBitQ的误差界达到了理论计算机顶级会议FOCS 2017论文给出的渐近最优误差界。更离谱的是,高健扬团队曾在2025年5月通过邮件详细纠正了对方的错误理解,对方明确表示已知情,但在后续的论文版本中依然保留了这一错误定性。
指控三:刻意创造不公平的实验环境
这是最离谱的一点。TurboQuant论文在对比性能时,报告RaBitQ的速度比TurboQuant慢了好几个数量级。但真相是:
-
实现方式不同:他们测试的是自己用Python写的劣化版RaBitQ,而非高健扬团队开源的、更高效的C++版本。
-
硬件环境不同:测试RaBitQ时,他们关闭多线程,只用单核CPU;而测试TurboQuant时,则使用了顶级的NVIDIA A100 GPU。
这种“不公平对比”在论文中完全没有披露,得出的结论显然是为了凸显自己算法的优越性。
目前,高健扬已向ICLR会议官方提交正式投诉,并计划发布详细的技术报告。这件事的核心已经不是简单的学术争论,而是涉及到一篇被顶级会议接收、并被科技巨头以千万级曝光量推向市场的“突破性技术”,其理论依据、实验数据和学术诚信都遭到了严重质疑。
对于我们硬件玩家来说,这件事也提供了一个观察角度:AI技术的“内存墙”问题固然需要解决,但任何宣称“颠覆性”的技术突破,尤其是能直接影响存储行业股价的“大新闻”,我们或许可以保持一份审慎。毕竟,真相和数据的严谨性,最终会决定一项技术是成为真正的革命,还是仅仅是一场精心策划的闹剧。
各位盒友怎么看?是谷歌“店大欺客”,还是学术圈的“神仙打架”?欢迎在评论区理性讨论!
