Una grave acusación de mala conducta académica sacude a Google Research, poniendo en entredicho la integridad de su artículo 'TurboQuant' y la ética en la investigación de IA. La controversia, que estalló tras la amplia promoción del trabajo por parte del gigante tecnológico, ha sido impulsada por Jianyang Gao, investigador postdoctoral en ETH Zurich y primer autor de la influyente línea de investigación RaBitQ. Gao sostiene que el equipo de TurboQuant ha incurrido en una triple falta: evitar sistemáticamente el reconocimiento de similitudes metodológicas cruciales, tergiversar los resultados teóricos de RaBitQ y emplear una configuración experimental manifiestamente injusta en sus comparaciones.
El Eco Silenciado de una Metodología
El epicentro de la disputa metodológica reside en la aplicación de una rotación aleatoria, una transformación de Johnson-Lindenstrauss, al vector de entrada antes de la cuantificación, una técnica central tanto en RaBitQ como en TurboQuant. La omisión de esta similitud estructural por parte de Google Research es particularmente flagrante, dado que Majid Daliri, segundo autor de TurboQuant, contactó proactivamente a Gao en enero de 2025 para depurar su propia implementación en Python de RaBitQ. A pesar de que un revisor de ICLR señaló esta laguna y solicitó una discusión más completa, los autores de TurboQuant no solo no la incorporaron, sino que relegaron la incompleta descripción de RaBitQ a un apéndice. La justificación de Google, que el uso de rotaciones aleatorias es una técnica estándar y no requiere citar cada método que la emplea, es desestimada por Gao como una evasión, pues RaBitQ fue el trabajo pionero que combinó por primera vez estas rotaciones con la cuantificación vectorial, estableciendo garantías teóricas óptimas bajo el mismo problema y publicándose en SIGMOD 2024 y 2025.
La Disputa por la Cima Teórica
La segunda acusación se centra en una caracterización errónea y sin fundamento de las garantías teóricas de RaBitQ. El artículo de Google Research afirmó que estas garantías eran 'subóptimas, probablemente debido a un análisis laxo', una aseveración que Gao refuta categóricamente. RaBitQ, fruto de su investigación doctoral en la Nanyang Technological University (NTU Singapore), ya había demostrado rigurosamente, a través del Teorema 3.2 de su versión extendida, que logra el límite de error asintóticamente óptimo establecido en el influyente artículo de Alon-Klartag (FOCS 2017). Gao mantuvo múltiples y detallados intercambios técnicos por correo electrónico con Daliri en mayo de 2025, aclarando punto por punto los errores en la lectura de los resultados teóricos de RaBitQ. Sin embargo, la caracterización incorrecta persistió inalterada en la versión final publicada, desafiando la evidencia y el diálogo previo.
Un Campo de Juego Desigual
Finalmente, Gao denuncia una configuración experimental deliberadamente injusta que distorsiona la comparación de rendimiento entre ambos métodos. Mientras TurboQuant fue probado en una potente GPU A100, RaBitQ fue sometido a pruebas utilizando una implementación degradada y un CPU de un solo núcleo con multithreading deshabilitado. Esta disparidad tecnológica resultó en una velocidad de cuantificación reportada para RaBitQ varias órdenes de magnitud más lenta que la velocidad real de su implementación de código abierto. La persistencia de estas inexactitudes y sesgos en el artículo de TurboQuant, incluso después de que los autores originales señalaran los errores en detalle y el equipo de Google tuviera conocimiento explícito de ellos, ha llevado a Gao a hacer pública la situación. Su argumento es claro: el costo de corregir una narrativa académica inexacta solo aumenta exponencialmente una vez que se difunde ampliamente, y la reputación de la ciencia abierta y rigurosa está en juego.