Google, empresa de Alphabet, trabaja en una nueva iniciativa para que sus chips de inteligencia artificial funcionen de forma más eficiente con PyTorch, el marco de software de IA más utilizado a nivel mundial.
El proyecto, conocido internamente como “TorchTPU”, tiene como objetivo debilitar el dominio que Nvidia mantiene en el mercado de la computación para inteligencia artificial, especialmente en el terreno del software.
Este esfuerzo forma parte de la estrategia de Google para posicionar sus unidades de procesamiento tensorial (TPU) como una alternativa real a las GPU de Nvidia.
Las TPU se han convertido en un motor clave de crecimiento para Google Cloud, en un momento en el que la compañía busca demostrar que sus fuertes inversiones en IA comienzan a dar resultados.
Sin embargo, Google ha identificado que el hardware por sí solo no es suficiente para atraer a más clientes.
Uno de los principales obstáculos ha sido la compatibilidad con PyTorch, plataforma respaldada por Meta y ampliamente utilizada por desarrolladores de IA.
Hasta ahora, las TPU estaban más optimizadas para Jax, un framework promovido internamente por Google, lo que obligaba a las empresas a realizar ajustes técnicos costosos y complejos.
Con TorchTPU, Google pretende eliminar esa barrera y facilitar que los desarrolladores puedan usar PyTorch de forma directa y eficiente en sus chips. Incluso se analiza la posibilidad de liberar parte del software como código abierto para acelerar su adopción.
A diferencia de intentos anteriores, este proyecto cuenta con mayor respaldo interno, recursos y peso estratégico, impulsado por la creciente demanda de clientes que ven en el software un cuello de botella.
El dominio de Nvidia no se explica solo por su hardware, sino por su ecosistema de software CUDA, profundamente integrado con PyTorch. Durante años, los ingenieros de Nvidia han optimizado esta combinación para lograr el máximo rendimiento, lo que ha dificultado la entrada de competidores. Google, en cambio, construyó gran parte de su pila de software en torno a Jax y XLA, ampliando la brecha entre el uso interno de sus chips y las necesidades de sus clientes.
Un portavoz de Google Cloud confirmó que la iniciativa busca ofrecer mayor flexibilidad a los desarrolladores. “Estamos viendo una demanda acelerada de nuestra infraestructura de TPU y GPU. Nuestro objetivo es dar opciones y escala, sin importar el hardware que elijan”, señaló.
Alianza estratégica con Meta
Para acelerar el desarrollo, Google trabaja de cerca con Meta, creador y principal impulsor de PyTorch.
Ambas compañías han discutido acuerdos para ampliar el acceso de Meta a las TPU, en un intento por reducir costos de inferencia y diversificar su infraestructura de IA, actualmente muy dependiente de Nvidia.
Meta ve en esta colaboración una oportunidad para ganar poder de negociación y disminuir su dependencia de un solo proveedor.
Además, Google ha comenzado a vender TPU directamente para centros de datos de clientes, no solo a través de su nube.
Este cambio forma parte de una reorganización interna que incluye el nombramiento de Amin Vahdat como nuevo jefe de infraestructura de IA, reportando directamente al CEO Sundar Pichai.
Si tiene éxito, TorchTPU podría reducir significativamente los costos de cambio para las empresas que buscan alternativas a las GPU de Nvidia, alterando el equilibrio en la carrera global por el liderazgo en infraestructura de inteligencia artificial.
