(Bloomberg/Dina Bass y Emily Forgash) — Mientras se domina una industria de chips de IA impulsada casi en su totalidad por Nvidia Corp., un chip de Google que se desarrolló por primera vez específicamente para tareas de inteligencia artificial hace más de 10 años finalmente está ganando importancia fuera de su empresa matriz para entrenar y ejecutar modelos complejos de IA.
Anthropic PBC anunció el jueves un acuerdo con Google de Alphabet Inc. para proporcionar a la startup de inteligencia artificial más de un gigavatio de potencia informática adicional por valor de decenas de miles de millones de dólares. El acuerdo otorga a Anthropic acceso a hasta 1 millón de Unidades de Procesamiento Tensor de Google, o TPU, los chips de la compañía diseñados específicamente para acelerar las cargas de trabajo de aprendizaje automático, y amplía su uso de los servicios en la nube del gigante de Internet.
Mientras los rivales en la industria de la IA luchan por mantenerse al día con la creciente demanda, buscan formas de aumentar su potencia informática sin depender del acceso a los chips aceleradores de Nvidia, tanto para aliviar la dependencia de los costosos productos del gigante de los chips como para mitigar el impacto de la escasez. Si bien Anthropic ya es cliente de TPU, el espectacular aumento de la implementación es uno de los respaldos más sólidos a la tecnología de Google hasta el momento y representa una victoria para su negocio de nube, muy por detrás de Amazon.com Inc. y Microsoft Corp. se ha quedado atrás.
El creciente interés en los TPU probablemente atraerá la atención de otras nuevas empresas de inteligencia artificial y nuevos clientes hacia la nube de Google, lo que ayudará a la empresa a aprovechar sus años de inversión en el chip.
El negocio de nube de Google reportó ganancias operativas de 2.800 millones de dólares en el segundo trimestre, más del doble que en el mismo trimestre del año pasado. Las acciones de Alphabet subieron ligeramente en las operaciones previas a la comercialización del viernes.
El acuerdo de Google con Anthropic es una “validación realmente poderosa de los TPU” que podría lograr que más empresas los prueben, dijo el analista de Seaport Jay Goldberg. “Mucha gente ya ha pensado en ello y probablemente haya mucha más gente pensando en ello ahora”.
Las unidades de procesamiento de gráficos, o GPU, la parte del mercado de chips dominada por Nvidia, fueron diseñadas para acelerar la representación de gráficos -principalmente en videojuegos y otras aplicaciones de efectos visuales- pero demostraron ser muy adecuadas para entrenar modelos de IA debido a su capacidad para manejar grandes cantidades de datos y cálculos. Los TPU, por otro lado, son un tipo de producto especializado llamado circuitos integrados de aplicación específica, o microchips, diseñados para un propósito discreto.
Google empezó a trabajar en su primer TPU en 2013 y lo lanzó dos años después. Originalmente fue diseñado para acelerar el motor de búsqueda web de la empresa y aumentar la eficiencia. Google comenzó a integrar TPU en su plataforma en la nube en 2018, lo que permitió a los clientes registrarse en servicios informáticos que se ejecutan en la misma tecnología que impulsaba el motor de búsqueda.
También se ha adaptado como acelerador de tareas de IA y aprendizaje automático en las propias aplicaciones de Google. Debido a que Google y su unidad DeepMind desarrollan modelos de inteligencia artificial de vanguardia como Gemini, la compañía ha podido transmitir las lecciones de los equipos de inteligencia artificial a los diseñadores de chips, mientras que los equipos de inteligencia artificial se benefician de la capacidad de personalizar los chips.
“Cuando construimos nuestro primer sistema basado en TPU hace poco más de una década, en realidad se trataba de resolver algunos de nuestros desafíos de escalamiento interno”, dijo Mark Lohmeyer, vicepresidente y gerente general de IA e infraestructura informática de Google Cloud, en un discurso en una conferencia en septiembre. “Cuando luego pusimos esa potencia informática en manos de nuestros investigadores de Google DeepMind y otros, en muchos sentidos eso permitió directamente la invención del transformador”, dijo, refiriéndose a la innovadora arquitectura de IA propuesta por Google que se ha convertido en la base de los modelos actuales.
Los chips de Nvidia se han convertido en el estándar de oro en el mercado de la IA porque la empresa lleva mucho más tiempo fabricando GPU que nadie. Además, son potentes, se actualizan con frecuencia, ofrecen un conjunto completo de software asociado y son lo suficientemente universales como para usarse en una variedad de tareas. Sin embargo, debido al rápido aumento de la demanda, también son caros y escasean crónicamente desde hace varios años.
Los TPU, por otro lado, a menudo pueden funcionar mejor en cargas de trabajo de IA porque están diseñados específicamente para ese propósito, dijo Goldberg de Seaport, quien rara vez califica las acciones de Nvidia como una “venta”. Eso significa que la empresa puede “eliminar muchas otras partes del chip” que no están diseñadas para la IA, dijo. Ahora, en la séptima generación del producto, Google ha mejorado el rendimiento de los chips, haciéndolos más potentes y reduciendo la energía necesaria para utilizarlos, haciéndolos más rentables para operar.
Los clientes actuales de TPU incluyen Safe Superintelligence, la startup fundada el año pasado por el cofundador de OpenAI, Ilya Sutskever, así como Salesforce Inc. y Midjourney, así como Anthropic.
Las empresas que quieran utilizar las TPU de Google primero deben registrarse para alquilar potencia informática en la nube de Google. Pero eso podría cambiar pronto: el acuerdo de Anthropic hace que la expansión a otras nubes sea más probable, dijeron analistas de Bloomberg Intelligence.
“El posible acuerdo de Google con Anthropic sugiere una mayor comercialización de las unidades de procesamiento Tensor del primero más allá de Google Cloud hacia otras neonubes”, escribieron Mandeep Singh y Robert Biggar de BI en una nota el miércoles, refiriéndose a empresas más pequeñas que ofrecen potencia informática para IA.
Por supuesto, nadie, ni siquiera Google, pretende sustituir por completo las GPU de Nvidia. Debido al ritmo del desarrollo de la IA, esto no es posible actualmente. Google sigue siendo uno de los mayores clientes de Nvidia a pesar de tener sus propios chips porque la empresa necesita mantener la flexibilidad para los clientes, dijo Gaurav Gupta, analista de Gartner. A medida que cambia el algoritmo o modelo de un cliente, las GPU son más adecuadas para manejar una gama más amplia de cargas de trabajo.
Justin Patterson, analista de Key Banc, está de acuerdo y dice que las unidades de procesamiento Tensor son “menos versátiles” que las GPU más generales. Pero el acuerdo con Anthropic muestra que Google Cloud está ganando participación de mercado y que las TPU son “estratégicamente importantes”, escribió Patterson en una nota a los clientes.
La última versión de la TPU de Google llamada Ironwood se presentó en abril. Está refrigerado por líquido y diseñado para ejecutar cargas de trabajo de inferencia de IA, es decir, utilizar modelos de IA en lugar de entrenarlos. Está disponible en dos configuraciones: una cápsula de 256 chips o una cápsula aún más grande de 9216 chips.
Los veteranos del trabajo de TPU en Google ahora lideran nuevas empresas de chips o proyectos clave en otras importantes empresas de inteligencia artificial. La startup de chips de inferencia Groq está dirigida por Jonathan Ross, quien inició parte del trabajo que dio origen a TPU. Otras personas que trabajaron en TPU de Google, según LinkedIn, incluyen a Richard Ho, vicepresidente de hardware del desarrollador de ChatGPT OpenAI, y Safeen Huda, quien se unió a OpenAI para trabajar en el codiseño de hardware y software.
Al ayudar a difundir las TPU como caballos de batalla de la IA, estos ex empleados de Google continúan extendiendo la influencia de la empresa de Internet en toda la industria de la IA. Los empleados de Google citan años de trabajo como un factor clave para el éxito de su producto.
“Realmente no hay sustituto para este nivel de experiencia”, dijo Lohmeyer de Google en septiembre.
(Actualizaciones con números de Google Cloud y acciones previas a la IPO en el quinto párrafo)
Para más historias como esta, consulte Bloomberg.com
©2025 Bloomberg LP
Publicado originalmente:
















