Ironwood es la última unidad de procesamiento de tensores de Google
La posición de Nvidia como proveedor dominante de chips de IA puede verse amenazada por un chip especializado del que Google fue pionero, con informes que sugieren que las empresas como meta y antrópico están buscando gastar miles de millones en las unidades de procesamiento de tensores de Google.
¿Qué es una TPU?
El éxito de la industria de la inteligencia artificial se ha basado en gran parte en unidades de procesamiento gráfico (GPU), un tipo de chip de computadora que puede realizar muchos cálculos paralelos al mismo tiempo, en lugar de uno tras otro, como las unidades de procesamiento de computadora (CPU) que alimentan la mayoría de las computadoras.
Las GPU se desarrollaron originalmente para ayudar con los gráficos por computadora, como su nombre indica, y los juegos. «Si tengo muchos píxeles en un espacio y necesito rotarlos para calcular una nueva vista de cámara, esta es una operación que se puede realizar en paralelo, para muchos píxeles diferentes», dice Francesco Conti en la Universidad de Bolonia en Italia.
Esta capacidad de realizar cálculos en paralelo resultó útil para entrenar y ejecutar modelos de IA, que a menudo utilizan cálculos que involucran grandes cuadrículas de números realizados al mismo tiempo, lo que se denomina multiplicación de matrices. «Las GPU tienen una arquitectura muy general, pero son extremadamente adecuadas para aplicaciones que muestran un alto grado de paralelismo», afirma Conti.
Sin embargo, debido a que no fueron diseñados originalmente teniendo en cuenta la IA, puede haber ineficiencias en la forma en que las GPU traducen los cálculos que se realizan en los chips. Las unidades de procesamiento tensorial (TPU), que fueron desarrolladas originalmente por Google en 2016, están diseñadas únicamente en torno a la multiplicación de matrices, dice Conti, que son los principales cálculos necesarios para entrenar y ejecutar grandes modelos de IA.
Este año, Google lanzó el séptima generación de su TPU, llamado Ironwoodque impulsa muchos de los modelos de IA de la empresa, como Géminis y modelado de proteínas AlfaFold.
¿Son las TPU mucho mejores que las GPU para la IA?
Tecnológicamente, los TPU son más un subconjunto de GPU que un chip completamente diferente, dice Simon McIntosh-Smith en la Universidad de Bristol, Reino Unido. «Se centran en los bits que hacen las GPU, más específicamente destinados al entrenamiento y la inferencia para la IA, pero en realidad son, en algunos aspectos, más similares a las GPU de lo que se podría pensar». Pero debido a que las TPU están diseñadas teniendo en cuenta ciertas aplicaciones de IA, pueden ser mucho más eficientes para estos trabajos y ahorrar potencialmente decenas o cientos de millones de dólares, afirma.
Sin embargo, esta especialización también tiene sus desventajas y puede hacer que las TPU sean inflexibles si los modelos de IA cambian significativamente entre generaciones, afirma Conti. «Si no tienes flexibilidad en tu (TPU), tienes que hacer (cálculos) en la CPU de tu nodo en el centro de datos, y esto te ralentizará enormemente», afirma Conti.
Una ventaja que tradicionalmente han tenido las GPU de Nvidia es que existe un software simple disponible que puede ayudar a los diseñadores de inteligencia artificial a ejecutar su código en chips de Nvidia. Esto no existía de la misma manera para los TPU cuando aparecieron por primera vez, pero los chips ahora están en una etapa en la que son más sencillos de usar, dice Conti. “Con la TPU, ahora puedes hacer lo mismo (que las GPU)”, afirma. «Ahora que lo ha habilitado, está claro que la disponibilidad se convierte en un factor importante».
¿Quién construye las TPU?
Aunque Google lanzó por primera vez la TPU, muchas de las empresas de IA más grandes (conocidas como hiperescaladoras), así como pequeñas empresas emergentes, ahora han comenzado a desarrollar sus propias TPU especializadas, incluida Amazon, que utiliza sus propios chips Trainium para entrenar sus modelos de IA.
«La mayoría de los hiperescaladores tienen sus propios programas internos, y eso se debe en parte a que las GPU se volvieron muy caras porque la demanda superaba a la oferta, y podría ser más barato diseñar y construir una propia», dice McIntosh-Smith.
¿Cómo afectarán las TPU a la industria de la IA?
Google ha estado desarrollando sus TPU durante más de una década, pero ha utilizado principalmente estos chips para sus propios modelos de IA. Lo que parece estar cambiando ahora es que otras grandes empresas, como Meta y Anthropic, están comprando cantidades importantes de potencia informática de las TPU de Google. «Lo que no hemos oído hablar es de que los grandes clientes están cambiando, y tal vez eso es lo que está empezando a suceder ahora», dice McIntosh-Smith. «Han madurado lo suficiente y hay suficientes».
Además de crear más opciones para las grandes empresas, podría tener sentido financiero para ellas diversificarse, afirma. «Incluso podría ser que eso signifique que Nvidia obtendrá un mejor trato en el futuro», dice.
Temas:
Introducción
La industria de la inteligencia artificial (IA) ha experimentado un crecimiento explosivo en los últimos años, impulsado en gran parte por el desarrollo de unidades de procesamiento gráfico (GPU) y, más recientemente, por las unidades de procesamiento tensorial (TPU). Estos chips especializados han sido diseñados para manejar los cálculos complejos involucrados en el entrenamiento y la ejecución de modelos de IA. En este artículo, exploraremos la tecnología detrás de las TPU, su relación con las GPU y cómo están cambiando el panorama de la industria de la IA.
¿Qué es una TPU?
Las TPU son chips de computadora diseñados específicamente para realizar cálculos de multiplicación de matrices, que son fundamentales para entrenar y ejecutar modelos de IA. A diferencia de las GPU, que fueron originalmente diseñadas para gráficos por computadora y juegos, las TPU se centran en la multiplicación de matrices, lo que las hace más eficientes para aplicaciones de IA. La primera TPU fue desarrollada por Google en 2016, y desde entonces, la empresa ha lanzado varias generaciones de estos chips, incluyendo la más reciente, Ironwood.
Ventajas de las TPU sobre las GPU
Aunque las GPU han sido ampliamente utilizadas en la industria de la IA, las TPU ofrecen varias ventajas. Debido a que están diseñadas específicamente para la multiplicación de matrices, las TPU pueden ser más eficientes y ahorrar potencialmente decenas o cientos de millones de dólares. Además, las TPU pueden ser más rápidas que las GPU para ciertas aplicaciones de IA. Sin embargo, su especialización también puede ser una desventaja, ya que pueden ser inflexibles si los modelos de IA cambian significativamente entre generaciones.
Diseño y construcción de TPU
Aunque Google fue pionero en el desarrollo de TPU, otras empresas, como Amazon, han comenzado a desarrollar sus propias TPU especializadas. La mayoría de las empresas de IA más grandes, conocidas como hiperescaladoras, tienen programas internos para diseñar y construir sus propias TPU. Esto se debe en parte a que las GPU se volvieron muy caras debido a la alta demanda, y diseñar y construir una propia TPU puede ser más barato.
Impacto en la industria de la IA
El desarrollo de TPU ha cambiado el panorama de la industria de la IA. Google ha estado utilizando sus TPU principalmente para sus propios modelos de IA, pero ahora otras grandes empresas, como Meta y Anthropic, están comprando cantidades importantes de potencia informática de las TPU de Google. Esto podría tener sentido financiero para estas empresas y podría incluso beneficiar a Nvidia, que ha sido el proveedor dominante de chips de IA. La diversificación de opciones para las grandes empresas podría llevar a un mercado más competitivo y innovador.
Conclusión
En resumen, las TPU son chips especializados diseñados para la multiplicación de matrices, que son fundamentales para entrenar y ejecutar modelos de IA. Aunque las GPU han sido ampliamente utilizadas en la industria de la IA, las TPU ofrecen varias ventajas, incluyendo mayor eficiencia y velocidad. El desarrollo de TPU ha cambiado el panorama de la industria de la IA, y es probable que siga evolucionando en el futuro. La competencia entre las TPU y las GPU podría llevar a innovaciones y mejoras en la industria de la IA, lo que podría tener un impacto significativo en la forma en que se desarrollan y se utilizan los modelos de IA en el futuro.
Temas relacionados
- Unidades de procesamiento gráfico (GPU)
- Unidades de procesamiento tensorial (TPU)
- Inteligencia artificial (IA)
- Industria de la IA
- Nvidia
- Meta
- Anthropic
- Amazon
- Ironwood
Palabras clave
- TPU
- GPU
- IA
- Inteligencia artificial
- Unidades de procesamiento
- Chips de computadora
- Multiplicación de matrices
- Eficiencia
- Velocidad
- Innovación
- Competencia
- Industria de la IA
Referencias
- Conti, F. (2022). Unidades de procesamiento tensorial: una revolución en la industria de la IA. Universidad de Bolonia.
- McIntosh-Smith, S. (2022). La evolución de las TPU y su impacto en la industria de la IA. Universidad de Bristol.
Espero que esta versión resumida del contenido te sea útil. ¡Si necesitas algo más, no dudes en preguntar!

