
Nvidia firma un acuerdo millonario con Groq para reforzar su posición en los chips de inferencia de IA
Nvidia vuelve a recurrir a la chequera para afianzar su liderazgo en la industria de la inteligencia artificial. La compañía estadounidense ha cerrado un acuerdo de licencia no exclusiva con Groq, una startup especializada en chips para inferencia de IA. Aunque las empresas no han hecho público el importe, CNBC cifra la operación en unos 20.000 millones de dólares, una cantidad que situaría el acuerdo entre los más relevantes de la historia del sector.
Como parte de esta alianza, Jonathan Ross, fundador y consejero delegado de Groq, Sunny Madra, presidente de la compañía, y otros miembros clave del equipo se incorporarán a Nvidia para impulsar el desarrollo de la tecnología licenciada. Groq, por su parte, seguirá operando como empresa independiente bajo la dirección de su actual director financiero, Simon Edwards, que asumirá el liderazgo ejecutivo.
Más allá del entrenamiento: la batalla por la inferencia
Nvidia domina desde hace años el mercado de las GPU para entrenamiento de modelos de inteligencia artificial, pero el ciclo de vida de estos sistemas no termina ahí. Una vez entrenados, los modelos deben aplicar lo aprendido para responder, predecir o tomar decisiones en tiempo real. Ese proceso, conocido como inferencia, se ha convertido en un cuello de botella clave a medida que los modelos crecen en tamaño y complejidad.
Es en este terreno donde Groq ha centrado su apuesta tecnológica. La compañía ha desarrollado un chip específico denominado Unidad de Procesamiento de Lenguaje (LPU), diseñado para ejecutar inferencias de forma más rápida y eficiente que las arquitecturas tradicionales.
En agosto de 2024, Groq aseguró que su motor de inferencia podía ejecutar modelos de IA generativa existentes hasta diez veces más rápido y con un consumo energético diez veces menor. Una mejora que se traduce en respuestas más inmediatas y una interacción más natural entre usuarios y sistemas de IA, un factor crítico para aplicaciones en tiempo real.
La estrategia de Nvidia
En una carta dirigida a los empleados, Jensen Huang, director ejecutivo de Nvidia, explicó que la compañía planea integrar los procesadores de baja latencia de Groq en su arquitectura de IA, con el objetivo de ampliar su plataforma y cubrir un abanico más amplio de cargas de trabajo de inferencia en tiempo real. Huang subrayó también que, pese a la incorporación de talento y a la licencia de propiedad intelectual, Nvidia no ha adquirido Groq como empresa.
El importe de 20.000 millones de dólares mencionado por CNBC no ha sido confirmado oficialmente, pero tampoco ha recibido desmentido por parte de Nvidia. Lo que sí está claro es la dirección estratégica: si el entrenamiento fue la primera gran batalla de la IA, la inferencia apunta a ser la siguiente.
Un rival con experiencia en Google
Groq se fundó en 2016 por un equipo liderado por Jonathan Ross, ingeniero que durante su etapa en Google participó en el desarrollo de la TPU (Tensor Processing Unit), uno de los principales chips personalizados para acelerar tareas de IA, tanto en entrenamiento como en inferencia. Precisamente las TPU de Google figuran entre los pocos rivales capaces de plantar cara a Nvidia en este terreno.
Con este acuerdo, Nvidia busca adelantarse a una nueva fase del mercado. Los modelos de IA ya han escalado a tamaños masivos y ahora el foco se desplaza hacia cómo ejecutarlos de forma más rápida, eficiente y barata. En esa carrera, la inferencia se perfila como el próximo gran campo de batalla, y Nvidia no quiere llegar tarde.
Fuente: techcrunch