
Imagen de la sede en Madrid de Fujitsu.
Fujitsu renuncia a competir con los grandes en inteligencia artificial, pese a desarrollar un gran modelo en japonés
La firma nipona no desglosa ni las cifras de inversión del grupo en IA ni cuáles son las métricas comparables de su gran modelo, Fugaku-LLM.
Más información: Ni burbuja ni locura, la inteligencia artificial necesita madurar
En mayo del pasado año, dos años después del boom de ChatGPT, la japonesa Fujitsu hacía público su propio modelo de lenguaje largo (LLM). Bajo el nombre de Fugaku-LLM se esconde un sistema de inteligencia artificial generativa, uno de los pocos del mundo desarrollado en un supercomputador (de hecho, en el más potente del mundo, de mismo nombre).
Construido, por tanto, con computación distribuida sobre CPU y no a partir de grandes consumos de GPU. Una noticia prometedora "para el mundo de la investigación y de la empresa", que en aquel momento se prodigó en elogios a su menor consumo y menor coste de inferencia respecto a otros modelos similares, en parte también debido a haber sido entrenado con una base mucho menor a sus contendientes (13.000 millones de parámetros, frente a los 175.000 millones de GPT-4).
Un año más tarde, en el presente, Fujitsu desinfla las expectativas respecto a Fugaku-LLM. Por lo pronto, el desglose indica que este modelo es en realidad una versión adaptada del obsoleto GPT-2, reentrenado para entender el idioma japonés (60% de los datos usados son en esa lengua frente al 40% en inglés).
La naturaleza nipona es la coartada esgrimida por los portavoces de la multinacional a la hora de justificar las incertidumbres alrededor de su gran desarrollo de IA. En rueda de prensa en Madrid, ni Javier Barrachina, Chief Digital Officer, ni el ingeniero Carlos Rodríguez han podido desglosar la inversión total realizada en sus proyectos de inteligencia artificial o qué clientes usan esta tecnología en nuestro país.
Más importante si cabe es la omisión de cuál es el rendimiento que puede alcanzar este modelo o cuál es su coste de inferencia medio. A preguntas de DISRUPTORES - EL ESPAÑOL, Rodríguez aludió a que Fugaku-LLM está "en el 'top10' del benchmark en Japón, pero sin posibilidad de extrapolar comparación alguna con los grandes modelos internacionales disponibles en el mercado.
Estas limitaciones se constatan al comprobar cuál es la dirección estratégica que está tomando Fujitsu respecto a la IA: tomar modelos de terceros y orquestarlos cual plataforma para ofrecerla a los clientes. En otras palabras: confiar en la innovación desarrollada por OpenAI, Mistral, Meta, DeepSeek y otras compañías de menor calado para construir una solución final con la marca de Fujitsu en su exterior.
Contrasta esta renuncia a competir en el corazón de esta revolución tecnológica cuando la compañía presume de ser una de las que más patentes registra en estas lides. También de contar con ocho centros de I+D en todo el mundo (uno en España) dedicados a construir propiedad intelectual en estas lides. O de disponer de un Centro de Excelencia en Data e IA en nuestro país.
¿Dónde está esa innovación, pues? En las áreas no menos importantes que rodean al modelo, desde la mentada orquestación hasta la incorporación de grafos de conocimiento para mejorar la fiabilidad de los datos y el razonamiento lógico. También para asuntos como el enmascaramiento de palabras clave en sistemas RAG o en soluciones de explicabilidad y transparencia de los LLM en cuestión.
"No innovamos sólo en modelos base, sino en sistemas y modelos que permiten construir estructuras de IA para la empresa mucho más robustas", mentaba Barrachina al respecto. Esa es la nueva vía que explora Fujitsu y en la que jugará un papel determinado como integrador de la tecnología de terceros en su aterrizaje real en el tejido productivo.