San Sebastián, 12 jun (EFE).- La empresa donostiarra Multiverse Computing ha cerrado una ronda de financiación de 189 millones de euros para escalar su innovadora tecnología CompactifAI, para la compresión de modelos de inteligencia artificial (IA).
Según informa la compañía en una nota, tras dedicar el año pasado al desarrollo de una tecnología capaz de comprimir modelos de lenguaje de gran tamaño (LLMs) hasta un 95 % manteniendo su rendimiento, y a implementarla con clientes seleccionados, la compañía anunciado este lunes esta ronda de Serie B, liderada por Bullhound Capital.
La ronda cuenta con el respaldo de inversores de primer nivel como HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate VC, Quantonation, Toshiba, Capital Riesgo de Euskadi-Grupo SPRI y Kutxa Fundazioa.
Red de inversores
De esta manera, Multiverse Computing ha logrado reunir una sólida red de inversores internacionales y estratégicos para impulsar esta nueva etapa.
La inversión permitirá acelerar la adopción generalizada de la tecnología, haciendo frente a los elevados costes que hoy limitan la implementación de modelos de los LLMs, y revolucionar así el mercado de inferencia de inteligencia artificial, valorado en 106.030 millones de dólares.
Los LLMs suelen ejecutarse en infraestructuras especializadas basadas en la nube, lo que eleva considerablemente los costes de los centros de datos.
Según explica Multiverse Computing, las técnicas de compresión tradicionales (como la cuantización y la poda) intentan mitigar estos desafíos, pero los modelos resultantes tienden a ofrecer un rendimiento muy inferior al de los LLMs originales.
Ahora, con el desarrollo de CompactifAI, la empresa vasca ha dado con un nuevo enfoque, ya que genera versiones altamente comprimidas de los modelos LLM de código abierto más avanzados del mercado, que conservan la precisión original, funcionan entre 4 y 12 veces más rápidos y permiten reducir los costes de inferencia entre un 50 % y un 80 %.
Estos modelos comprimidos, asequibles y energéticamente eficientes pueden ejecutarse en la nube, en centros de datos privados o, en el caso de los LLMs ultracomprimidos, directamente en dispositivos como PCs, teléfonos, automóviles, drones o incluso en una ‘Raspberry PI’.
«Hasta ahora se asumía que reducir el tamaño de los LLMs implicaba sacrificar rendimiento. Multiverse está cambiando esa idea», afirma Enrique Lizaso Olmos, fundador y CEO de la empresa.
«Lo que comenzó como un avance en la compresión de modelos se ha convertido en una tecnología transformadora: abriendo nuevas posibilidades de eficiencia en el despliegue de la IA y logrando una rápida adopción gracias a su capacidad para reducir de forma radical los requisitos de hardware necesarios para ejecutar modelos de IA», aclara.
Inversores expertos y estratégicos
Lizaso avanza además que ahora, «con un grupo único de inversores expertos y estratégicos a nivel global, y con Bullhound Capital como inversor principal», la firma podrá «seguir avanzando en su apuesta por ofrecer modelos de IA comprimidos con un rendimiento excepcional y una infraestructura mínima».
CompactifAI se desarrolló utilizando Tensor Networks, un enfoque inspirado en la computación cuántica que permite simplificar redes neuronales.
Se trata de un campo de estudio especializado, impulsado por el cofundador y director científico de Multiverse, Román Orús, quien detalla que ahora, «por primera vez en la historia, somos capaces de analizar en detalle el funcionamiento interno de una red neuronal para eliminar miles de millones de correlaciones espurias y optimizar verdaderamente todo tipo de modelos de IA».



Deja un comentario