Multiverse Computing, startup de compresión de modelos de inteligencia artificial inspirada en la cuántica, ha anunciado una ronda de inversión Serie B de 189 millones de euros (215 millones de dólares). Esta financiación, liderada por Bullhound Capital, impulsará la adopción generalizada de su tecnología CompactifAI, capaz de reducir el tamaño de los Modelos de Lenguaje de Gran Tamaño (LLM) hasta en un 95% sin comprometer su rendimiento.
La ronda de inversión cuenta con el respaldo de inversores de primer nivel, incluyendo a HP Tech Ventures, SETT, Forgepoint Capital International, CDP Venture Capital, Santander Climate Fund, Quantonation, Toshiba y Capital Riesgo de Euskadi - Grupo SPRI. Esta amplia base de apoyo global permitirá a la compañía vasca acelerar su misión de abordar los elevados costes que actualmente limitan la implementación de los LLM, con el objetivo de revolucionar el mercado de inferencia de IA, valorado en 106.000 millones de dólares.
Los LLM tradicionales suelen requerir infraestructuras especializadas basadas en la nube, lo que incrementa significativamente los costes de los centros de datos. Si bien las técnicas de compresión convencionales como la cuantización y la poda intentan mitigar estos desafíos, a menudo resultan en un rendimiento inferior al de los modelos originales. Multiverse Computing ha encontrado un nuevo enfoque con CompactifAI.
"La creencia predominante es que reducir el tamaño de los LLM tiene un coste. Multiverse está cambiando eso", afirma Enrique Lizaso Olmos, fundador y CEO de Multiverse Computing. "Lo que comenzó como un avance en la compresión de modelos demostró rápidamente ser transformador, desbloqueando nuevas eficiencias en la implementación de la IA y logrando una rápida adopción por su capacidad para reducir drásticamente los requisitos de hardware para ejecutar modelos de IA".
Los modelos generados por CompactifAI son versiones altamente comprimidas de los LLM de código abierto que mantienen la precisión original, son entre 4 y 12 veces más rápidos y logran una reducción de costes de inferencia del 50% al 80%. Estos modelos comprimidos, asequibles y energéticamente eficientes, pueden ejecutarse en la nube, en centros de datos privados o, en el caso de LLM ultracomprimidos, directamente en dispositivos como ordenadores, teléfonos, automóviles, drones e incluso en una Raspberry Pi.
La tecnología CompactifAI se desarrolló utilizando Tensor Networks, un enfoque inspirado en la computación cuántica para simplificar las redes neuronales. Román Orús, cofundador y director científico de Multiverse Computing, explica: "Por primera vez en la historia, somos capaces de perfilar el funcionamiento interno de una red neuronal para eliminar miles de millones de correlaciones espurias y optimizar realmente todo tipo de modelos de IA". Actualmente, ya están disponibles versiones comprimidas de los modelos Llama, DeepSeek y Mistral, y se espera que pronto se añadan más modelos.