“Utilizamos la cuántica para democratizar la IA”

Multiverse Computing favorece el uso de los sistemas de inteligencia artificial entre las empresas “a través de una herramienta de compresión que reduce al límite su tamaño, abaratando en un 50% la factura de uso y permitiendo su utilización sin conexión a la nube”, según explica Enrique Lizaso, cofundador y CEO de la compañía.

Con el apoyo de:

This is some text inside of a div block.
This is some text inside of a div block.

Foto:

ENRIQUE LIZASO
EMPRESA XXI
Y el Mejor Empresario Vasco del Año 2021 es...
REGISTRO
Cristina Camargo
San Sebastián
17/6/2025

> A la espera del desarrollo de los ordenadores cuánticos, Multiverse aplica elementos de la cuántica a problemas actuales. ¿En qué consiste su aportación?

Utilizamos herramientas inspiradas en la cuántica para comprimir los modelos de lenguaje grandes (LLM) de IA, como ChatGPT, Anthropic, etcétera. ¿Por qué es importante comprimirlos? Porque el coste de hacerlos funcionar se reduce a la mitad, a la cuarta parte o, incluso, menos, y entonces salen mucho más baratos. Igual te suena esa historia de que los modelos de lenguaje consumen mucha electricidad, de que estamos poniendo Data Centers porque tampoco hay capacidad de cómputo..., y que, en cambio, todo el mundo utiliza el ChatGPT y estas cosas . Todo eso es cierto. Entonces, lo que hace Multiverse al comprimirlos es reducir esos consumos de electricidad y esos costes. Esto está basado en las técnicas cuánticas que hemos desarrollado y patentado durante los últimos cinco años, desde que montamos la empresa en 2019. Es la única compañía a nivel mundial que está aplicando todo este tipo de tecnologías cuánticas y consiguiendo reducir tanto esos modelos, manteniendo, además, la precisión de los mismos.

> ¿Cómo hacen accesible este avance?

De lo que nosotros hacemos hay dos cosas que podemos vender. Podemos vender la herramienta, denominada ‘CompactifAI’, para que la gente comprima los modelos, o podemos comprimir los modelos y venderlos comprimidos. El negocio para nosotros está en comprimir un modelo una vez y venderlo muchas veces. Comprimimos modelos extraordinariamente grandes como los de la familia Llama 4 que ha lanzado Meta, o DeepSeek, el modelo chino. Pero también tenemos modelos muy pequeños. Modelos que cabrían en el tamaño de la sinapsis del cerebro de la mosca de la fruta. Estos modelos excepcionalmente pequeños saben hablar, razonan un poquito y son capaces de funcionar desde el móvil o desde procesadores muy pequeños. En el futuro podrán funcionar desde la nevera, la lavadora o desde drones. Esos modelos extraordinariamente pequeños los entregamos a las empresas. Se les envían y ellos los instalan. A los grandes, por su parte, se podrá acceder directamente en los próximos días a través de uno de los ‘marketplaces’ más populares y demandados del mercado.

> ¿Crean modelos además de comprimirlos?

Podemos crear modelos de lenguaje y, de hecho, alguna vez hemos desarrollado alguno pequeñito, aunque no los hacemos porque hacer un modelo desde cero es muy caro. En cambio, comprimir los modelos de Open Access, que están abiertos al público y son los que las empresas quieren utilizar, es mucho más fácil. Son conocidos y ya funcionan, el único problema que tienen es que son demasiado caros. De todas formas, si en el futuro Europa quedara aislada por efecto de barreras tecnológicas tenemos esa capacidad de crear modelos de cero.

> ¿Cuáles son los principales modelos de lenguaje?

Los principales son Chat GPT, de Open IA; Anthropic, que tiene inversión de Amazon; y Llama, de Meta, la más utilizada a parte de OpenAI. Todos, de EE. UU. En Europa, está la empresa francesa Mistral. Y luego, en China, están DeepSheek y Kwen.

> ¿Qué ventaja aportan al comprimirlos?

Estos modelos, que son los que utiliza la gente, son gratuitos, de código abierto. Los puedes coger de los principales proveedores de nube y descargártelos. Descargarlos es gratis, pero al ejecutarlos estás consumiendo recursos del proveedor de nube, y eso es lo que es extremadamente caro. Principalmente, para las grandes compañías, que los despliegan en todas las oficinas o para todos los usuarios a través de un modelo centralizado. En este caso, la factura de la nube por el uso es tremenda. Nosotros los comprimimos y los ponemos en esos proveedores de nube. Son mucho más baratos y nos llevamos una parte de esos ingresos.

> ¿Compran los modelos para poder comprimirlos?

No. Los modelos que comprimimos nosotros son ‘Open Source’, lo que significa que tú puedes coger ese modelo y utilizarlo.

> Otra ventaja de sus modelos es que pueden funcionar sin conexión a internet.

A través de la compresión podemos reducir estos modelos hasta el punto en que se pueden desplegar directamente en dispositivos, de forma que ya no necesitas una conexión a la nube para conectarte a ChatGPT. En el caso de los micromodelos, que, por ejemplo, se instalan en vehículos para aplicaciones de control o en drones para funciones de vigilancia, resulta fundamental porque desliga su funcionamiento de posibles fallos de conexión. En el caso de los modelos más grandes, que las empresas aplican al desarrollo de su actividad, la compresión los reduce hasta permitir su despliegue en local. Esto es clave para clientes como administraciones, defensa, salud o finanzas, que por cuestiones de privacidad y seguridad de datos necesitan que funcionen sin conexión a la nube.

> ¿Consiguen hacerlos más accesibles?

Ciertamente. Los democratizamos a base de hacerlos más baratos. Esto que, a veces, también se clasifica como computación verde o algoritmos verdes, para nosotros significa hacerlos más económicos. Estamos consumiendo menos energía y eso se traduce de forma inmediata en menor precio. Las empresas suelen entender este tipo de computación verde muy bien.

> ¿Cómo llegan a este gran hallazgo?

Fue una cosa bastante curiosa que nos pasó cuando trabajábamos con soluciones puramente cuánticas, para ordenadores cuánticos. Esta compresión corre en ordenadores tradicionales. Estábamos con un proyecto para la empresa de automoción Bosch para mejorar una solución de IA que tenían en una planta. Era un sistema de detección de piezas defectuosas que querían que funcionara sin conexión porque la línea de montaje avanza y no te puedes permitir un retraso en las comunicaciones. Así que desarrollamos una serie de técnicas para hacer el modelo más pequeño y que pudiera funcionar en local. En 2024 nos preguntamos si podríamos aplicar esta técnica de compresión a los modelos de lenguaje, cuyo uso está muy en boga, pero que presenta un problema de consumo y de coste muy gordo. Lo intentamos y funcionó muy bien. Tras ver que había interés entre los clientes en estos modelos comprimidos por el tema de ahorro, decidimos lanzarlo masivamente al mercado y empezamos a hablar con los grande proveedores de nube.

> ¿Cómo se realiza la compresión?

Tiene varias partes. La primera es lo que se denomina un ‘profiling’. Miramos el modelo y lo convertimos a un esquema muy específico que viene de la cuántica y que se fija en cómo está distribuida la información dentro del modelo y cómo se correlacionan sus diferentes partes. Sirve para determinar qué partes del modelo puedes quitar. Luego viene la compresión en sí misma, que es muy rápida porque ya has hecho el análisis en el ‘profiling’. Ahí lo único que tienes que hacer es recortar. La más costosa es el ‘healing’ o curado, que consiste en la rehabilitación del modelo después de la compresión. Es un entrenamiento ligero que recupera todas sus funciones. Puede durar desde un día hasta varias semanas.

> ¿Son técnicas cuánticas?

Sí. Todas las técnicas vienen de la cúantica: análisis, compresión y reentrenado. En cuántica haces programas para ordenadores cuánticos o bien para ordenadores normales inspirados en la cuántica. Estas técnicas pertenecen a este segundo tipo.

> ¿Qué podemos esperar de los ordenadores cuánticos?

Cuando los ordenadores cuánticos estén desarrollados del todo, esto que hacemos en los clásicos lo podrán hacer de manera mucho más rápida. Ganarán siempre.

> ¿Qué planes tiene Multiverse Computing?

En el marco de la compresión, tenemos que cerrar esos acuerdos con los principales proveedores de nube y empezar a vender mucho, además de desarrollar nuevas técnicas. El otro objetivo es conquistar el mercado americano, donde están la mayoría de las compañías. En Europa estamos muy bien posicionados.

> ¿En qué sectores están presentes?

Nos gusta decir que estamos en el negocio del cambio de baterías: ‘En lugar de usar la pila que te vende OpenAI, saca esa pila, que es muy cara, y pon la mía’. Trabajamos para finanzas, salud industria o las administraciones. En general, para aquellos que quieran ahorrarse buena parte de la factura o, además, quieran usar los modelos en sus ordenadores, no en la nube.

> ¿Qué aplicaciones tiene la IA?

Se usa para lo que se llama el ‘employment aumentation’: proveer a los empleados de unas capacidades de análisis y de procesamiento de información mucho más altas. Permiten lidiar con problemas de complejidad técnica en los centros. Desde el mantenimiento de maquinaria en la industria hasta el análisis de datos desestructurados por parte de bancos y administraciones.

> ¿Cuál es el papel de la compañía de cara a la autonomía estratégica europea?

Los fabricantes de los modelos tradicionales se llevan la mayor parte del mercado. OpenAI, Antropic... En cambio, proveedores de este tipo, de modelos pequeñitos y más baratos, hay menos. Estamos nosotros y alguna compañía americana. En ese sentido, un panorama geoestratégico complicado nos puede beneficiar, ya que, excepto Mistral, todos son americanos. Cuanto más complicadas sean las relaciones con EE. UU. y en defensa, la UE siente más la necesidad de tener sus propias empresas en estos sectores que son estratégicos porque están en la base de todos los desarrollos de IA y de cuántica, lo que nos convierte en una empresa europea estratégica.

> ¿Están cerrando una ronda de financiación?

Sí. Esperamos poder cerrar pronto la composición de una ronda de financiación, que es la manera que tienen de crecer de las ‘startups’ como la nuestra: ampliar capital con la entrada de nuevos de accionistas. La inversión de 67 millones anunciada el pasado marzo por el Gobierno se enclava en esta ronda.

Con el apoyo de:

CARA O CRUZ

LegalCookiesCondicionesSuscripcionesContactoNosotros

Todos los derechos reservados Industria y Comunicación S.A.