La startup española Multiverse Computing ha lanzado una aplicación de modelos de IA comprimidos y un portal de API para desarrolladores, apostando por la inteligencia artificial en dispositivos locales en un momento en que las empresas buscan alternativas a la infraestructura de cómputo externa. El movimiento llega cuando los incumplimientos de empresas privadas alcanzan el 9.2%, la tasa más alta en años, según advirtió recientemente la firma de capital riesgo Lux Capital. La compañía ha comprimido modelos de laboratorios importantes como OpenAI, Meta, DeepSeek y Mistral AI para hacerlos funcionar directamente en los dispositivos de los usuarios.

El lanzamiento incluye CompactifAI, una aplicación de chat similar a ChatGPT que integra Gilda, un modelo lo suficientemente pequeño para operar localmente y sin conexión, según informó la empresa. Multiverse también introdujo un portal de API de autoservicio que permite a desarrolladores y empresas acceder directamente a sus modelos comprimidos sin necesidad de plataformas intermediarias como AWS Marketplace.

Modelos de IA comprimidos enfrentan desafíos técnicos

La aplicación CompactifAI permite a los usuarios experimentar con inteligencia artificial en el borde de la red, donde los datos no abandonan sus dispositivos y no requieren conectividad. Sin embargo, existe una limitación importante: los dispositivos móviles deben contar con suficiente RAM y almacenamiento. Cuando los dispositivos no cumplen estos requisitos, como ocurre con muchos iPhones más antiguos, la aplicación cambia automáticamente a modelos basados en la nube a través de API.

Este enrutamiento entre procesamiento local y en la nube es gestionado por un sistema que Multiverse denominó Ash Nazg, en referencia a la inscripción del Anillo Único en “El Señor de los Anillos”. Cuando la aplicación recurre a la nube, pierde su principal ventaja de privacidad en el proceso. Estas limitaciones significan que CompactifAI aún no está lista para la adopción masiva de consumidores, aunque ese posiblemente nunca fue el objetivo principal.

Empresas son el objetivo principal de los modelos comprimidos

Según datos de Sensor Tower, la aplicación registró menos de 5,000 descargas en el último mes. El verdadero objetivo de Multiverse son las empresas y desarrolladores que buscan reducir costos de cómputo y eliminar riesgos de contraparte asociados con proveedores de nube externos. “El portal de API CompactifAI ofrece a los desarrolladores acceso directo a modelos comprimidos con la transparencia y el control necesarios para ejecutarlos en producción”, declaró el CEO Enrique Lizaso en un comunicado.

El monitoreo de uso en tiempo real es una de las características clave de la API, reflejando que los costos más bajos de cómputo son una de las principales razones por las que las empresas consideran modelos pequeños como alternativa a los grandes modelos de lenguaje. Además, los modelos pequeños son menos limitados que antes. Esta semana, Mistral actualizó su familia de modelos pequeños con el lanzamiento de Mistral Small 4, optimizado simultáneamente para chat general, codificación, tareas agénticas y razonamiento.

Resultados recientes muestran avances en rendimiento

Los resultados recientes de Multiverse sugieren que la brecha con los grandes modelos de lenguaje se está reduciendo. Su modelo comprimido más reciente, HyperNova 60B 2602, está construido sobre gpt-oss-120b, un modelo de OpenAI cuyo código subyacente está disponible públicamente. La compañía afirma que ahora ofrece respuestas más rápidas a menor costo que el modelo original del que se derivó, una ventaja que importa particularmente para flujos de trabajo de codificación agéntica, donde la IA completa de forma autónoma tareas de programación complejas de múltiples pasos.

Sin embargo, hacer que los modelos sean lo suficientemente pequeños para operar en dispositivos móviles mientras siguen siendo útiles representa un gran desafío. Apple Intelligence evitó ese problema combinando un modelo en el dispositivo con un modelo en la nube. La aplicación CompactifAI de Multiverse también puede enrutar solicitudes a gpt-oss-120b mediante API, pero su objetivo principal es demostrar que los modelos locales como Gilda ofrecen ventajas que van más allá del ahorro de costos.

Casos de uso empresarial impulsan adopción de IA local

Para trabajadores en campos críticos, un modelo que puede ejecutarse localmente y sin conectarse a la nube ofrece más privacidad y resiliencia. El valor mayor radica en los casos de uso empresarial que esto puede desbloquear, como la integración de inteligencia artificial en drones, satélites y otros entornos donde la conectividad no puede darse por sentada. La empresa ya atiende a más de 100 clientes globales, incluidos el Banco de Canadá, Bosch e Iberdrola.

Ampliar su base de clientes podría ayudar a Multiverse a desbloquear más financiamiento. Después de recaudar una ronda Serie B de $215 millones el año pasado, se rumorea que la compañía está recaudando una nueva ronda de financiamiento de €500 millones con una valoración de más de €1.5 mil millones. La expansión del portal de API y la disponibilidad más amplia de sus modelos comprimidos podrían atraer más desarrolladores y empresas que buscan reducir su dependencia de infraestructura de cómputo externa en un entorno de creciente inestabilidad financiera en la cadena de suministro de IA.

El éxito de Multiverse dependerá de si puede demostrar que sus modelos comprimidos mantienen suficiente capacidad para casos de uso empresariales exigentes mientras operan localmente. A medida que más empresas buscan alternativas a los acuerdos de capacidad de cómputo con proveedores externos, la demanda de soluciones de IA que funcionen en el dispositivo probablemente continuará creciendo. La disponibilidad del nuevo portal de API permitirá a desarrolladores evaluar directamente el rendimiento de estos modelos en sus propios casos de uso, lo que determinará si la tecnología de compresión puede competir efectivamente con los grandes modelos de lenguaje tradicionales.

Compartir.

Fernando Parra Editor Jefe en Social Underground. Periodista especializado en economía digital y tecnología financiera con base en Madrid. Su trabajo se centra en analizar el impacto de los neobancos, la regulación europea y el ecosistema cripto en España. Apasionado por traducir las finanzas complejas en noticias accesibles.

Deja una respuesta