Multiverse Computing lleva sus modelos de IA comprimidos a la corriente principal

0
27
Multiverse Computing lleva sus modelos de IA comprimidos a la corriente principal

Multiverse Computing lleva sus modelos de IA comprimidos a la corriente principal

Con los impagos de las empresas privadas en más del 9,2% – la tasa más adhesión en abriles – La firma de caudal peligro Lux Haber aconsejó recientemente a las empresas que dependen de la IA para cumplir con sus compromisos de capacidad informática. confirmado por escrito. Con la inestabilidad financiera repercutiendo en la dependencia de suministro de IA, advirtió Lux, un acuerdo de apretón de manos no es suficiente.

Pero existe otra opción, que es dejar de subordinarse por completo de la infraestructura informática externa. Los modelos de IA más pequeños que se ejecutan directamente en el propio dispositivo del usufructuario (sin centro de datos, sin proveedor de nubarrón, sin peligro de contraparte) se están volviendo lo suficientemente buenos como para que valga la pena considerarlos. Y Computación multiverso está levantando la mano.

Hasta ahora, la startup española ha mantenido un perfil más bajo que algunas de sus pares, pero a medida que crece la demanda de eficiencia de la IA, esto está cambiando. A posteriori de comprimir modelos de los principales laboratorios de inteligencia fabricado, incluidos OpenAI, Meta, DeepSeek y Mistral AI, lanzó una aplicación que muestra las capacidades de sus modelos comprimidos y un portal API (una puerta de enlace que permite a los desarrolladores aceptar y construir con esos modelos) que los hace más disponibles.

El Aplicación CompactifAIque comparte su nombre con la tecnología de compresión de inspiración cuántica de Multiverse, es una útil de chat de IA en la renglón de ChatGPT o Le Chat de Mistral. Haga una pregunta y el maniquí responderá. La diferencia es que Multiverse incorporó Gilda, un maniquí tan pequeño que puede ejecutarse localmente y fuera de renglón, según la compañía.

Para los usuarios finales, esta es una muestra de la IA en el borde, con datos que no salen de sus dispositivos y no requieren una conexión. Pero hay una advertencia: sus dispositivos móviles deben tener suficiente RAM y almacenamiento. Si no lo hacen (y muchos iPhones más antiguos no lo hacen), la aplicación vuelve a los modelos basados ​​en la nubarrón a través de API. El enrutamiento entre el procesamiento regional y en la nubarrón se maneja automáticamente mediante un sistema que Multiverse ha llamado Ash Nazg, cuyo nombre les sonará a los fanáticos de Tolkien, ya que hace narración a la inscripción del Anillo Único en “El Señor de los Anillos”. Pero cuando la aplicación se dirige a la nubarrón, pierde su principal delantera de privacidad en el proceso.

Estas limitaciones significan que CompactifAI aún no está despierto para la prohijamiento masiva por parte de los clientes, aunque es posible que ese nunca haya sido el objetivo. Según datos de Sensor Tower, la aplicación tenía menos de 5.000 descargas en el final mes.

El real objetivo son las empresas. Hoy, Multiverse está lanzando un portal API de hipermercado que brinda a los desarrolladores y empresas entrada directo a sus modelos comprimidos, sin obligación de AWS Marketplace.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

“El portal API CompactifAI (ahora) brinda a los desarrolladores entrada directo a modelos comprimidos con la transparencia y el control necesarios para ejecutarlos en producción”, dijo el CEO Enrique Lizaso en un comunicado.

La supervisión del uso en tiempo actual es una de las características secreto de la API y no es casualidad. Por otra parte de las ventajas potenciales de la implementación en el borde, los menores costos de computación son una de las principales razones por las que las empresas están considerando modelos más pequeños como alternativa a los modelos de lenguajes grandes (LLM).

Todavía ayuda que los modelos pequeños sean menos limitados que antaño. A principios de esta semana, Mistral actualizó su pequeña grupo de modelos con el dispersión de Mistral Pequeño 4que dice que está optimizado simultáneamente para chat caudillo, codificación, tareas de agencia y razonamiento. La empresa francesa asimismo forja liberadaun sistema que permite a las empresas crear modelos personalizados, incluidos modelos pequeños para los cuales pueden nominar las compensaciones que sus casos de uso pueden tolerar mejor.

Los resultados recientes de Multiverse asimismo sugieren que la brecha con los LLM se está reduciendo. Su final maniquí comprimido, HyperNova 60B 2602se sostén en gpt-oss-120b, un maniquí OpenAI cuyo código subyacente está arreglado públicamente. La empresa afirma que ahora entrega respuestas más rápidas a un costo beocio que el innovador del que se deriva, una delantera que es especialmente importante para los flujos de trabajo de codificación agente, donde la IA completa de forma autónoma tareas de programación complejas de varios pasos.

Hacer modelos lo suficientemente pequeños como para funcionar en dispositivos móviles y al mismo tiempo seguir siendo enseres es un gran desafío. Inteligencia de Apple evitó ese problema combinando un maniquí en el dispositivo y un maniquí en la nubarrón. La aplicación CompactifAI de Multiverse asimismo puede enrutar solicitudes a gpt-oss-120b a través de API, pero su objetivo principal es mostrar que los modelos locales como Gilda y sus futuros reemplazos tienen ventajas que van más allá del parquedad de costos.

Para los trabajadores en campos críticos, un maniquí que pueda ejecutarse localmente y sin conectarse a la nubarrón ofrece más privacidad y resiliencia. Pero el viejo valía está en los casos de uso empresarial que esto puede desbloquear: por ejemplo, incorporar IA en drones, satélites y otros entornos donde la conectividad no se puede dar por sentada.

La empresa ya presta servicios a más de 100 clientes globales, incluidos el Sotabanco de Canadá, Bosch e Iberdrola, pero ampliar su cojín de clientes podría ayudarla a desbloquear más financiación. A posteriori de elevar un $215 millones Serie B el año pasado, ahora es Se rumorea que está recaudando una nueva ronda de financiación de 500 millones de euros. con una valoración de más de 1.500 millones de euros.

Descifrar más Tech News in Spanish