Osaurus trae modelos de IA locales y en la aglomeración a tu Mac

0
12
Osaurus trae modelos de IA locales y en la aglomeración a tu Mac

Osaurus trae modelos de IA locales y en la aglomeración a tu Mac

A medida que los modelos de IA se vuelven cada vez más mercantilizados, las nuevas empresas se apresuran a construir la capa de software que se encuentra encima de ellos. Un participante interesante en este espacio es Osaurioun servidor LLM de código hendido exclusivo de Apple que permite a los usuarios moverse entre diferentes modelos de IA locales, ya sea localmente o en la aglomeración, mientras mantienen sus archivos y herramientas en su propio hardware.

Osaurus evolucionó a partir de la idea de un Compañero de IA de escritorioDinoki, cofundador de Osaurus terence pae descrito como una especie de “Clippy impulsado por IA”. Los clientes de Dinoki le habían preguntado por qué deberían comprar la aplicación si aún tenían que abonar por los tokens: las unidades de uso que las empresas de IA cobran por procesar mensajes y producir respuestas.

Eso hizo que Pae pensara más profundamente en ejecutar la IA localmente.

“Así es como comenzó Osaurus”, dijo a TechCrunch Pae, anteriormente ingeniero de software en Tesla y Netflix, durante una indicación. La idea, explicó, era intentar ejecutar un asistente de IA localmente. “Puedes hacer prácticamente todo en tu Mac localmente, como explorar tus archivos, entrar a tu navegador, entrar a las configuraciones de tu sistema. Pensé que esta sería una excelente modo de posicionar a Osaurus como una IA personal para individuos”.

Pae comenzó a construir la útil en conocido como un esquema de código hendidoagregando funciones y corrigiendo errores a lo liberal del camino.

Créditos de imagen:Osaurus, Inc.

Hoy, Osaurio puede conectarse de modo flexible con modelos de IA alojados localmente o proveedores de aglomeración como OpenAI y Anthropic. Los usuarios pueden nominar independientemente qué modelos de IA están usando y conservar otros aspectos de la experiencia de IA en su propio hardware, como la memoria de los modelos o sus archivos y herramientas.

Legado que los diferentes modelos de IA tienen diferentes puntos fuertes, la delantera de este sistema es que los usuarios pueden cambiar al maniquí de IA que mejor se adapte a sus evacuación.

Esta estructura convierte a Osaurus en lo que se candela un “arnés”: una capa de control que conecta diferentes modelos, herramientas y flujos de trabajo de IA a través de una única interfaz, similar a herramientas como casco abierta o Hermes. Sin requisa, la diferencia es que estas herramientas suelen estar dirigidas a desarrolladores que conocen un terminal. Y a veces, como en el caso de OpenClaw, pueden sugerir problemas de seguridad y agujeros de los que preocuparse.

Mientras tanto, Osaurus presenta una interfaz posible de usar que los consumidores pueden usar y aborda los problemas de seguridad ejecutando cosas en una zona de pruebas potencial aislada por hardware. Esto limita la IA a un cierto capacidad, manteniendo su computadora y sus datos seguros.

Créditos de imagen:Osaurus, Inc.

Por supuesto, la maña de ejecutar modelos de IA en su máquina aún está en sus inicios, transmitido que consume muchos bienes y depende del hardware. Para ejecutar modelos locales, su sistema necesitará al menos 64 GB de RAM. Para ejecutar modelos más grandes, como DeepSeek v4, Pae recomienda sistemas con aproximadamente 128 GB de RAM.

Pero Pae cree que las evacuación de la IA tópico disminuirán con el tiempo.

“Puedo ver su potencial, porque la inteligencia por vataje, que es como la métrica de la IA tópico, ha aumentado significativamente. Está en su propia curva de innovación. El año pasado, la IA tópico casi nada podía terminar frases, pero hoy en día puede ejecutar herramientas, escribir código, entrar a su navegador y pedir cosas de Amazon (…) está mejorando cada vez más”, afirmó.

Créditos de imagen:Osaurus, Inc.

Hoy en día, Osaurus puede ejecutar MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Fogata, DeepSeek V4 y otros modelos. Además es compatible con los modelos básicos en el dispositivo de Apple, la tribu LFM de modelos en el dispositivo de Liquid AI y, en la aglomeración, puede conectarse a OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama y LM Studio.

Como servidor MCP (Protocolo de contexto maniquí) completo, asimismo puede otorgar acercamiento a sus herramientas a cualquier cliente compatible con MCP. Adicionalmente, viene con más de 20 complementos nativos para Mail, Calendar, Vision, macOS Use, XLSX, PPTX, Browser, Music, Git, Filesystem, Search, Fetch y más.

Más recientemente, Osaurus se actualizó para incluir asimismo capacidades de voz.

Desde que el esquema comenzó a funcionar hace casi un año, se ha descargado más de 112.000 veces, según su sitio web.

Actualmente, los fundadores de Osaurus (entre los que se incluye el cofundador Sam Yoo) participan en la aceleradora de startups Alliance, con sede en Nueva York. Además están pensando en los próximos pasos, que podrían ofrecer Osaurus a empresas, como aquellas en el espacio admitido o en el cuidado de la vitalidad, donde la ejecución de LLM locales podría tocar las preocupaciones de privacidad.

A medida que crece el poder de los modelos locales de IA, el equipo cree que podría achicar la demanda de centros de datos de IA.

“Estamos viendo este crecimiento explosivo en el espacio de la IA, donde (los proveedores de IA en la aglomeración) tienen que esquilar utilizando centros de datos e infraestructura, pero sentimos que la masa aún no ha trillado verdaderamente el valía de la IA tópico”, dijo Pae. “En ocasión de someterse de la aglomeración, pueden implementar un Mac Studio localmente, y debería usar sustancialmente menos energía. Todavía tienes las capacidades de la aglomeración, pero no dependerás de un centro de datos para poder ejecutar esa IA”, añadió.

Cuando importación a través de enlaces en nuestros artículos, podemos percibir una pequeña comisión. Esto no afecta nuestra independencia editorial.

Repasar más Tech News in Spanish