No puedo evitar apoyar al pequeño fabricante de modelos de IA de código extenso Arcee

0
13
No puedo evitar apoyar al pequeño fabricante de modelos de IA de código extenso Arcee

No puedo evitar apoyar al pequeño fabricante de modelos de IA de código extenso Arcee

arceeuna pequeña startup estadounidense de 26 personas que creó un LLM masivo de código extenso con 400 mil millones de parámetros en un presupuesto corto de 20 millones de dólaresha agresivo su nuevo maniquí de razonamiento. Arcee fogosidad al maniquí Trinity Large Thinking, y es el maniquí de peso extenso más capaz “nones agresivo por una empresa no china”, afirma el director ejecutor Mark McQuade a TechCrunch.

Como implica ese comentario, Arcee tiene un objetivo que no puedo evitar apoyar: quiere darles a las empresas estadounidenses y occidentales un maniquí que no les dé motivos para utilizar uno con sede en China.

Si acertadamente los modelos chinos son extremadamente capaces, son percibido como riesgosoponiendo el poder, y quizás los datos, en manos de un gobierno que no comparte todos los ideales del mundo occidental.

Con Arcee, las empresas pueden descargar el maniquí, entrenarlo según sus propias deyección y utilizarlo localmente. Las empresas asimismo pueden utilizar la lectura alojada en la cirro de Arcee, a la que se puede penetrar a través de API.

Si acertadamente los modelos de Arcee no superan a los modelos de código cerrado de los grandes laboratorios como Anthropic u OpenAI, siquiera son rehenes de los caprichos de esos gigantes.

Por ejemplo, Claude, con sus excepcionales habilidades para codificar, ha sido una opción popular para los usuarios de la aparejo de agente de inteligencia sintético de código extenso OpenClaw. Pero Anthropic les sacó la ruedo la semana pasada cuando les dijo a los usuarios que sus suscripciones a Anthropic ya no cubrirá el uso de OpenClaw — tendrán que remunerar más por eso. (En febrero, el creador de OpenClaw, Peter Steinberger, dijo que estaba uniéndose al maduro rival de Anthropic, OpenAI.)

Por el contrario, McQuade señala con orgullo datos de OpenRouter eso dice que se ha convertido en uno de los mejores modelos utilizados con OpenClaw.

Evento tecnológico

San Francisco, California
|
13-15 de octubre de 2026

Entonces, ¿qué tan bueno es Trinity Large Thinking? Es comparable a algunos de los otros modelos principales de código extenso, según los resultados comparativos que compartió con TechCrunch.

Puntos de referencia de pensamiento grande de Arcee Trinity
Puntos de narración de pensamiento sobresaliente de Arcee TrinityCréditos de imagen:Arcee / Arcee

Como informamos anteriormenteno es una amenaza cara a cara para el pez notable entre los modelos abiertos construidos en EE. UU.: el Flama 4 de Meta. Pero siquiera tiene los extraños, no positivamente problemas de atrevimiento de código extenso del maniquí de Meta. Todos los modelos Trinity de Arcee se lanzan bajo el standard de oro para licencias de sistema activo, Apache 2.0.

Para que quede claro, asimismo hay innumerables otras startups estadounidenses que ofrecen modelos de código extenso y, como fanático del ingenio de las startups, asimismo las apoyo.

Ojear más Tech News in Spanish