Wednesday, October 8, 2025

Meta Ardor: Todo lo que necesita enterarse sobre el maniquí de IA generativo destapado

Meta Ardor: Todo lo que necesita enterarse sobre el maniquí de IA generativo destapado

Como todas las grandes empresas de tecnología en estos días, Meta tiene su propio maniquí de IA generativo insignia, llamado Ardor. Ardor es poco único entre los principales modelos en que está “destapado”, lo que significa que los desarrolladores pueden descargarlo y usarlo como quieran (con ciertas limitaciones). Eso está en contraste con modelos como Claude de Anthrope, Géminis de Google, Xai’s Grok y la mayoría de los modelos ChatGPT de OpenAI, a los que solo se puede obtener a través de API.

Sin requisa, en aras de dar a los desarrolladores la opción, Meta incluso se ha asociado con proveedores, incluidos AWS, Google Cloud y Microsoft Azure, para que las versiones de LLAMA alojadas en la nubarrón estén disponibles. Encima, la compañía publica herramientas, bibliotecas y recetas en su obra de cocina de LLAMA para ayudar a los desarrolladores a ajustar, evaluar y adaptar los modelos a su dominio. Con generaciones más nuevas como Ardor 3 y Ardor 4, estas capacidades se han expandido para incluir soporte multimodal nativo y despliegue de nubes más amplios.

Aquí está todo lo que necesita enterarse sobre Meta’s Ardor, desde sus capacidades y ediciones hasta donde puede usarla. Mantendremos esta publicación actualizada como actualizaciones de meta comunales e introduce nuevas herramientas de expansión para amparar el uso del maniquí.

¿Qué es Ardor?

Ardor es una comunidad de modelos, no solo uno. La última traducción es LLAMA 4; Fue emprendedor en abril de 2025 e incluye tres modelos:

  • Explorar: 17 mil millones de parámetros activos, 109 mil millones de parámetros totales y una ventana de contexto de 10 millones de tokens.
  • Disidente: 17 mil millones de parámetros activos, 400 mil millones de parámetros totales y una ventana de contexto de 1 millón de tokens.
  • Cíclope: Aún no se ha emprendedor, pero tendrá 288 mil millones de parámetros activos y 2 billones de parámetros totales.

(En la ciencia de datos, los tokens son bits subdivididos de datos sin procesar, como el “ventilador” de las sílabas, “tas” y “tic” en la palabra “utópico”).

El contexto de un maniquí, o la ventana de contexto, se refiere a los datos de entrada (por ejemplo, texto) que el maniquí considera antaño de ocasionar la salida (por ejemplo, texto adicional). El contexto prolongado puede evitar que los modelos “olviden” el contenido de los documentos y datos recientes, y se desvíen del tema y se extraan erróneamente. Sin requisa, las ventanas de contexto más largas incluso pueden resultar en el maniquí “olvidar” ciertas barandillas de seguridad y ser más propenso a producir contenido que esté en lista con la conversación, lo que ha llevado a algunos usuarios alrededor de pensamiento delirante.

Como relato, la ventana de contexto de 10 millones que Ardor 4 Scout promete aproximadamente igual al texto de aproximadamente 80 novelas promedio. Ardor 4 Maverick ‘S 1 millón de la ventana de contexto es igual a ocho novelas.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

Todos los modelos de Ardor 4 fueron entrenados en “grandes cantidades de datos no etiquetados, imagen y datos de video” para darles “amplia comprensión visual”, así como en 200 idiomas, según Meta.

Ardor 4 Scout y Maverick son los primeros modelos multimodales de peso destapado de Meta. Se construyen utilizando una construcción de “mezcla de expertos” (MOE), que reduce la carga computacional y progreso la eficiencia en el entrenamiento y la inferencia. Scout, por ejemplo, tiene 16 expertos, y Maverick tiene 128 expertos.

Ardor 4 Behemoth incluye 16 expertos, y Meta se refiere a él como profesor para los modelos más pequeños.

Ardor 4 se friso en la Serie 3 Ardor, que incluyó modelos 3.1 y 3.2 ampliamente utilizados para aplicaciones ajustadas a instrucciones e implementación en la nubarrón.

¿Qué puede hacer Ardor?

Al igual que otros modelos de IA generativos, Ardor puede realizar una variedad de tareas de amparo diferentes, como codificar y replicar preguntas matemáticas básicas, así como resumir documentos en al menos 12 idiomas (árabe, inglés, teutón, francés, hindi, indonesio, italiano, portugués, hindi, gachupin, tagalo, tailandés y vietnamita). La mayoría de las cargas de trabajo basadas en texto, piensan que analizar archivos grandes como PDF y hojas de cálculo, están internamente de su envergadura, y todos los modelos LLAMA 4 admiten texto, imagen y entrada de video.

Ardor 4 Scout está diseñado para flujos de trabajo más largos y descomposición de datos masivos. Maverick es un maniquí generalista que es mejor para equilibrar la potencia del razonamiento y la velocidad de respuesta, y es adecuado para codificar, chatbots y asistentes técnicos. Y Behemoth está diseñado para investigaciones avanzadas, destilación maniquí y tareas STEM.

Los modelos de LLAMA, incluida la Ardor 3.1, se pueden configurar para beneficiarse las aplicaciones, herramientas y API de terceros para realizar tareas. Están capacitados para usar una búsqueda fuerte para replicar preguntas sobre eventos recientes; la API Alpha Wolfram para consultas relacionadas con las matemáticas y las ciencias; y un intérprete de Python para validar el código. Sin requisa, estas herramientas requieren una configuración adecuada y no están habilitados automáticamente fuera de la caja.

¿Dónde puedo usar Ardor?

Si estás buscando simplemente chatear con Ardor, es Powering the Meta AI Chatbot Experience en Facebook Messenger, WhatsApp, Instagram, Oculus y Meta.ai en 40 países. Las versiones finas de LLAMA se utilizan en experiencias meta ai en más de 200 países y territorios.

Ardor 4 Models Scout y Maverick están disponibles en Ardor.com y los socios de Meta, incluida la plataforma de desarrolladores de IA, Hugging Face. Behemoth todavía está en entrenamiento. Los desarrolladores de construcción con Ardor pueden descargar, usar o ajustar el maniquí en la mayoría de las plataformas de nubarrón populares. Meta afirma que tiene más de 25 socios que organizan LLAMA, incluidos Nvidia, Databricks, Groq, Dell y Snowflake. Y aunque “entregar llegada” a los modelos abiertos de Meta no es el maniquí de negocio de Meta, la compañía apetito poco de patrimonio a través de Acuerdos de intercambio de ingresos con hosts de maniquí.

Algunos de estos socios han creado herramientas y servicios adicionales adicionalmente de LLAMA, incluidas herramientas que permiten que los modelos hacen relato a datos propietarios y les permitan funcionar en latencias más bajas.

Es importante destacar que la atrevimiento de flama restringe cómo los desarrolladores pueden implementar el maniquí: Los desarrolladores de aplicaciones con más de 700 millones de usuarios mensuales deben solicitar una atrevimiento distinto de Meta que la Compañía otorgará a su discreción.

En mayo de 2025, Meta lanzó un nuevo software incentivar a las nuevas empresas a adoptar sus modelos de LLAMA. Ardor para nuevas empresas brinda apoyo a las empresas del equipo de LLAMA de Meta y llegada a posibles fondos.

Conexo a Ardor, Meta proporciona herramientas destinadas a hacer que el maniquí sea “más seguro” para usar:

  • Guarnición de la flamaun ámbito de moderación.
  • Cibernéticauna suite de evaluación de riesgos de ciberseguridad.
  • Cortafuegos de llamasuna antepecho de seguridad diseñada para permitir la construcción de sistemas AI seguros.
  • Escudo de códigoque proporciona soporte para el filtrado de tiempo de inferencia de código inseguro producido por LLMS.

La Guarnición de Ardor intenta detectar contenido potencialmente problemático, ya sea alimentado, o generado, por un maniquí de flama, incluido el contenido relacionado con la actividad delictiva, la explotación de los niños, las violaciones de los derechos de autor, el odio, la autolesión y el despotismo sexual. Dicho esto, claramente no es una bala de plata desde Las pautas anteriores de Meta Meta permitió que el chatbot participara en chats sensuales y románticos con menores, y algunos informes muestran a los que se convierten en conversaciones sexuales. Los desarrolladores pueden personalizar Las categorías de contenido bloqueado y aplican los bloques a todos los idiomas que soportan.

Al igual que la centinela de Ardor, la protección rápida puede estrechar el texto destinado a LLAMA, pero solo el texto destinado a “atacar” al maniquí y hacer que se comporte de maneras indeseables. Meta afirma que la Guarnición de Ardor puede defenderse contra las indicaciones explícitamente maliciosas (es opinar, los jailbreaks que intentan sortear los filtros de seguridad incorporados de Ardor) adicionalmente de las indicaciones que contienen “entradas inyectadas. ” El Firewall de LLAMA trabaja para detectar y organizar riesgos como inyección rápida, código inseguro e interacciones de herramientas arriesgadas y código de código ayuda a mitigar sugerencias de código inseguro y ofrece una ejecución de comandos seguros para siete lenguajes de programación.

En cuanto a CyberSeceval, es menos una aparejo que una colección de puntos de relato para determinar la seguridad del maniquí. Cyberseceval puede evaluar el aventura de un maniquí de LLAMA (al menos según los criterios de Meta) a los desarrolladores de aplicaciones y usuarios finales en áreas como “ingeniería social automatizada” y “ascender operaciones cibernéticas ofensivas”.

Limitaciones de Ardor

Créditos de imagen:Examen fabricado

Ardor viene con ciertos riesgos y limitaciones, como todos los modelos de IA generativos. Por ejemplo, si adecuadamente su maniquí más nuevo tiene características multimodales, se limitan principalmente al idioma inglés por ahora.

Alejando, Meta usó un conjunto de datos de libros electrónicos pirateados y artículos para entrenar sus modelos de flama. Un togado federal recientemente se puso del banda de Meta en una demanda por derechos de autor presentada contra la compañía por 13 autores de libros, dictaminando que el uso de trabajos con derechos de autor para la capacitación cayó bajo “uso adaptado”. Sin requisa, si Ardor regurgitar Un fragmento con derechos de autor y alguno lo usa en un producto, podrían estar infringiendo los derechos de autor y ser responsables.

Meta incluso entrena controvertido su IA en publicaciones, fotos y subtítulos de Instagram y Facebook, y dificulta que los usuarios optaran por no participar.

La programación es otra campo de acción donde es aconsejable pisar levemente al usar LLAMA. Eso se debe a que Ardor podría, tal vez más que sus homólogos generativos de IA, producir un código de errores o inseguro. En LivecodeBencha punto de relato Eso prueba modelos de IA en problemas de codificación competitivos, el maniquí de Ardor 4 Maverick de Meta’s Meta alcanzó una puntuación del 40%. Eso se compara con el 85% para el GPT-5 High de Openai y el 83% para el ayuno de Xai’s Grok 4.

Como siempre, es mejor que un perito humano revise cualquier código generado por IA antaño de incorporarlo en un servicio o software.

Finalmente, al igual que con otros modelos de IA, los modelos de LLAMA todavía son culpables de ocasionar información a plausible pero falsa o engañosa, ya sea en codificación, orientación lícito o Conversaciones emocionales con personajes de IA.

Esto se publicó originalmente el 8 de septiembre de 2024 y se actualiza regularmente con nueva información.

(Tagstotranslate) ai

Interpretar más Tech News in Spanish

Jimit Patel
Jimit Patelhttps://butterword.com
📰 Periodista Independiente | 🌎 Entusiasta de las noticias latinoamericanas | Jimit Patel, un periodista consumado, entrega artículos de noticias confiables en español. Su escritura genera conversaciones, resuena con matices latinoamericanos y cubre eventos mundiales, estilo de vida, negocios, política, entretenimiento, viajes, deportes y tecnología.

Related Articles

STAY CONNECTED

326,453FansMe gusta
23,963SeguidoresSeguir
75,376SeguidoresSeguir

Latest Articles