Tuesday, January 21, 2025

Tendencias de radar a seguir: diciembre de 2024 – O’Reilly

¡Es fin de año para Radar! Esperamos que todos nuestros lectores disfruten de las receso. Aquí hay una predicción para 2025:

¿Es este el final del camino para mejorar el rendimiento del LLM mediante el escalamiento del número de parámetros o de los datos de entrenamiento? Nadie lo sabe todavía. Independientemente de la respuesta, esperamos que el interés se desplace con destino a modelos más pequeños. De mala anhelo permitiremos que el maniquí de parámetros de 70 mil millones se califique como “pequeño”, pero en ingenuidad nos referimos a 20 mil millones de parámetros o menos. Estos modelos resultarán más fáciles de utilizar para las empresas que desarrollan aplicaciones habilitadas para IA: su ejecución no costará tanto y será más sencillo de ajustar para aplicaciones especializadas. Muy pocas aplicaciones necesitarán un maniquí de verbo completamente común.

Aprende más rápido. Profundiza más. Ver más allá.

Inteligencia fabricado

  • El plan OpenGPT-X tiene libertino su maniquí de verbo ínclito rajado, Teuken-7B. Este maniquí es importante porque admite 24 idiomas europeos y está diseñado para cumplir con la constitución europea. Está adecuado en abrazando la cara.
  • OLMo 2 es un maniquí de verbo pequeño, completamente rajado y recién atrevido que viene en tamaños 7B y 13B. Ambas versiones cuentan con el mejor desempeño de su corro.
  • NVIDIA ha anunciado fugatoun nuevo maniquí generativo de conversión de texto a audio que puede crear tipos de sonidos completamente nuevos. Lo posicionan como una útil para los creadores.
  • antrópico tiene anunciado la panorámica previa para desarrolladores de su Protocolo de contexto maniquí. MCP permite a Claude Desktop comunicarse de forma segura con otros posibles. El servidor MCP limita los servicios expuestos a Claude, filtra las solicitudes de Claude y evita que los datos queden expuestos a través de Internet.
  • OpenScholar es un código rajado Maniquí de verbo diseñado para apoyar la investigación científica.. Es significativamente más preciso que GPT-4o y su funcionamiento es más financiero. Utiliza RAG para ceder a una gran colchoneta de datos de artículos científicos de golpe rajado, lo que garantiza que las citas sean precisas.
  • Meta se ha asociado con VSParticle para crear nuevos materiales a partir de instrucciones generadas por IA. Se están centrando en materiales nanoporosos, que podrían ser catalizadores para descomponer el CO2 en productos bártulos.
  • La perplejidad ha introducido Compras adentro de la aplicación: los usuarios pueden inquirir poco y luego hacer que Perplexity lo compre. Es el primer ejemplo ampliamente adecuado de un agente de IA que cambia el estado del mundo físico.
  • Las investigaciones han demostrado que Los modelos de IA generativa tienen sus propios estilos distintivos.no muy diferente de los escritores humanos. El estudio estilístico puede identificar la fuente de un texto con el maniquí que lo generó.
  • Mistral ha libertino Pixtral ínclitoun maniquí multimodal de parámetros 124B con un rendimiento de relato a la par de las últimas versiones de otros modelos fronterizos.
  • Mozilla Voz global El plan recopila muestras de voz en idiomas distintos del inglés angloamericano para ayudar a los desarrolladores a crear aplicaciones habilitadas para voz utilizando otros idiomas y dialectos. El plan es de código rajado.
  • Interpretabilidad mecanicista es un dominio de investigación que utiliza IA para examinar lo que sucede adentro de cada capa de un maniquí de verbo ínclito. Proporciona un camino con destino a la interpretabilidad de la IA: la capacidad de comprender por qué una IA produce cualquier resultado que genera y, posiblemente, controlar ese resultado.
  • Los teléfonos Pixel de Google podrán monitorear conversaciones telefónicas para detectar estafas en tiempo actual. El procesamiento se realiza íntegramente por teléfono. La función está desactivada de forma predeterminada y se puede habilitar por emplazamiento. Otra característica nueva detecta stalkerware, aplicaciones que recopilan datos sin el consentimiento o conocimiento del favorecido.
  • El conjunto de datos Common Corpus para entrenar modelos de verbo grandes ahora está rajado y adecuado en Hugging Face. El conjunto de datos contiene más de tokens 2T tomados de fuentes con “licencias permitidas” y documenta la procedencia de cada fuente.
  • El maniquí más nuevo de OpenAIOrion, es una alivio con respecto a GPT-4. ¿Pero es una alivio significativa? Aparentemente no. Este puede ser el final del camino para mejorar los LLM haciéndolos más grandes. (¿Y Orion es GPT-5?)
  • FronteraMatemáticas es un nuevo punto de relato de IA que se basamento en problemas matemáticos muy difíciles. En este punto, ningún maniquí de verbo obtiene una puntuación superior al 2% (Gemini 1.5 Pro).
  • Separar los instrumentos en una interpretación musical. Es difícil, pero es posible. Aquí hay una obra maestra sin IA de procesamiento de señal que intenta hacerlo. ¿Podemos retornar a convertir una interpretación en partitura?
  • Standard Intelligence ha publicado dev-herciosun nuevo maniquí para síntesis de voz en tiempo actual. Fue entrenado exclusivamente con audio y puede participar en conversaciones sin gallardete sin el uso de texto.
  • Microsoft Magentic-One Es un sistema agente generalista que es capaz de realizar tareas complejas. Magentic-One es fuente abierta para investigadores y desarrolladores. Microsoft igualmente ha atrevido AutoGenBenchuna útil de código rajado para evaluar el rendimiento de sistemas agentes.
  • Forja de cadenas es una nueva útil visual para ingeniería rápida. Se puede utilizar para probar indicaciones con múltiples modelos y evaluar la calidad de la respuesta.
  • La IA estaba acostumbrada a envejecer Tom Hanks y Robin Wright en una nueva película que permitirá a los actores interpretar a sus personajes a lo abundante de 60 primaveras.
  • antrópico tiene libertino Claudio 3.5 haikusuna nueva lectura de su maniquí más pequeño y rápido. La compañía afirma que su rendimiento en muchos puntos de relato es superior al Claude 3 Opus, su maniquí líder inicial. Anthropic igualmente ha aumentado significativamente el precio por usar Haiku.
  • OpenAI ha introducido resultados previstos. Si el resultado de un mensaje se conoce de antemano (por ejemplo, si le solicita a GPT que modifique un archivo), puede cargar el resultado esperado con el mensaje y GPT realizará los cambios necesarios. Las futuro previstas reducen la latencia; aparentemente no reducen el costo.
  • Felizmente, Psiquiatría de IA No tiene cero que ver con psicoanalizar a pacientes humanos. Es una útil forense para el estudio post mortem de fallas de IA que permite a los investigadores recuperar el maniquí exacto que estaba en uso cuando ocurrió la falta.
  • SmolLM2 es un nuevo maniquí de verbo pequeño, diseñado para ejecutarse en dispositivos. Viene en versiones de parámetros 135M, 360M y 1.7B. Los primeros informes dicen que su rendimiento es impresionante.
  • vllm es un entorno para prestar servicios a los LLM. Funciona con la mayoría de los modelos de verbo en Hugging Face. No sólo pretende ser más simple, sino que igualmente reclamos obtener importantes beneficios de rendimiento y costos mediante el uso de un almacén de títulos esencia para juntar en gusto los tokens de entrada.
  • Gráficos de llamas de IA muestre a los desarrolladores qué están haciendo sus modelos en detalle. Si le preocupa el rendimiento o el uso de energía, son revolucionarios.
  • de google Esquema Jarvis Se informa que es la respuesta de la compañía a la API de uso informático de Anthropic. Jarvis se hace cargo de un navegador (presumiblemente Chrome) para realizar tareas en nombre del favorecido.
  • La capacidad de NotebookLM para producir un podcast a partir de documentos es impresionante. ¿Pueden otros modelos hacer lo mismo? CuadernoLlama es un plan de código rajado que genera podcasts utilizando los modelos Claridad.

Programación

  • bpftune es una utilidad que ajusta constantemente el rendimiento del sistema Linux utilizando datos de observabilidad de BPF. Tiene “cero configurables” (sin configuración) y gastos generales bajos, y es lo suficientemente inteligente como para mantenerse alejado de las configuraciones que ha realizado un administrador del sistema. Aparentemente no utiliza IA.
  • kyanos es una nueva útil de estudio de red de código rajado basada en eBPF. Oportuno a que tiene golpe a los datos de eBPF, puede filtrar paquetes por proceso o por servicio y puede congratular información precisa sobre la latencia de los paquetes.
  • VMware Fusion y VMware Workstation ahora son gratuitos a todos los usuarios, incluidos los usuarios comerciales. Broadcom continuará desarrollando los productos pero dejará de congratular soporte para la resolución de problemas a los usuarios.
  • código rajado es una grupo de modelos de verbo para producir código. Es completamente de código rajado y los datos de capacitación, la canalización de datos, los resultados de la capacitación y los protocolos de capacitación están disponibles encima del código. Su intención es fomentar una anciano experimentación e investigación sobre la vivientes de código.
  • Mergiraf es una útil para resolver conflictos de fusión de Git mediante la comprensión de lenguajes de programación comunes (incluidos Java, Rust y Go) y formatos de archivo (incluidos JSON, HTML, XML y YAML). Los autores afirman que se pueden juntar nuevos idiomas fácilmente.
  • Se ha publicado una propuesta para C++ segurouna nueva lectura de C++ que incorporará funciones de seguridad de la memoria.
  • Esclavitud de datos es una biblioteca de Python para trabajar con datos estructurados en el contexto de la inteligencia fabricado. Está diseñado para crear canalizaciones de datos y manipular datos a escalera.
  • ¿Sin código GitHub? Chispa de GitHub permite a los usuarios crear pequeñas “microaplicaciones” o chispas, sin escribir ningún código. Lo que puede ser más importante que la partida de código es la partida de implementación; Las chispas se implementan en la infraestructura de GitHub y se accede a ellas a través de la web.
  • Usando Git para hacer una copia de seguridad del directorio /etc de Linux Es obvio, una vez que lo piensas.
  • Ráctor es un framework Actor para Rust, lo que significa que puedes programar en Rust como si fuera Erlang. Estoy impresionado por el “Hola mundo” más abundante y complicado que nones haya manido.
  • Kubernetes es un plataforma para construir plataformas. Y las plataformas deben servir tanto a los equipos de incremento como a los de operaciones.
  • GitHub Copilot ahora puede usar Modelos distintos a GPT. Los usuarios pueden decidir Claude Sonnet o Gemini encima de diferentes modelos de OpenAI. Otras características nuevas incluyen revisión cibernética de código, un asistente de modernización para Java, tirada de múltiples archivos y poco llamado Spark que suena poco así como Claude’s Artifacts.
  • ¿Es seguro su código generado por IA? No. No es probable que dejemos de usar herramientas como Copilot y Cursor, pero debemos comprender el desafío: los modelos de IA se entrenaron con código adecuado públicamente. La mayoría del código adecuado públicamente tiene vulnerabilidades. Esos se reflejarán en la producción de la IA.
  • ¿Java necesita otra útil de compilación? Molino está esperando para hacerse cargo. Mill afirma ser entre 5 y 10 veces más rápido que Maven, y entre 2 y 4 veces más rápido que Gradle.
  • Anfión es un conjunto de herramientas de código rajado para producir todas las formas de audio, incluida la música y el palabra.

Seguridad

Robots

  • Grasso es un Androide de basura impulsado por IA: un autómata móvil hecho de basura. Utiliza Llava-v1.6-mistral-7B para comprender la información visual de su cámara y Mistral-7B para indicaciones y respuestas. (No comprende ni genera palabra).
  • Meta ha atrevido varios proyectos nuevos para percepción táctilun ambiente crucial en la construcción de robots impulsados ​​por IA que puedan interactuar con el mundo actual. Digit 360 es un dedo digital táctil, Sparsh es un codificador de datos táctiles y Digit Plexus es una plataforma para construir manos artificiales.
  • Ata dos micro robots poco inteligentes (robots de cerdas) adyacente con una correa corta y flexible y adquieren la capacidad de resolver problemas sencillos.

Web

  • ¿Quieres ejecutar Linux en tu navegador? Puede. WebVM Es una máquina supuesto que se ejecuta en un navegador. Puede que Linux en el navegador no sea tan interesante; es más importante como otro ejemplo de las habilidades de Wasm.

Existencia supuesto

  • ¿Quieres departir con Rosa Parks o Abraham Lincoln? Intentar ACTIVAR XRuna útil que combina ingenuidad supuesto e inteligencia fabricado generativa. Si esto es en realidad historia es una pregunta interesante; El autobús del ejemplo de Rosa Parks parece un autobús europeo actual, no un autobús hispanoamericano de los primaveras cincuenta.

Computación cuántica

  • DeepMind de Google ha desarrollado alfaqubitun sistema de IA que detecta errores en sistemas cuánticos. La corrección de errores ha conseguido enormes avances durante el postrero año, pero sigue siendo un problema importante en la computación cuántica.

Biología


Related Articles

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

STAY CONNECTED

326,453FansMe gusta
23,963SeguidoresSeguir
75,376SeguidoresSeguir

Latest Articles