El CEO de Anthrope, Dario Amodei, cree que los modelos de IA de hoy alucinan, o inventan las cosas y las presentan como si fueran ciertas, a un ritmo más bajo que los humanos, dijo durante una conferencia de prensa en el primer evento de desarrollador de Anthrope, Code With Claude, en San Francisco el jueves.
Amodei dijo todo esto en medio de un punto más vasto que estaba haciendo: que las alucinaciones de IA no son una seto en el camino de Anthrope en dirección a los sistemas AGI-AI con inteligencia a nivel humano o mejor.
“Verdaderamente depende de cómo lo midas, pero sospecho que los modelos de IA probablemente alucinan menos que los humanos, pero alucinan de guisa más sorprendente”, dijo Amodei, respondiendo a la pregunta de TechCrunch.
El CEO de Anthrope es uno de los líderes más alcistas de la industria sobre la perspectiva de que los modelos de IA logre AGI. En un ampliamente circulado papel que escribió el año pasadoAmodei dijo que creía que AGI podría ascender tan pronto como 2026. Durante la sesión informativa de la prensa del jueves, el CEO antrópico dijo que estaba viendo un progreso constante con ese fin, señalando que “el agua está subiendo en todas partes”.
“Todos siempre buscan estos bloques duros en lo que (IA) puede hacer”, dijo Amodei. “No se pueden ver en ninguna parte. No existe tal cosa”.
Otros líderes de IA creen que la fascinación presenta un gran obstáculo para ganar AGI. A principios de esta semana, el CEO de Google Deepmind, Demis Hassabis, dijo Los modelos de IA de hoy tienen demasiados “agujeros” Y consigue demasiadas preguntas obvias mal. Por ejemplo, a principios de este mes, un abogado que representa a Anthrope fue obligado a disculparse en la corte a posteriori de que usaron Claude Para crear citas en una presentación legislativo, y el chatbot AI alucinado y se equivocó con nombres y títulos.
Es difícil probar la afirmación de Amodei, en gran parte porque la mayoría de los puntos de relato de fascinación se enfrentan a los modelos de IA; No comparan modelos con los humanos. Ciertas técnicas parecen estar ayudando a las tasas de fascinación más bajas, como dar paso a los modelos de IA a la búsqueda web. Por separado, algunos modelos de IA, como OpenAi’s GPT-4.5tienen tasas de fascinación notablemente más bajas en puntos de relato en comparación con las primeras generaciones de sistemas.
Sin retención, igualmente hay evidencia que sugiere que las alucinaciones en realidad empeoran en los modelos de IA de razonamiento reformista. Los modelos O3 y O4-Mini de Openai tienen Tasas de fascinación más altas que los modelos de razonamiento de reproducción preliminar de OpenAIy la compañía en realidad no entiende por qué.
Más delante en la sesión informativa de la prensa, AmoDei señaló que los emisores de televisión, los políticos y los humanos en todo tipo de profesiones cometen errores todo el tiempo. El hecho de que AI igualmente comete errores no es un gracia en su inteligencia, según AmoDei. Sin retención, el CEO de Anthrope reconoció la confianza con la que los modelos de IA presentan cosas falsas, ya que los hechos podrían ser un problema.
De hecho, Anthrope ha realizado una buena cantidad de investigación sobre la tendencia de los modelos de IA a engañar a los humanos, un problema que parecía especialmente frecuente en la compañía de Claude Opus 4 recientemente lanzazo por la compañía. Incorporación tendencia a planear contra los humanos y engañarlos. Apollo llegó a sugerir que Anthrope no debería poseer animado ese maniquí temprano. Anthrope dijo que se les ocurrió algunas mitigaciones que parecían atracar los problemas que Apollo planteó.
Los comentarios de Amodei sugieren que el antrópico puede considerar que un maniquí de IA es AGI, o igual a la inteligencia a nivel humano, incluso si aún se alucina. Sin retención, una IA que alucina puede no ser de AGI por la definición de muchas personas.
(Tagstotranslate) Anthrope