Sam Altman se puso excepcionalmente irritable por los anuncios de Claude en el Super Bowl

0
63
Sam Altman se puso excepcionalmente irritable por los anuncios de Claude en el Super Bowl

Sam Altman se puso excepcionalmente irritable por los anuncios de Claude en el Super Bowl

El comercial del Super Bowl de Anthropic, uno de los cuatro anuncios que lanzó el laboratorio de inteligencia fabricado El miércolescomienza con la palabra “TRAICIÓN” escrita en negrita en la pantalla. La cámara se enfoca en torno a un hombre que le pide consejo a un chatbot (obviamente destinado a representar ChatGPT) sobre cómo murmurar con su raíz.

El autómata, interpretado por una mujer rubia, ofrece algunos consejos clásicos. Comienzo por escuchar. ¡Prueba un paseo por la naturaleza! Y luego se convierte en un anuncio de un sitio ficticio (¡esperamos!) de citas para pumas llamado Golden Encounters. Anthropic termina el anuncio diciendo que si aceptablemente los anuncios llegarán a la IA, no llegarán a su propio chatbot, Claude.

Otro comercial presenta a un muchacho delgado que examen consejos sobre cómo desarrollar abdominales. Posteriormente de ofrecer su cumbre, tiempo y peso, el autómata le muestra un anuncio de plantillas para aumentar la cumbre.

Los comerciales de Anthropic están hábilmente dirigidos a los usuarios de OpenAI, a posteriori de que esa compañía anuncio nuevo que los anuncios llegarán al nivel regalado de ChatGPT. Y causaron un revuelo inmediato, generando titulares que Anthropic “se engaño” “brochetas” y “mates” OpenAI.

Son tan divertidos que incluso Sam Altman admitido en X que se reía de ellos. Pero claramente no los encontraba divertidos. Lo inspiraron a escribir una invectiva del tamaño de una novelística corta que desembocó en tocar a su rival “deshonesto” y “absolutista”.

En esa publicación, Altman explica que un nivel con publicidad está destinado a soportar la carga de ofrecer ChatGPT regalado a muchos de sus millones de usuarios. ChatGPT sigue siendo el chatbot más popular por un amplio beneficio.

Pero el CEO de OpenAI insistió en que los anuncios eran “deshonestos” al implicar que ChatGPT tergiversará una conversación para insertar un anuncio (y posiblemente para un producto de mal regusto, para comenzar). “Obviamente nunca publicaríamos anuncios en la forma en que Anthropic los describe”, escribió Altman en la publicación en las redes sociales. “No somos estúpidos y sabemos que nuestros usuarios lo rechazarían”.

Evento tecnológico

Boston, Massachusetts
|
23 de junio de 2026

De hecho, OpenAI ha prometido que los anuncios estarán separados, etiquetados y nunca influirán en un chat. Pero la compañía asimismo ha dicho que planea hacerlos específicos para conversaciones, que es la denuncia central de los anuncios de Anthropic. Como explicó OpenAI en su blog, “Planeamos probar anuncios en la parte inferior de las respuestas en ChatGPT cuando haya un producto o servicio patrocinado relevante según su conversación presente”.

Altman luego lanzó algunas afirmaciones igualmente cuestionables a su rival. “Anthropic ofrece un producto caro a los ricos”, escribió. “Además creemos firmemente que debemos tolerar la IA a miles de millones de personas que no pueden enriquecer las suscripciones”.

Pero Claude asimismo tiene un nivel de chat regalado, con suscripciones de $0, $17, $100 y $200. Los niveles de ChatGPT son $0, $8, $20 y $200. Se podría argumentar que los niveles de suscripción son proporcionado equivalentes.

Altman asimismo alegó en su publicación que “Anthropic quiere controlar lo que la clan hace con la IA”. Sostiene que bloquea el uso de Claude Code por parte de “compañías que no les gustan”, como OpenAI, y dijo que Anthropic le dice a la clan para qué pueden y para qué no pueden usar la IA.

Es cierto que todo el negocio de marketing de Anthropic desde el primer día ha sido “IA responsable”. La empresa fue fundada por Posteriormente de todo, dos antiguos alumnos de OpenAIquienes afirmaron que se alarmaron por la seguridad de la IA cuando trabajaron allí.

Aun así, ambas empresas de chatbot tienen políticas de usobarreras de seguridad de IA y murmurar sobre la seguridad de la IA. Y aunque OpenAI permite que ChatGPT ser usado para erotismo mientras antrópico noOpenAI, al igual que Anthropic, ha determinado que algunos contenidos deberían ser bloqueadosparticularmente en lo que respecta a la salubridad mental.

Sin incautación, Altman llevó este argumento de Anthropic-te-dice-qué-hacer a un nivel extremo cuando acusó a Anthropic de ser “absolutista”.

“Una empresa autoritaria no nos llevará allí por sí sola, por no murmurar de los otros riesgos obvios. Es un camino indeterminado”, escribió.

Usar “absolutista” en una perorata sobre un atrevido anuncio del Super Bowl está, en el mejor de los casos, fuera de emplazamiento. Es particularmente error de tacto cuando se considera el entorno geopolítico presente en el que manifestantes aproximadamente del mundo han sido asesinados por agentes de su propio gobierno. Si aceptablemente los rivales comerciales han estado compitiendo en anuncios desde el principio de los tiempos, claramente Anthropic tocó un punto sensible.



Ojear más Tech News in Spanish