Xai culpó a una “modificación no autorizada” por un error en su chatbot de Grok con IA que causó que Grok referirse repetidamente a “Exterminación blanco en Sudáfrica” cuando se invoca en ciertos contextos en X.
El miércoles, Grok comenzó a replicar a docenas de publicaciones en X con información sobre el exterminación blanco en Sudáfrica, incluso en respuesta a sujetos no relacionados. Las respuestas extrañas surgieron de la cuenta X para Grok, que avala a los usuarios con publicaciones generadas por IA cada vez que una persona ceremonial “@grok”.
Según una publicación del jueves de la cuenta oficial de XAI, se realizó un cambio el miércoles por la mañana a la solicitud del sistema de Grok Bot, las instrucciones de detención nivel que guían el comportamiento del bot, que dirigió a Grok a proporcionar una “respuesta específica” sobre un “tema político”. Xai dice que el ajuste “violó (sus) políticas internas y títulos centrales”, y que la compañía ha “llevado a agarradera una investigación exhaustiva”.
Es la segunda vez que Xai reconoce públicamente un cambio no competente al código de Grok, causó que la IA respondiera de guisa controvertida.
En febrero, Grok brevemente censurado menciones poco halagadoras de Donald Trump y Elon Musk, el fundador multimillonario de Xai y propietario de X. Igor Babuschkin, un líder de ingeniería de Xai, dijo que Grok había sido instruido por un empleado pícaro Para ignorar las fuentes que mencionaron a Musk o Trump difundiendo información errónea, y que Xai volvió el cambio tan pronto como los usuarios comenzaron a señalarlo.
Xai dijo el jueves que hará varios cambios para evitar que ocurran incidentes similares en el futuro.
A partir de hoy, Xai lo hará editar las indicaciones del sistema de Grok en Github y en un ChangeLog. La compañía dice que asimismo “establecerá controles y medidas adicionales” para avalar que los empleados de XAI no puedan modificar el indicador del sistema sin revisión y establecer un “equipo de monitoreo 24/7 para replicar a incidentes con las respuestas de Grok que no son atrapados por los sistemas automatizados”.
A pesar de las frecuentes advertencias de Musk de los peligros de AI desaparecido desenfrenadoXai tiene un historial de seguridad de AI deficiente. Un noticia nuevo Descubrí que Grok desnudaría las fotos de las mujeres cuando se les pidiera. El chatbot asimismo puede ser considerablemente más incorrecto que AI como Gemini y ChatGpt de Google, maldiciendo sin mucha restricción de la que murmurar.
Un estudio de Saferai, una ordenamiento sin fines de beneficio con el objetivo de mejorar la responsabilidad de AI Labs, encontró que Xai ocupa un mal estado en la seguridad entre sus pares, conveniente a su Prácticas de encargo de riesgos “muy débiles”. A principios de este mes, xai perdió una época coto autoimpuesta Transmitir un entorno de seguridad de IA finalizado.
(tagstotranslate) Grok