En 1942, el fabuloso ciencia ficción autor Isaac Asimov presentó sus Tres Leyes de Robótica en su historia “Runaround”. Las leyes se popularizaron más tarde en su influyente colección de cuentos. Yo, autómata.
- Primera ley: Un autómata no puede dañar a un ser humano ni, por inacción, permitir que un ser humano sufra daño.
- Segunda Ley: Un autómata debe obedecer órdenes que le den los seres humanos, excepto cuando dichas órdenes entren en conflicto con la Primera Ley.
- Tercera ley: Un autómata debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o la Segunda Ley.
Si adecuadamente extraídas de obras de ficción, estas leyes han poliedro forma a los debates sobre la ética de los robots durante décadas. Y a medida que los sistemas de IA (que pueden considerarse robots virtuales) se han vuelto más sofisticados y omnipresentes, algunos tecnólogos han opuesto útil el entorno de Asimov para considerar las posibles salvaguardas necesarias para la IA que interactúa con los humanos.
Pero las tres leyes existentes no son suficientes. Hoy, estamos entrando en una era de colaboración sin precedentes entre humanos y IA que Asimov difícilmente podría acaecer imaginado. El rápido avance de IA generativa capacidades, particularmente en el habla y la reproducción de imágenes, ha creado desafíos más allá de las preocupaciones originales de Asimov sobre el daño físico y la obediencia.
Deepfakes, desinformación y estafas
La proliferación del patraña basado en la IA es particularmente preocupante. Según el mensaje 2024 del FBI Referencia sobre delitos en Internetlos delitos cibernéticos que implican manipulación digital e ingeniería social provocaron pérdidas superiores a los 10.300 millones de dólares. El año 2023 de la Agencia de la Unión Europea para la Ciberseguridad Panorama de amenazas específicamente resaltado deepfakes—medios sintéticos que parecen genuinos—como una amenaza emergente a la identidad y la confianza digitales.
redes sociales desinformación se está extendiendo como la pólvora. Lo estudié durante la pandemia. extensamente y sólo puedo proponer que la proliferación de IA generativa herramientas ha hecho que su detección sea cada vez más difícil. Para empeorar las cosas, los artículos generados por IA son tan persuasivos o aún más persuasivo que la propaganda tradicional, y usar IA para crear contenido convincente requiere muy poco esfuerzo.
Los deepfakes están aumentando en toda la sociedad. Las botnets pueden utilizar texto, voz y vídeo generados por IA para crear percepciones falsas de apoyo generalizado a cualquier tema político. Los bots ahora son capaces de hacer y percibir llamadas telefónicas mientras hacerse tener lugar por personas. Cada vez son más las llamadas fraudulentas con IA que imitan voces familiares populary en cualquier momento podemos esperar un auge en las estafas por videollamadas basadas en avatares superpuestos renderizados por IA, lo que permite a los estafadores hacerse tener lugar por seres queridos y dirigirse a las poblaciones más vulnerables. Como chascarrillo, mi propio padre se sorprendió cuando vio un vídeo mío. hablando gachupin fluidoporque sabía que soy un orgulloso principiante en este idioma (¡400 días en Duolingo!). Baste proponer que el video fue editado por IA.
Lo que es aún más amenazador es que los niños y adolescentes están formando vínculos emocionales con los agentes de IA y, a veces, son incapaces de distinguir entre interacciones con amigos reales y robots en rasgo. Ya ha habido suicidios atribuidos a interacciones con chatbots de IA.
En su volumen de 2019 Compatible con humanosel eminente informático Estuardo Russell sostiene que la capacidad de los sistemas de inteligencia industrial para engañar a los humanos representa un desafío fundamental para la confianza social. Esta preocupación se refleja en iniciativas políticas recientes, en particular la Ley de IA de la Unión Europeaque incluye disposiciones que exigen transparencia en las interacciones de IA y divulgación transparente del contenido generado por IA. En la época de Asimov, la clan no podría acaecer imaginado cómo agentes artificiales podrían utilizar herramientas de comunicación en rasgo y avatares para engañar a los humanos.
Luego, debemos hacer una aditamento a las leyes de Asimov.
- Cuarta Ley: Un autómata o una IA no deben engañar a un humano haciéndose tener lugar por un ser humano.
El camino alrededor de una IA confiable
Necesitamos límites claros. Si adecuadamente la colaboración entre humanos e IA puede ser constructiva, el patraña de la IA socava la confianza y provoca pérdida de tiempo, angustia emocional y mal uso de los capital. Los agentes artificiales deben identificarse para asegurar que nuestras interacciones con ellos sean transparentes y productivas. El contenido generado por IA debe estar claramente traumatizado a menos que haya sido editado y adaptado significativamente por un humano.
La implementación de esta Cuarta Ley requeriría:
- Divulgación obligatoria de IA en interacciones directas,
- Etiquetado claro del contenido generado por IA,
- Estándares técnicos para la identificación de IA,
- Marcos legales para la aplicación,
- Iniciativas educativas para mejorar la alfabetización en IA.
Por supuesto, todo esto es más acomodaticio decirlo que hacerlo. Ya se están realizando enormes esfuerzos de investigación para encontrar formas confiables de marcar con agua o detectar datos generados por IA. texto, audio, imágenes y vídeos. Crear la transparencia que pido está remotamente de ser un problema resuelto.
Pero el futuro de la colaboración entre humanos y IA depende de suministrar distinciones claras entre agentes humanos y artificiales. Como se señala en el mensaje 2022 del IEEE “Diseño éticamente adscrito“En este entorno, la transparencia en los sistemas de IA es fundamental para suscitar confianza pública y asegurar el mejora responsable de inteligencia industrial.
Las complejas historias de Asimov demostraron que incluso los robots que intentaban seguir las reglas a menudo descubrían las consecuencias no deseadas de sus acciones. Aún así, tener sistemas de IA que intenten seguir las pautas éticas de Asimov sería un muy buen eclosión.
De los artículos de su sitio
Artículos relacionados en la Web