Una hoja de ruta para la IA, si cierto quiere escuchar

0
25
Una hoja de ruta para la IA, si cierto quiere escuchar

Una hoja de ruta para la IA, si cierto quiere escuchar

Si acertadamente la ruptura de Washington con Anthropic expuso la total descuido de reglas coherentes que gobiernen la inteligencia industrial, una coalición bipartidista de pensadores ha reunido poco que el gobierno hasta ahora se ha incapaz a producir: un ámbito para cómo debería ser positivamente el incremento responsable de la IA.

El Enunciación prohumana se finalizó antiguamente del enfrentamiento entre el Pentágono y Anthropic de la semana pasada, pero la colisión de los dos eventos no pasó desapercibida para ningún de los involucrados.

“Ha ocurrido poco conveniente extraordinario en Estados Unidos en los últimos cuatro meses”, dijo Max Tegmark, físico del MIT e investigador de IA que ayudó a organizar el esfuerzo. en conversacion con este editor. “Las encuestas de repente (muestran) que el 95% de todos los estadounidenses se oponen a una carrera no regulada con destino a la superinteligencia”.

El documento recién publicado, firmado por cientos de expertos, ex funcionarios y figuras públicas, comienza con la observación sensata de que la humanidad se encuentra en una bifurcación. Un camino, que la exposición lumbre “la carrera por el reemplazo”, lleva a que los seres humanos sean suplantados primero como trabajadores, luego como tomadores de decisiones, a medida que el poder se acumula en instituciones que no rinden cuentas y sus máquinas. El otro conduce a la IA que expande enormemente el potencial humano.

Este extremo ambiente depende de cinco pilares esencia: abastecer a los humanos a cargo, evitar la concentración de poder, proteger la experiencia humana, preservar la albedrío individual y responsabilizar legalmente a las empresas de IA. Entre sus disposiciones más contundentes se encuentra una prohibición absoluta del incremento de superinteligencia hasta que haya un consenso irrefutable de que se puede hacer de guisa segura y una recibimiento democrática genuina; apagados obligatorios en sistemas potentes; y una prohibición de arquitecturas que sean capaces de autorreplicación, superación autónoma o resistor al obstrucción.

La publicación de la exposición coincide con un período que hace mucho más posible apreciar su emergencia. El extremo viernes de febrero, el secretario de Defensa, Pete Hegseth, designó a Anthropic –cuya IA ya funciona en plataformas militares clasificadas– como un “aventura para la condena de suministro” luego de que la compañía se negara a otorgar al Pentágono el uso ilimitado de su tecnología, una calificativo normalmente reservada para empresas con vínculos con China. Horas más tarde, OpenAI llegó a su propio acuerdo con el Área de Defensa, uno que, según los expertos legales, será difícil de hacer cumplir de guisa significativa. Lo que todo esto dejó al descubierto es lo costosa que se ha vuelto la inacción del Congreso en materia de IA.

Como Dean Ball, miembro principal de la Fundación para la Innovación Estadounidense, dijo al New York Times Luego, “Esto no es sólo una disputa sobre un entendimiento. Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA”.

Evento tecnológico

San Francisco, California, EE.UU.
|
13-15 de octubre de 2026

Tegmark recurrió a una parecido que la mayoría de la familia puede entender cuando hablamos. “Nunca hay que preocuparse de que alguna compañía farmacéutica vaya a editar algún otro medicamento que cause un daño masivo antiguamente de que la familia haya descubierto cómo hacerlo seguro”, dijo, “porque la FDA no les permitirá liberar cero hasta que sea lo suficientemente seguro”.

Las guerras territoriales en Washington rara vez generan el tipo de presión pública que cambie las leyes. En empleo de ello, Tegmark considera que la seguridad de niño es el punto de presión que con maduro probabilidad romperá el coetáneo estancamiento. De hecho, la exposición exige pruebas obligatorias previas al despliegue de los productos de inteligencia industrial (en particular, chatbots y aplicaciones complementarias dirigidas a usuarios más jóvenes) que cubran riesgos que incluyen una maduro ideación suicida, agravamiento de condiciones de vitalidad mental y manipulación emocional.

“Si un anciano espeluznante le envía mensajes de texto a un irreflexivo de 11 abriles haciéndose producirse por una pupila y prostitución de persuadirlo para que se suicide, el tipo puede ir a la calabozo por eso”, dijo Tegmark. “Ya tenemos leyes. Es ilegal. Entonces, ¿por qué es diferente si lo hace una máquina?”

Cree que una vez que se establezca el principio de pruebas previas al extensión de productos para niños, el magnitud se ampliará casi inevitablemente. “La familia vendrá y dirá: agreguemos algunos otros requisitos. Quizás además deberíamos probar que esto no puede ayudar a los terroristas a tramar armas biológicas. Quizás deberíamos probar para asegurarnos de que la superinteligencia no tenga la capacidad de derrocar al gobierno de Estados Unidos”.

No es poca cosa que el ex asesor de Trump, Steve Bannon, y Susan Rice, asesora de seguridad franquista del presidente Obama, hayan firmado el mismo documento, anejo con el ex presidente del Estado Decano Conjunto, Mike Mullen, y líderes religiosos progresistas.

“En lo que están de acuerdo, por supuesto, es en que todos son humanos”, dice Tegmark. “Si todo se reduce a si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que estarán del mismo flanco”.

Estudiar más Tech News in Spanish