Síganos

6/recent/ticker-posts

Ad Code

Responsive Advertisement

Un proyecto de ley de California para regular la IA genera alarma en Silicon Valley

Un proyecto de ley de California que podría imponer restricciones a la inteligencia artificial tiene a empresas de tecnología, inversores y activistas luchando por explicar qué podría significar esta legislación, la primera de su tipo, para su industria en el estado.

El proyecto de ley aún está en trámite en la capital del estado, Sacramento. Se espera que llegue al comité de asignaciones de la asamblea estatal de California el jueves antes de ser sometido a votación en la asamblea en pleno.

Si el gobernador Gavin Newsom lo promulga, el proyecto de ley obligaría a las empresas a probar la seguridad de las tecnologías de inteligencia artificial antes de ponerlas a disposición del público. También permitiría al fiscal general de California demandar a las empresas si sus tecnologías causan daños graves, como daños materiales masivos o pérdidas humanas.

El debate sobre el proyecto de ley de inteligencia artificial, llamado SB 1047, es un reflejo de los argumentos que han impulsado el intenso interés en la inteligencia artificial. Los opositores creen que ahogará el progreso de las tecnologías que prometen aumentar la productividad de los trabajadores, mejorar la atención médica y combatir el cambio climático.

Los partidarios del proyecto de ley creen que ayudará a prevenir desastres y a poner límites al trabajo de las empresas que se centran demasiado en las ganancias. El año pasado, muchos expertos en IA y ejecutivos del sector tecnológico lideraron debates públicos sobre los riesgos de la IA e incluso instaron a los legisladores de Washington a ayudar a establecer esos límites.

Ahora, en un cambio radical, la industria tecnológica se muestra reacia a intentar hacer exactamente eso en California. Como tienen su sede en el estado y hacen negocios allí, muchas de las principales empresas de inteligencia artificial, incluidas Google, Meta, Anthropic y OpenAI, estarían sujetas a la ley propuesta, que podría sentar un precedente para otros estados y gobiernos nacionales.

La SB 1047 llega en un momento precario para el Área de la Bahía de San Francisco, donde se encuentran gran parte de la comunidad de empresas emergentes de inteligencia artificial, así como muchas de las compañías más grandes de la industria. El proyecto de ley, argumentan sus críticos más duros, podría impulsar el desarrollo de la inteligencia artificial a otros estados, justo cuando la región se está recuperando de una crisis inducida por la pandemia.

Algunos investigadores destacados en el campo de la inteligencia artificial han apoyado el proyecto de ley, entre ellos Geoff Hinton, ex investigador de Google, y Yoshua Bengio, profesor de la Universidad de Montreal. Ambos han pasado los últimos 18 meses advirtiendo sobre los peligros de esta tecnología. Otros pioneros de la inteligencia artificial se han manifestado en contra del proyecto de ley, entre ellos el científico jefe de Meta, Yann LeCun, y los ex ejecutivos de Google y profesores de Stanford Andrew Ng y Fei-Fei Li.

La oficina de Newsom se negó a hacer comentarios. Google, Meta y Anthropic también se negaron a hacer comentarios. Una portavoz de OpenAI dijo que el proyecto de ley podría frenar la innovación al crear un panorama legal incierto para la construcción de IA. La empresa dijo que ha expresado sus preocupaciones en reuniones con la oficina de Wiener y que los riesgos graves de la IA son cuestiones de seguridad nacional que deberían ser reguladas por el gobierno federal, no por los estados.

(El New York Times demandó a OpenAI y Microsoft, alegando violación de derechos de autor de contenido noticioso relacionado con sistemas de IA. Las empresas han negado las acusaciones).

El proyecto de ley tiene sus raíces en los “salones de IA” que se celebran en San Francisco. El año pasado, el senador estatal de California Scott Wiener asistió a una serie de esos salones, donde jóvenes investigadores, empresarios, activistas y filósofos aficionados debatieron sobre el futuro de la inteligencia artificial, dijo Wiener.

Después de participar en esas discusiones, el Sr. Wiener dijo que creó la SB 1047, con aportes del grupo de presión del Centro para la Seguridad de la IA, un grupo de expertos vinculado al altruismo eficaz, un movimiento que desde hace mucho tiempo se ha preocupado por prevenir las amenazas existenciales de la IA.

El proyecto de ley exigiría pruebas de seguridad para los sistemas cuyo coste de desarrollo supere los 100 millones de dólares y que se entrenen utilizando una determinada cantidad de potencia informática bruta. También crearía una nueva agencia estatal que defina y controle esas pruebas. Dan Hendrycks, fundador del Centro para la Seguridad de la IA, dijo que el proyecto de ley obligaría a las mayores empresas tecnológicas a identificar y eliminar el comportamiento dañino de sus tecnologías más caras.

“Los sistemas complejos tendrán un comportamiento inesperado. Se puede contar con ello”, afirmó el Dr. Hendrycks en una entrevista con The New York Times. “El proyecto de ley es un llamado a garantizar que estos sistemas no presenten peligros o, si los hay, que los sistemas cuenten con las salvaguardas adecuadas”.

Las tecnologías de inteligencia artificial actuales pueden ayudar a difundir desinformación en línea, incluidos textos, imágenes fijas y videos. También están empezando a eliminar algunos puestos de trabajo. Pero los estudios realizados por OpenAI y otros durante el año pasado mostraron que las tecnologías de inteligencia artificial actuales no eran significativamente más peligrosas que los motores de búsqueda.

Aun así, algunos expertos en IA sostienen que se avecinan graves peligros. Por ejemplo, Dario Amodei, director ejecutivo de Anthropic, una destacada empresa emergente de inteligencia artificial, dijo al Congreso el año pasado que las nuevas tecnologías de inteligencia artificial podrían ayudar pronto a personas no cualificadas a crear ataques biológicos a gran escala.

El señor Wiener dijo que estaba tratando de evitar esos escenarios aterradores.

“Históricamente, hemos esperado a que sucedieran cosas malas y luego nos hemos lamentado y hemos tenido que lidiar con ellas más tarde, a veces cuando el caballo ya había salido del establo y era demasiado tarde”, dijo Wiener en una entrevista. “Así que mi opinión es que tratemos de adelantarnos a los riesgos y anticiparnos a ellos de una manera muy sutil”.

Google y Meta enviaron cartas a Wiener expresando su preocupación por el proyecto de ley. Anthropic, la empresa de Amodei, sorprendió a muchos observadores cuando también se opuso al proyecto de ley en su forma actual y sugirió cambios que permitirían a las empresas controlar sus propias pruebas de seguridad. La empresa dijo que el gobierno sólo debería intervenir si se causaban daños reales.

Wiener dijo que la oposición de los gigantes tecnológicos envía mensajes contradictorios. Las empresas ya han prometido a la administración Biden y a los reguladores globales que probarán la seguridad de sus sistemas.

“Los directores ejecutivos de Meta, Google y OpenAI, todos ellos, se han ofrecido voluntariamente a realizar pruebas y eso es lo que este proyecto de ley les pide que hagan”, dijo.

Los críticos del proyecto de ley dicen que les preocupa que las normas de seguridad añadan nuevas responsabilidades al desarrollo de la IA, ya que las empresas tendrán que hacer una promesa legal de que sus modelos son seguros antes de lanzarlos. También argumentan que la amenaza de acciones legales por parte del fiscal general del estado disuadirá a los gigantes tecnológicos de compartir el código de software subyacente a su tecnología con otras empresas y desarrolladores de software, una práctica conocida como código abierto.

El código abierto es algo común en el mundo de la inteligencia artificial. Permite que pequeñas empresas e individuos aprovechen el trabajo de organizaciones más grandes, y los críticos de la SB 1047 sostienen que el proyecto de ley podría limitar severamente las opciones de las empresas emergentes que no cuentan con los recursos de gigantes tecnológicos como Google, Microsoft y Meta.

“Podría sofocar la innovación”, dijo Lauren Wagner, inversionista e investigadora que ha trabajado tanto para Google como para Meta.

Los partidarios del código abierto creen que compartir código permite a los ingenieros e investigadores de toda la industria identificar y solucionar rápidamente problemas y mejorar las tecnologías.

Jeremy Howard, empresario e investigador de IA que ayudó a crear las tecnologías que impulsan los principales sistemas de IA, dijo que el nuevo proyecto de ley de California garantizaría que las tecnologías de IA más poderosas pertenecieran únicamente a las empresas tecnológicas más grandes. Y si estos sistemas llegaran a superar la potencia del cerebro humano, como creen algunos investigadores de IA, el proyecto de ley consolidaría el poder en manos de unas pocas corporaciones.

“Estas organizaciones tendrían más poder que cualquier país, cualquier entidad de cualquier tipo. Estarían en control de una superinteligencia artificial”, dijo Howard. “Esa es una receta para el desastre”.

Otros sostienen que si no se permite que el desarrollo de código abierto florezca en Estados Unidos, se extenderá a otros países, incluida China. La solución, sostienen, es regular la forma en que las personas utilizan la IA en lugar de regular la creación de la tecnología central.

“La IA es como un cuchillo de cocina, que puede usarse para cosas buenas, como cortar una cebolla, y para cosas malas, como apuñalar a una persona”, dijo Sebastian Thrun, investigador de IA y emprendedor en serie que fundó el proyecto de autos autónomos en Google. “No deberíamos intentar ponerle un interruptor a un cuchillo de cocina. Deberíamos intentar evitar que la gente lo use mal”.

Leer más Tech News in Spanish

Reactions

Publicar un comentario

0 Comentarios

Ad Code

Responsive Advertisement