
¿Un hito inquietante para la inteligencia industrial o una amenaza sobrevalorada?
La flamante startup de IA Anthropic anuncio que haya detectado la primera campaña de piratería informática del mundo basada en inteligencia industrial ha provocado multitud de respuestas por parte de expertos en ciberseguridad.
Historias recomendadas
tira de 4 artículosfin de la tira
Mientras que algunos observadores han entregado la rebato sobre la tan temida arribada de un peligroso punto de inflexión, otros han recibido las afirmaciones con incredulidad, argumentando que el relato de la startup omite detalles cruciales y plantea más preguntas que respuestas.
En un referencia del viernes, Anthropic dijo que su asistente Claude Code fue manipulado para padecer a lado entre el 80 y el 90 por ciento de un ciberataque “a gran escalera” y “en extremo sofisticado”, y que la intervención humana fue necesaria “sólo esporádicamente”.
Anthropic, el creador del popular chatbot Claude, dijo que el ataque tenía como objetivo infiltrarse en agencias gubernamentales, instituciones financieras, empresas de tecnología y empresas de fabricación de productos químicos, aunque la operación sólo tuvo éxito en un pequeño número de casos.
La empresa con sede en San Francisco, que atribuyó el ataque a piratas informáticos patrocinados por el estado chino, no especificó cómo había descubierto la operación ni identificó a las “aproximadamente” 30 entidades que, según dijo, habían sido atacadas.
Roman V Yampolskiy, versado en inteligencia industrial y ciberseguridad de la Universidad de Louisville, dijo que no había duda de que la piratería asistida por inteligencia industrial representaba una amenaza arduo, aunque era difícil compulsar los detalles precisos de la cuenta de Anthropic.
“Los modelos modernos pueden escribir y adaptar códigos de explotación, examinar enormes volúmenes de datos robados y orquestar herramientas de forma más rápida y económica que los equipos humanos”, dijo Yampolskiy a Al Jazeera.
“Reducen la barrera de las habilidades para la entrada y aumentan la escalera a la que pueden tratar los actores con buenos posibles. De hecho, estamos colocando un equipo junior de operaciones cibernéticas en la abundancia, rentable por horas”.
Yampolskiy dijo que esperaba que la IA aumentara tanto la frecuencia como la formalidad de los ataques.
Jaime Sevilla, director de Epoch AI, dijo que no veía muchas novedades en el referencia de Anthropic, pero la experiencia pasada dictaba que los ataques asistidos por IA eran factibles y probablemente se volverían cada vez más comunes.
“Es probable que esto afecte más a las medianas empresas y a las agencias gubernamentales”, dijo Sevilla a Al Jazeera.
“Históricamente, no eran objetivos lo suficientemente valiosos para campañas dedicadas y a menudo no invertían lo suficiente en ciberseguridad, pero la IA los convierte en objetivos rentables. Espero que muchas de estas organizaciones se adapten contratando especialistas en ciberseguridad, lanzando programas de retribución por vulnerabilidades y utilizando IA para detectar y corregir las debilidades internamente”.
Si adecuadamente muchos analistas han expresado su deseo de obtener más información de Anthropic, algunos han desestimado sus afirmaciones.
Luego de que el senador estadounidense Chris Murphy advirtiera que los ataques dirigidos por IA “nos destruirían” si la regulación no se convertía en una prioridad, el estudiado director de Meta AI, Yann LeCun, criticó al parlamentario por suceder sido “jugado” por una empresa que investigación la captura regulatoria.
“Están asustando a todos con estudios dudosos para que los modelos de código franco sean regulados y dejen de existir”, dijo LeCun en una publicación en X.
Anthropic no respondió a una solicitud de comentarios.
Un portavoz de la embajada china en Washington, DC, dijo que China se opone “consistente y resueltamente” a todas las formas de ataques cibernéticos.
“Esperamos que las partes pertinentes adopten una porte profesional y responsable, basando su caracterización de los incidentes cibernéticos en pruebas suficientes, en oportunidad de especulaciones y acusaciones infundadas”, dijo Liu Pengyu a Al Jazeera.
Toby Murray, versado en seguridad informática de la Universidad de Melbourne, dijo que Anthropic tenía incentivos comerciales para resaltar tanto los peligros de este tipo de ataques como su capacidad para contrarrestarlos.
“Algunas personas han cuestionado las afirmaciones de Anthropic que sugieren que los atacantes lograron que Claude AI realizara tareas en extremo complejas con menos supervisión humana de la que normalmente se requiere”, dijo Murray a Al Jazeera.
“Desafortunadamente, no nos brindan pruebas contundentes para sostener exactamente qué tareas se realizaron o qué supervisión se proporcionó. Por lo tanto, es difícil emitir un proceso en un sentido u otro sobre estas afirmaciones”.
Aún así, Murray dijo que el referencia no le parecía particularmente sorprendente, considerando lo efectivos que son algunos asistentes de IA en tareas como la codificación.
“No veo que el hackeo impulsado por IA cambie los tipos de hackeos que ocurrirán”, afirmó.
“Sin bloqueo, podría marcar el principio de un cambio de escalera. Deberíamos esperar ver más hacks impulsados por IA en el futuro, y que esos hacks tengan más éxito”.
Si adecuadamente la IA planteará riesgos crecientes para la ciberseguridad, incluso será fundamental para animar las defensas, dicen los analistas.
Fred Heiding, investigador de la Universidad de Harvard que se especializa en seguridad informática y seguridad de IA, dijo que cree que la IA proporcionará una “delantera significativa” a los especialistas en ciberseguridad a holgado plazo.
“Hoy en día, muchas operaciones cibernéticas se ven frenadas por la escasez de ciberprofesionales humanos. La IA nos ayudará a exceder este cuello de botella al permitirnos probar todos nuestros sistemas a escalera”, dijo Heiding a Al Jazeera.
Heiding, quien describió el relato de Anthropic como ampliamente verosímil pero “exagerado”, dijo que el gran peligro es que los piratas informáticos tengan una ventana de oportunidad para volverse locos mientras los expertos en seguridad luchan por ponerse al día con su explotación de una IA cada vez más vanguardia.
“Desafortunadamente, es probable que la comunidad defensiva sea demasiado lenta para implementar la nueva tecnología en pruebas de seguridad automatizadas y soluciones de parcheo”, dijo.
“Si ese es el caso, los atacantes causarán estragos en nuestros sistemas con solo presionar un rama, ayer de que nuestras defensas hayan tenido tiempo de alcanzarlos”.
Repasar más Politics News in Spanish