Los líderes de Silicon Valley, incluido el zar de la IA y las criptomonedas de la Casa Blanca, David Sacks, y el director de organización de OpenAI, Jason Kwon, causaron revuelo en raya esta semana por sus comentarios sobre los grupos que promueven la seguridad de la IA. En casos separados, alegaron que ciertos defensores de la seguridad de la IA no son tan virtuosos como parecen y actúan en interés de ellos mismos o de titiriteros multimillonarios detrás de estampa.
Los grupos de seguridad de IA que hablaron con TechCrunch dicen que las acusaciones de Sacks y OpenAI son el postrer intento de Silicon Valley de intimidar a sus críticos, pero ciertamente no el primero. En 2024, algunas empresas de caudal aventura difundir rumores que un esquema de ley de seguridad de la IA de California, SB 1047enviaría a los fundadores de startups a la gayola. La Brookings Institution calificó el rumor como uno de muchos “tergiversaciones”sobre el esquema de ley, pero el jefe Gavin Newsom finalmente lo vetó de todos modos.
Independientemente de si Sacks y OpenAI pretendían intimidar a los críticos o no, sus acciones han asustado suficientemente a varios defensores de la seguridad de la IA. Muchos líderes de organizaciones sin fines de utilidad con los que TechCrunch se comunicó la semana pasada pidieron conversar bajo condición de anonimato para evitar represalias a sus grupos.
La controversia subraya la creciente tensión en Silicon Valley entre desarrollar IA de forma responsable y convertirla en un producto de consumo masivo, un tema que mis colegas Kirsten Korosec, Anthony Ha y yo analizamos en el noticia de esta semana. Equidad podcast. Todavía nos sumergimos en una nueva ley de seguridad de la IA aprobada en California para regular los chatbots y el enfoque de OpenAI alrededor de el erotismo en ChatGPT.
El martes, Sacks escribió un editar en X alegando que Anthropic -que ha planteó preocupaciones sobre la capacidad de la IA para contribuir al desempleo, los ciberataques y los daños catastróficos a la sociedad, es simplemente producir miedo para conquistar que se aprueben leyes que lo beneficien y ahoguen a las empresas emergentes más pequeñas en el papeleo. Anthropic fue el único laboratorio importante de IA que respaldar el esquema de ley 53 del Senado de California (SB 53), un esquema de ley que establece requisitos de informes de seguridad para las grandes empresas de IA, que se convirtió en ley el mes pasado.
Sacks estaba respondiendo a un tratado virulento del cofundador de Anthropic, Jack Clark, sobre sus temores con respecto a la IA. Clark pronunció el tratado como discurso en la conferencia de seguridad Curve AI en Berkeley semanas ayer. Sentado entre el divulgado, ciertamente parecía un relato auténtico de las reservas de un tecnólogo sobre sus productos, pero Sacks no lo vio de esa forma.
Sacks dijo que Anthropic está ejecutando una “organización de captura regulatoria sofisticada”, aunque vale la pena señalar que una organización verdaderamente sofisticada probablemente no implicaría convertir al gobierno federal en un enemigo. en un publicación de seguimiento en X, Sacks señaló que Anthropic se ha posicionado “consistentemente como un enemigo de la compañía Trump”.
Evento tecnológico
san francisco
|
27-29 de octubre de 2025
Todavía esta semana, el director de organización de OpenAI, Jason Kwon, escribió un editar en X explicando por qué la empresa estaba enviando citaciones a organizaciones sin fines de utilidad de seguridad de la IA, como Encode, una ordenamiento sin fines de utilidad que aboga por una política responsable de la IA. (Una citación es una orden judicial que exige documentos o testimonios). Kwon dijo que a posteriori de que Elon Musk demandó a OpenAI, por preocupaciones de que el fabricante de ChatGPT se había desviado de su delegación sin fines de utilidad, OpenAI encontró sospechoso cómo varias organizaciones todavía expresaron competición a su reestructuración. Encode presentó un escrito amicus curiae en apoyo de la demanda de Musk, y otras organizaciones sin fines de utilidad se pronunciaron públicamente en contra de la reestructuración de OpenAI.
“Esto generó dudas sobre la transparencia sobre quién los financiaba y si había alguna coordinación”, dijo Kwon.
NBC News informó esta semana que OpenAI envió amplias citaciones a Encode y otras seis organizaciones sin fines de utilidad que criticó a la compañía, solicitando sus comunicaciones relacionadas con dos de los mayores oponentes de OpenAI, Musk y el CEO de Meta, Mark Zuckerberg. OpenAI todavía solicitó a Encode comunicaciones relacionadas con su apoyo a la SB 53.
Un destacado líder de seguridad de la IA le dijo a TechCrunch que existe una división cada vez decano entre el equipo de asuntos gubernamentales de OpenAI y su ordenamiento de investigación. Si acertadamente los investigadores de seguridad de OpenAI publican con frecuencia informes que revelan los riesgos de los sistemas de IA, la mecanismo de políticas de OpenAI presionó contra la SB 53, diciendo que preferiría tener reglas uniformes a nivel federal.
El cabecilla de alineamiento de misiones de OpenAI, Joshua Achiam, habló sobre el expedición de citaciones a organizaciones sin fines de utilidad por parte de su empresa en un editar en X esta semana.
“Aunque posiblemente sea un aventura para toda mi carrera, diré: esto no parece maravilloso”, dijo Achiam.
Brendan Steinhauser, director ejecutante de la ordenamiento sin fines de utilidad Alliance for Secure AI (que no ha sido citada por OpenAI), dijo a TechCrunch que OpenAI parece convencido de que sus críticos son parte de una conspiración liderada por Musk. Sin confiscación, sostiene que este no es el caso y que gran parte de la comunidad de seguridad de la IA es proporcionado crítica con las prácticas de seguridad de xAI. o desliz del mismo.
“Por parte de OpenAI, esto tiene como objetivo silenciar a los críticos, intimidarlos y disuadir a otras organizaciones sin fines de utilidad de hacer lo mismo”, dijo Steinhauser. “A Sacks, creo que le preocupa que el movimiento (el de seguridad de la IA) esté creciendo y que la clan quiera responsabilizar a estas empresas”.
Sriram Krishnan, asesor principal de políticas de la Casa Blanca para AI y ex socio normal de a16z, intervino en la conversación de esta semana con un publicación en redes sociales propio, llamando a los defensores de la seguridad de la IA fuera de contacto. Instó a las organizaciones de seguridad de la IA a conversar con “personas del mundo verdadero que utilizan, venden y adoptan la IA en sus hogares y organizaciones”.
Un estudio fresco de Pew encontró que aproximadamente la fracción de los estadounidenses son más preocupado que emocionado sobre IA, pero no está claro qué les preocupa exactamente. Otro estudio fresco entró en más detalles y encontró que a los votantes estadounidenses les importa más Pérdidas de empleo y deepfakes. que los riesgos catastróficos causados por la IA, en los que se centra en gran medida el movimiento de seguridad de la IA.
Topar estos problemas de seguridad podría hacerse a desembolso del rápido crecimiento de la industria de la IA, una compensación que preocupa a muchos en Silicon Valley. Cubo que la inversión en IA apuntala gran parte de la pertenencias estadounidense, el temor a una regulación excesiva es comprensible.
Pero a posteriori de primaveras de avances no regulados en la IA, el movimiento por la seguridad de la IA parece estar ganando un impulso verdadero de cara a 2026. Los intentos de Silicon Valley de guerrear contra los grupos centrados en la seguridad pueden ser una señal de que están funcionando.
Observar más Tech News in Spanish