El martes, pensaba que podría escribir una historia sobre el Implicaciones de la derogación de la sucursal Trump de la orden ejecutiva de Biden en AI. (La decano implicación: que los laboratorios ya no se les pide que denuncien capacidades peligrosas al gobierno, aunque pueden hacerlo de todos modos). Pero luego dos historias de IA más grandes y más importantes cayeron: una de ellas técnicas y una de ellas económicas.
Inscribirse aquí Para explorar los grandes y complicados problemas que enfrenta el mundo y las formas más eficientes de resolverlos. Enviado dos veces por semana.
Stargate es un software de empleos, pero tal vez no para los humanos
La historia económica es Stargate. Conexo con compañías como Oracle y SoftBank, el cofundador de Operai, Sam Altman, anunció un Increíble planificó una inversión de $ 500 mil millones En “Nueva infraestructura de IA para OpenAi”, es aseverar, para los centros de datos y las centros de energía que se necesitarán para alimentarlas.
La masa inmediatamente tenía preguntas. Primero, estaba el de Elon Musk revelación pública que “en verdad no tienen el monises”, seguido por la réplica de la CEO de Microsoft Satya Nadella: “Soy bueno por mis $ 80 mil millones. ” (Microsoft, recuerde, tiene una gran billete en OpenAi).
Segundo, algunos desafiado La afirmación de Openai de que el software “creará cientos de miles de empleos estadounidenses”.
¿Por qué? Bueno, la única forma plausible para que los inversores recuperen su monises en este plan es si, como la compañía ha estado apostando, Operai pronto desarrollará sistemas de IA que puedan hacer la mayoría de los trabajos que los humanos pueden hacer en una computadora. Los economistas son luchar ferozmente exactamente que impactos económicos Eso lo habría hecho, si se produjo, aunque la creación de cientos de miles de trabajos no parece uno, al menos no a prolongado plazo. (Divulgación: Vox Media es uno de los varios editores que han firmado acuerdos de asociación con OpenAI. Nuestros informes siguen siendo editorialmente independientes).
La automatización de masas ha sucedido antaño, al eclosión de la revolución industrial, y algunas personas Espere sinceramente Eso a prolongado plazo será poco bueno para la sociedad. (Mi opinión: eso efectivamente, efectivamente depende de si tenemos un plan para apoyar la responsabilidad democrática y la supervisión adecuada, y para compartir los beneficios del nuevo y inquietante mundo de ciencia ficción. En este momento, no tenemos eso, así que yo, así que yo ‘No estoy animando la posibilidad de ser automatizado).
Pero incluso si está más entusiasmado con la automatización que yo, “reemplazaremos todo el trabajo de oficina con AIS”, que se entiende congruo ampliamente como el maniquí de negocio de OpenAI, es un plan irracional para volver como un software de empleos. Pero entonces, una inversión de $ 500 mil millones para eliminar innumerables empleos probablemente no conseguiría el imprimatur de Donald Trump, como lo ha hecho Stargate.
Deepseek puede suceder descubierto refuerzo en la feedback de IA
La otra gran historia de esta semana fue Deepseek R1, un nuevo extensión Desde la startup de IA china, Deepseek, que la compañía anuncia como rival a OpenAi’s O1. Lo que hace que R1 sea un gran problema es menos las implicaciones económicas y más las técnicas.
Para enseñar a los sistemas de IA a dar buenas respuestas, calificamos las respuestas que nos dan y las capacitamos a casa en las que calificamos en extremo. Este es el “enseñanza de refuerzo de la feedback humana” (RLHF), y ha sido el enfoque principal para capacitar a LLMS modernos desde que un equipo de Operai lo hizo funcionar. (El proceso es descrito en este artículo de 2019.)
Pero RLHF no es como obtuvimos el Software de juegos de IA exaltado sobrehumano Alphazero. Eso fue entrenado utilizando una organización diferente, basada en el movilidad propio: la IA pudo inventar nuevos rompecabezas para sí mismo, resolverlos, instruirse de la posibilidad y mejorar desde allí.
Esta organización es particularmente útil para enseñar un maniquí cómo hacer rápidamente Cualquier cosa que pueda hacer gastos de forma costosa y lenta. Alphazero podría considerar lenta y en el tiempo con muchas políticas diferentes, descubrir cuál es la mejor y luego instruirse de la mejor posibilidad. Es este tipo de autoestima lo que hizo posible que Alphazero mejore ampliamente en los motores de movilidad anteriores.
Entonces, por supuesto, los laboratorios han estado tratando de descubrir poco similar para modelos de idiomas grandes. La idea básica es simple: permite que un maniquí considere una pregunta durante mucho tiempo, potencialmente usando muchos cálculos costosos. Luego lo capacita en la respuesta que finalmente encontró, tratando de producir un maniquí que pueda obtener el mismo resultado de forma más económica.
Pero hasta ahora, “los laboratorios importantes no parecían tener mucho éxito con este tipo de RL de sucursal cibernética”, ingeniero de enseñanza maquinal Peter Schmidt-Nielsen escribió En una explicación del significado técnico de Deepseek R1. Lo que tiene los ingenieros tan impresionados con (y tan alarmado por) R1 es que el equipo parece suceder progresado significativamente usando esa técnica.
Esto significaría que a los sistemas de IA se les puede enseñar a hacer de forma rápida y económica cualquier cosa que sepan de forma lenta y costosa, lo que haría algunas de las mejoras rápidas e impactantes en las capacidades que el mundo presenció con Alphazero, solo en áreas de la riqueza. Mucho más importante que retozar juegos.
Otro hecho sobresaliente aquí: estos avances provienen de una compañía china de IA. Poliedro que las compañías de IA de EE. UU. No tenemos achicopalado al usar el amenaza del dominio de la IA chino Para impulsar sus intereses, y hexaedro que efectivamente hay una carrera geopolítica en torno a esta tecnología, que dice mucho sobre cuán rápido puede estar al día China.
Mucha masa que conozco está harta de escuchar sobre la IA. Están hartos de Ai se inclina en sus alimentos para las noticiario y productos de inteligencia químico que son peores que los humanos pero la tierra ocasión, y no están enraizando exactamente a OpenAi (o cualquier otra persona) para convertirse en el Los primeros billonarios del mundo automatizan industrias enteras.
Pero creo que en 2025, la IA efectivamente va a importar, no por si estos sistemas poderosos se desarrollan, lo que en este punto se ve adecuadamente en marcha, sino si la sociedad está inventario para ponerse de pie e insistir en que se hace de forma responsable.
Cuando los sistemas de IA comienzan a llevar a cabo de forma independiente y cometen delitos graves (todos los principales laboratorios son Trabajando en “Agentes” Eso puede llevar a cabo de forma independiente en este momento), ¿haremos responsables a sus creadores? Si OpenAi hace un Ofrecimiento ridículamente disminución a su entidad sin fines de utilidad En su transición al status completamente con fines de utilidad, ¿intervendrá el gobierno para hacer cumplir la ley sin fines de utilidad?
Muchas de estas decisiones se tomarán en 2025, y las apuestas son muy altas. Si AI te inquieta, esa es una razón mucho más para exigir acto, lo que es una razón para desconectarte.
Una traducción de esta historia apareció originalmente en el Futuro consumado hoja informativa. ¡Regístrese aquí!
Nota del editor, 25 de enero de 2025, 9 am ET: Esta historia se ha actualizado para incluir una divulgación sobre la relación de Vox Media con OpenAI.