Enero ha sido extraordinario por el número de anuncios importantes en la IA. Para mí, dos se destacan: el apoyo del gobierno de los Estados Unidos al Esquema Stargate, un centro de datos superhombre que cuesta $ 500 mil millones, con inversiones provenientes de Oracle, SoftBank y OpenAi; y el tirada de Deepseek de su Maniquí de razonamiento R1entrenado a un costo estimado de aproximadamente $ 5 millones, un gran número pero una fracción de lo que cuesta OpenAi para entrenar sus modelos O1.
La civilización estadounidense ha asumido durante mucho tiempo que más ancho es mejor y que más caro es mejor. Ciertamente, eso es parte de lo que hay detrás del centro de datos más caro quia concebido. Pero tenemos que hacer una pregunta muy diferente. Si Deepseek fue entrenado durante aproximadamente una décima parte de lo que cuesta entrenar O1, y si la inferencia (suscitar respuestas) en Deepseek cuesta aproximadamente un trigésimo lo que cuesta en O1 ($ 2.19 por millón de tokens de salida frente a $ 60 por millón de tokens de producción), ¿Se dirige el sector de tecnología estadounidense en la dirección correcta?
Claramente no lo es. Nuestra mentalidad “más ancho es mejor” nos está fallando.
Durante mucho tiempo he creído que la secreto para el éxito de la IA sería minimizar el costo de capacitación e inferencia. No creo que en realidad haya una carrera entre las comunidades de IA de EE. UU. Y China. Pero si aceptamos esa metáfora, los Estados Unidos, y OpenAi en particular, están claramente a espaldas. Y un centro de datos de medio trillón de dólares es parte del problema, no de la posibilidad. La mejor ingeniería supera a “Supersize It”. Los tecnólogos en los Estados Unidos necesitan educarse esa aviso.