En una de las reuniones secretas de los principales ingenieros de OpenAI, alguien recordó un sketch de los humoristas británicos Mitchell and Webb en el que un soldado nazi, en un raro instante de lucidez, mira a su alrededor y pregunta: “¿Somos nosotros los malos?”. La escena que parece una broma incómoda, condensa un miedo que late dentro de esa empresa desde hace tiempo: si quien prometió construir una inteligencia artificial segura para beneficio de la humanidad no se convirtió en una nueva máquina de poder, dinero y oscuridad.
Por qué la tripulación de la Artemis II usa computadoras de hace 10 años en la nave Orion
El lunes 6 de abril, The New Yorker publicó un perfil de Sam Altman firmado por Ronan Farrow y Andrew Marantz tras un año de investigación que pone esa pregunta en el centro del debate.
En el artículo, se confirman con hechos y anécdotas reconstruidas hasta el mínimo detalle algo que muchos ya sospechábamos: Altman parece alguien capaz de decir cosas distintas según quién esté enfrente, prometer límites que después se evaporan y presentar como compromiso ético lo que en la práctica funciona como estrategia de expansión.
Lo que deja más preocupado tras la lectura no es solo que mienta en episodios puntuales, sino que convirtió esa elasticidad con la verdad en su método de liderazgo.
Acusan a un exempleado de Facebook de descargar 30.000 imágenes privadas de usuarios
Un espacio donde ese doble juego se ve claramente es la regulación de la IA. Altman construyó parte de su prestigio político con un discurso de prudencia: dijo que la IA debía ser regulada, que si salía mal podía salir “muy mal” y hasta propuso una nueva agencia federal para supervisar modelos avanzados.
Todo esto cuadró muy bien con un momento en que la opinión pública global había pasado de idolatrar a los dueños de las redes y plataformas sociales a empezar a desconfiar de sus mentiras, del daño que podían estar haciendo y a pedir regulaciones claras.
Pero el problema es que Altman no estaba siendo sincero y, mientras en público cultivaba esa imagen de empresario responsable, OpenAI hacía lobby para debilitar regulaciones concretas. El artículo documenta de forma extensa cómo presionó para diluir controles en Europa y combatió en California proyectos que imponían pruebas obligatorias de seguridad. La empresa rechazaba esas iniciativas en público y, en privado, operaba con aliados, amenazas y hasta citaciones judiciales contra quienes impulsaban esos límites.
La relación con la política estadounidense también muestra una notable capacidad de adaptación al poder. Durante la administración de Joe Biden, Altman fue un interlocutor frecuente de la Casa Blanca y colaboró en la elaboración de la orden ejecutiva que fijó los primeros guardrails federales para la IA. Pero después, con la caída política de Biden y el regreso de Donald Trump, Altman giró con rapidez. Donó al fondo de asunción, elogió públicamente al nuevo presidente y pasó a integrarse al nuevo esquema de poder tecnológico.
Un diario de EE.UU. apuesta a la IA y desata una fuerte polémica en el periodismo
El movimiento no fue solo simbólico. En el segundo día de gobierno, Altman apareció en la Sala Roosevelt para anunciar Stargate, una empresa conjunta de US$500.000 millones para infraestructura de IA en Estados Unidos.
Todo esto sucede mientras OpenAI se prepara para una posible salida a bolsa en medio de advertencias sobre una burbuja. La empresa se sostiene sobre una escala de gasto descomunal, alianzas cruzadas, deuda, expectativas exorbitantes y una promesa casi mesiánica sobre el futuro.
La pregunta, entonces, ya no es solo si Altman exagera o acomoda la verdad. Es si su forma de conducción —decir una cosa en público, negociar otra en privado y convertir cada límite en oportunidad de expansión— no terminó definiendo también el rumbo de toda la industria.



