OpenAI vuelve a quedar en el centro de la discusión, pero esta vez el foco no está solo en la inteligencia artificial. Las miradas apuntan directo a Sam Altman y a cómo se toman decisiones dentro de la empresa. El debate crece y mezcla cuestiones técnicas con temas de liderazgo y confianza.
El nuevo informe publicado por The New Yorker reavivó críticas que ya venían circulando. Excompañeros y figuras cercanas describen a Altman como alguien difícil de leer, lo que genera dudas puertas adentro. Esto pone en juego la credibilidad de una de las compañías más influyentes del sector.
Viejas acusaciones que vuelven a escena
El reportaje firmado por Ronan Farrow y Andrew Marantz resume varias críticas en una idea clara. Algunas personas que trabajaron con Altman lo consideran evasivo, poco confiable, un sociópata. Un exmiembro del consejo fue más directo y aseguró que para él la verdad no es un límite.
Este tipo de cuestionamientos no es nuevo dentro de OpenAI. En 2023, el propio consejo de administración decidió despedirlo por no ser consistente en sus comunicaciones. Tiempo después volvió a su cargo como CEO, mientras varios opositores dejaron la empresa.
Las diferencias no quedaron en el pasado. Algunos exintegrantes fundaron nuevas compañías de IA que hoy compiten directamente. El caso más fuerte es Anthropic, liderada por Dario Amodei, donde el conflicto con Altman ya forma parte de la historia del sector.
Tensiones actuales y dudas sobre el futuro
Los problemas no se limitan a antiguos empleados. Según se informa, también hay fricciones dentro del equipo actual. La relación entre Altman y la directora financiera Sarah Friar sería tensa, algo que genera ruido en un momento clave.
OpenAI tiene en la mira salir a bolsa en 2026. En ese contexto, cualquier diferencia interna pesa más de lo normal. Friar habría expresado que la empresa no está lista para una OPI, lo que enciende alarmas sobre la planificación.
La compañía salió a responder estas versiones con un comunicado conjunto. Tanto Altman como Friar aseguraron haber participado en todas las decisiones importantes. Además, OpenAI cuestionó el enfoque del reportaje y señaló que utiliza testimonios parciales.
En paralelo, la propia OpenAI impulsó una discusión sobre el impacto de la inteligencia artificial. En su informe sobre políticas para esta nueva era, la empresa reconoce beneficios claros pero también riesgos importantes. Es un enfoque que busca anticiparse a lo que viene.
Entre los puntos más sensibles aparece la posible pérdida de empleos y el uso indebido de la tecnología. También se mencionan escenarios donde la IA podría escapar al control humano o ser utilizada contra valores democráticos. Todo esto refleja un panorama complejo y exigente.
La compañía propone medidas concretas para enfrentar estos desafíos. Plantea cambios fiscales que apunten a grandes empresas y personas con altos ingresos. También sugiere impuestos a compañías que reemplacen trabajadores por sistemas automatizados.
OpenAI sostiene que estos riesgos están ligados a su misión original. Desde su creación en 2015, la idea fue desarrollar IA de forma responsable. Hoy, con una estructura híbrida entre lo comercial y lo no lucrativo, intenta mantener ese equilibrio en un contexto cada vez más exigente.







