ChatGPT bajo presión: crecen las desinstalaciones tras el acuerdo de OpenAI con el Departamento de Defensa de Estados Unidos

La colaboración en proyectos de seguridad nacional desató críticas, cancelaciones masivas y reavivó el debate sobre el uso militar de la inteligencia artificial
La relación entre las empresas tecnológicas y los gobiernos volvió al centro de la escena global. En los últimos días, OpenAI enfrentó una fuerte reacción pública tras conocerse su acuerdo con el Departamento de Defensa de Estados Unidos, lo que derivó en una ola de desinstalaciones de ChatGPT y cancelaciones de suscripciones en tiempo récord.
Según datos de la consultora Sensor Tower, las desinstalaciones de la aplicación en Estados Unidos se dispararon cerca de un 295 % el 28 de febrero de 2026, pocas horas después de que trascendiera la colaboración. El incremento representa uno de los picos de abandono más abruptos desde el lanzamiento de la herramienta.
En paralelo, distintos reportes señalan que más de 1,5 millones de usuarios cancelaron sus planes pagos en menos de 48 horas. Aunque la empresa no difundió cifras oficiales, los indicadores reflejan un impacto inmediato dentro de su comunidad global.
Un acuerdo que abre interrogantes
El detonante de la controversia fue la confirmación de que OpenAI participará en proyectos vinculados a seguridad nacional, permitiendo el uso de modelos de inteligencia artificial en entornos gubernamentales, incluso en sistemas clasificados.
La noticia generó preocupación en sectores de la comunidad tecnológica, que advierten sobre los posibles usos de estas herramientas en contextos militares, vigilancia o conflictos armados. El debate se intensificó al conocerse que Anthropic, empresa responsable del chatbot Claude, habría optado por no avanzar en acuerdos similares por razones éticas.
Este contraste reavivó una discusión de fondo: hasta dónde deben involucrarse las compañías de inteligencia artificial en aplicaciones de defensa.
La respuesta de la empresa
Frente a la reacción, el CEO de OpenAI, Sam Altman, salió a aclarar el alcance de la colaboración. Según explicó, el acuerdo no contempla el desarrollo de armas autónomas ni el uso de inteligencia artificial para vigilancia doméstica de ciudadanos.
Desde la compañía sostienen que el objetivo es apoyar tareas como análisis de datos, ciberseguridad y procesamiento de información para organismos estatales. Sin embargo, para muchos usuarios y especialistas, estas precisiones no resultaron suficientes para disipar las dudas.
Protesta digital y desconfianza creciente
En redes sociales comenzó a circular la consigna “Cancel ChatGPT”, impulsada por usuarios que cuestionan el rol de las empresas tecnológicas en proyectos militares. La reacción evidencia una sensibilidad creciente frente al poder que concentran las compañías que desarrollan inteligencia artificial.
ChatGPT es utilizado por cientos de millones de personas en todo el mundo, lo que convierte cualquier decisión estratégica de OpenAI en un tema de alcance global. La confianza de los usuarios, en este contexto, se vuelve un activo tan importante como la innovación tecnológica.
¿Crisis real o reacción pasajera?
A pesar de la magnitud de las cifras iniciales, algunos analistas piden cautela. La base de usuarios de ChatGPT es tan amplia que incluso millones de bajas podrían representar una fracción relativamente pequeña del total.
Además, los picos de desinstalación suelen responder a reacciones inmediatas que luego se estabilizan. En muchos casos, los usuarios continúan utilizando el servicio desde navegadores o regresan a la aplicación con el paso de los días.
Un debate que trasciende a una empresa
Más allá del impacto puntual, el episodio pone en evidencia un cambio estructural: la inteligencia artificial ya es un recurso estratégico en la geopolítica global. Gobiernos de todo el mundo avanzan en su integración en áreas sensibles como defensa, seguridad e inteligencia.
En este escenario, las empresas tecnológicas enfrentan una presión creciente para definir límites éticos claros. El caso de OpenAI demuestra que sus decisiones no solo tienen implicancias comerciales o técnicas, sino también políticas y sociales.
El futuro de la inteligencia artificial no se juega únicamente en laboratorios o mercados, sino también en el terreno de la confianza pública. Y esa confianza, como muestran los últimos días, puede cambiar más rápido de lo esperado.