Polémica en la inteligencia artificial: crecen las desinstalaciones de ChatGPT tras su acuerdo con el Ejército de EEUU
El chatbot de OpenAI registró un fuerte aumento en las desinstalaciones en Estados Unidos luego de sellar un acuerdo con el gobierno. Al mismo tiempo, Claude -desarrollado por Anthropic- ganó usuarios tras rechazar colaborar con las autoridades.
El negocio de la inteligencia artificial atraviesa una nueva disputa política y tecnológica en Estados Unidos. La decisión de OpenAI de firmar un acuerdo con el gobierno para colaborar con el Ejército generó reacciones entre los usuarios y tuvo impacto directo en las aplicaciones más utilizadas del sector.
De acuerdo con estadísticas de la consultora Sensor Tower, las desinstalaciones de ChatGPT crecieron un 295% interanual en Estados Unidos hacia fines de febrero. El salto contrasta con el nivel habitual de desinstalación de la aplicación, que ronda el 9%, lo que refleja un cambio abrupto en el comportamiento de los usuarios.
El malestar se produjo después de que OpenAI anunciara su cooperación con el Departamento de Guerra estadounidense -nombre histórico del actual Departamento de Defensa- para trabajar con tecnologías basadas en inteligencia artificial.
Mientras tanto, el movimiento del mercado también favoreció a uno de sus competidores. Claude, el chatbot desarrollado por Anthropic, registró un crecimiento significativo en descargas. Según los mismos datos, las instalaciones aumentaron 37% el 27 de febrero y 51% al día siguiente, en comparación con el mismo período del año anterior.
La reacción también se reflejó en las tiendas de aplicaciones. Las reseñas negativas para ChatGPT se dispararon un 775% el sábado y luego un 100% interanual el domingo en la App Store, mientras que Claude alcanzó el primer puesto entre las apps más descargadas en ese ranking.
El avance del chatbot de Anthropic no se limitó a Estados Unidos. También logró posicionarse por encima de ChatGPT en países como Canadá, Alemania, Bélgica, Noruega y Suiza.
Detrás de este cambio en las preferencias aparece una disputa política y ética dentro del sector tecnológico. Anthropic -una startup fundada en 2021 por exintegrantes de OpenAI- se negó a que sus modelos de inteligencia artificial sean utilizados por el gobierno estadounidense para vigilancia doméstica masiva o el desarrollo de armas autónomas.
Tras esa negativa, el presidente de Estados Unidos, Donald Trump, decidió prohibir el uso del chatbot Claude en agencias gubernamentales y cuestionó públicamente a la empresa.
En un mensaje publicado en su red social Truth Social, Trump acusó a la compañía de actuar contra los intereses de la seguridad nacional y criticó a sus directivos por intentar imponer las condiciones de uso del servicio al gobierno federal.
Desde Anthropic respondieron que una eventual designación de la empresa como riesgo para la seguridad nacional sería una medida "sin precedentes" para una compañía estadounidense. También adelantaron que recurrirán a la justicia si el gobierno intenta avanzar con sanciones.
En este contexto, OpenAI terminó ocupando el espacio que dejó su competidor y cerró un acuerdo de colaboración con el Departamento de Guerra. La decisión, sin embargo, parece haber tenido un costo inmediato en términos de percepción pública y comportamiento de los usuarios.