La aplicación móvil de ChatGPT registró un incremento del 295 por ciento en su tasa de desinstalaciones en Estados Unidos el sábado 28 de febrero, en comparación con el día anterior, de acuerdo con datos de la consultora Sensor Tower.
El repunte coincidió con la confirmación de un acuerdo entre OpenAI y el Departamento de Defensa de Estados Unidos para sustituir modelos desarrollados por Anthropic en determinados proyectos oficiales.
Según Sensor Tower, la tasa diaria habitual de desinstalaciones ronda el 9 por ciento. Sin embargo, el sábado se produjo un aumento inusual acompañado de un deterioro en las valoraciones dentro de las tiendas de aplicaciones. Las reseñas de una estrella crecieron 775 por ciento ese día y un 100 por ciento adicional el domingo, mientras que las calificaciones de cinco estrellas cayeron 50 por ciento.
La tendencia estuvo impulsada por una campaña en redes sociales bajo la consigna “Cancel ChatGPT”, promovida por usuarios que cuestionaron el alcance ético del acuerdo con el Pentágono.
La controversia se originó luego de que trascendiera que el Departamento de Defensa buscaba reemplazar los modelos de Anthropic, en particular Claude, utilizados en ciertos entornos gubernamentales.
De acuerdo con reportes especializados, Anthropic mantenía limitaciones explícitas para evitar el uso de su tecnología en vigilancia masiva y en el desarrollo de armas autónomas. Ante la intención del Pentágono de flexibilizar esas restricciones, la empresa se habría negado a modificar sus condiciones. Posteriormente, OpenAI anunció el entendimiento para que ChatGPT ocupara ese espacio.
La decisión generó críticas hacia el director ejecutivo de OpenAI, Sam Altman, quien previamente había respaldado públicamente posturas alineadas con mayores límites en el uso gubernamental de la inteligencia artificial.
Horas después de confirmarse el acuerdo, Altman sostuvo que se incorporaron enmiendas para aclarar los límites de uso de la tecnología, incluyendo protecciones relacionadas con la vigilancia masiva. No obstante, no se detallaron restricciones específicas sobre el desarrollo de armas autónomas letales, lo que mantuvo parte del descontento entre usuarios y analistas.
El impacto no se limitó a las desinstalaciones. La consultora Appfigures informó que, por primera vez en Estados Unidos, las descargas de Claude superaron a las de ChatGPT el mismo sábado.
Además, Claude se posicionó como la aplicación más descargada en al menos seis países fuera de EE. UU., entre ellos Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza.
Especialistas del sector señalan que el episodio podría interpretarse como un ejemplo del llamado “efecto Streisand”, donde un intento de presión o cuestionamiento termina reforzando la visibilidad y reputación de la parte señalada. En este caso, la negativa de Anthropic a modificar sus límites de uso fortaleció su imagen como empresa enfocada en la ética y el alineamiento de la inteligencia artificial.
Más allá del episodio puntual, la situación refleja la creciente tensión entre el desarrollo acelerado de la inteligencia artificial, su aplicación en entornos gubernamentales y las expectativas éticas de los usuarios.
Si bien no hay confirmación de medidas adicionales por parte del Departamento de Defensa, analistas consideran poco probable que se adopten acciones más drásticas contra Anthropic. Sin embargo, la controversia abre un nuevo capítulo en el debate sobre los límites del uso militar de la IA y el impacto reputacional que estos acuerdos pueden tener en las empresas tecnológicas.
Una mujer en Polanco generó debate en redes tras reclamar la falta de queso cottage…
Un video viral mostró a Nashla Aguilar ignorando aparentemente a Christopher Masterson durante un evento;…
La madre de Juan Jesús “N” aseguró que su hijo es inocente durante la audiencia…
Un autobús del Metrobús quedó varado en Viaducto Río de la Piedad y bloqueó la…
El presidente Donald Trump lanzó un mensaje sobre el futuro de Cuba que elevó la tensión, mientras Miguel Díaz-Canel advirtió que…
Leave a Comment