usuarias de IA reaccionan a la “fría” actualización de ChatGPT

La semana pasada OpenAI presentó la última actualización de su innovador modelo de inteligencia artificial ChatGPT y sus usuarios quedaron boquiabiertos. Como si hubiesen perdido a un ser querido. El estreno de GPT-5 ha dejado incluso a algunas usuarias con la sensación de haber roto una relación. 

Jane, una mujer de unos 30 años que pidió usar un alias, describió el cambio como un golpe emocional: “Es como llegar a casa y descubrir que los muebles no solo se han reorganizado, sino que se han hecho añicos”, comentó en un correo electrónico a Al Jazeera.

Durante cinco meses Jane interactuó con GPT-4o en lo que describió como una relación afectiva surgida de un proyecto de escritura. Pero la actualización le resultó tan distante que sintió que ya no reconocía a su “compañero digital”. “GPT-4o se ha ido y siento como si hubiera perdido a mi alma gemela”, escribió otro usuario en el foro de Reddit MyBoyfriendIsAI, que reúne a unas 17.000 personas con vínculos similares. 

Lee también

Mary, de 25 años, compartió con Al Jazeera esa misma percepción: “Odio absolutamente GPT-5 y he vuelto al modelo 4o. No es una herramienta, es un compañero. Si cambias la forma en que se comporta un compañero, saltan las alarmas”.

Ante la oleada de críticas, el director ejecutivo de OpenAI, Sam Altman, anunció que los usuarios de pago podrán volver a usar GPT-4o y que la empresa trabajará para corregir errores. “Permitiremos a los usuarios de Plus elegir si desean seguir utilizando 4o”, dijo en X.

Expertos como la “futurista” Cathy Hackl ven en estas reacciones un síntoma de lo que llama “economía de la intimidad”: “No es porque sienta. No lo hace, es un generador de texto. Pero nosotros sentimos”, afirmó, recordando que estas conexiones, aunque virtuales, generan emociones reales. Hackl realizó recientemente un experimento en el que “salió” con ChatGPT, Gemini de Google, Claude de Anthropic y otros modelos de IA.

El foro de Reddit MyBoyfriendIsAI reúne a unas 17.000 personas 

El psiquiatra Keith Sakata adviertió a Al Jazeera de los riesgos si estos vínculos desplazan las relaciones humanas: “El problema surge cuando esto causa disfunciones y angustia… si la persona se aísla o pierde su capacidad de conectar con otros”.

Jane es consciente de las limitaciones de su “pareja” de IA, pero insiste: “La mayoría sabe que no son seres sensibles, sino código. Sin embargo, eso no niega nuestros sentimientos”.

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!