Mundo
07 Ago 2025 | 18:34 h
¿Le cuentas tus problemas a ChatGPT? Este estado de EEUU prohíbe que la inteligencia artificial ofrezca terapia a los usuarios
La nueva normativa prohíbe que chatbots de IA brinden atención psicológica, con multas de hasta US$ 10.000 para quienes incumplan.
En Estados Unidos, Illinois se alza como pionero en el control de la inteligencia artificial (IA) en el ámbito de la salud mental. Muchas personas recurren a chatbots para buscar apoyo emocional o terapia. Sin embargo, expertos y profesionales han pedido que se establezcan reglas claras para evitar que estos programas ofrezcan tratamientos o evaluaciones que deberían hacer especialistas.
El gobernador JB Pritzker ha firmado la ley Bienestar y Supervisión de Recursos Psicológicos (WOPR). La norma prohíbe que cualquier aplicación o servicio basado en IA brinde atención psicológica o tome decisiones terapéuticas, así como diagnosticar trastornos mentales. Quienes incumplan podrían enfrentar multas de hasta US$ 10.000 en el estado de Illinois.
¿Qué contempla la nueva ley en Illinois sobre IA?
La ley restringe la intervención terapéutica por parte de la IA. No obstante, sí permite que los profesionales de salud mental usen estas herramientas para tareas administrativas, como tomar notas u organizar citas. Según expertos, esta regulación es necesaria para proteger a las personas y evitar que el algoritmo opere sin controles.
Vaile Wright, de la Asociación Americana de Psicología, ha advertido que hacer creer al público que la IA tiene la misma capacidad que un terapeuta humano pone en riesgo a los usuarios.
¿Qué postura han tomado las empresas de inteligencia artificial?
La normativa distingue entre aplicaciones de bienestar, como guías de meditación, que pueden seguir operando, y servicios que se promocionan como terapia constante o apoyo emocional, que están prohibidos. Por ejemplo, la app Ash Therapy, que se anuncia como ”la primera IA creada para terapia”, ha dejado de operar en Illinois, mostrando un mensaje que explica que están esperando regulación estatal.
Por su parte, OpenAI ha anunciado que ChatGPT ahora invita a los usuarios a hacer pausas durante sesiones largas para evitar sobrecarga y promueve respuestas que ayuden a evaluar opciones en lugar de dar frases directas (sí o no). Esto luego de reportes de personas que han experimentado episodios psicóticos o conductas de riesgo tras interacciones profundas con chatbots.
- ChatGPT
- inteligencia artificial
- Estados Unidos
Te puede interesar
Carlincaturas
Notas Recomendadas
Leer en la fuente
QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.