La inteligencia artificial es considerada una ayuda digital para muchos hoy en día, especialmente los chatbots, donde los usuarios realizan diferentes consultas, ya sea en el ámbito laboral o simplemente para comprobar datos de manera inmediata.
No obstante, ciertos usuarios han llegado a establecer un chat personalizado con los modelos de IA, donde esta actúa como un amigo más, al punto de llegar a transformarse en un psicólogo o, en el caso de este hombre, un nutricionista, quien lamentablemente tuvo una mala experiencia que lo llevó a desarrollar una enfermedad grave.
El hombre que casi muere por una dieta de ChatGPT
Un hombre de 60 años acudió al modelo de inteligencia artificial ChatGPT con la finalidad de que esta le creara un modelo de dieta que lo ayudara a reemplazar el cloruro sódico (sal) por otro complemento y así reducir su consumo.
La IA, ni corta ni perezosa, le recomendó cambiar la sal por bromuro de sodio. El sujeto, quien confiaba ciegamente en ChatGPT, estuvo durante más de tres meses empleando dicho “consejo” en sus alimentos diarios.
Según la publicación de la revista Annals of Internal Medicine Clinical Cases, el hombre empezó a presentar síntomas neurológicos y psiquiátricos, como alucinaciones, paranoia, insomnio y falta de equilibrio, donde no tuvo otra opción que acudir de emergencia al hospital más cercano, y lo que descubrieron los médicos fue insólito.
¿Qué enfermedad había adquirido el hombre tras el consumo de bromuro de sodio?
Tras diversos análisis clínicos, los médicos descubrieron que el hombre padecía de bromismo, una intoxicación común durante el siglo XIX y el XX, debido al consumo del bromuro de sodio, medicamento que se recetaba a las personas. Dicho fármaco fue retirado por su alto riesgo a la salud.
Además de presentar alucinaciones, el paciente tenía lesiones cutáneas, acné junto a pequeñas protuberancias rojizas causadas por la misma intoxicación. Sin embargo, los doctores le dieron un tratamiento especializado y el hombre fue dado de alta.
Médicos y usuarios exigen un control de la inteligencia artificial sobre las consultas de salud
Tras este impactante caso, los médicos y usuarios de internet han demostrado su indignación sobre la falta de control de ChatGPT y otros modelos de IA a nivel general ante los “consejos” de salud y nutrición, sugiriendo que la IA debería bloquear las consultas médicas del mismo modo en que lo hace con temas sobre drogas o violencia.
Ante la situación, OpenAI (creador de ChatGPT) señaló que sus servicios no están capacitados para el diagnóstico médico y tratamiento de enfermedades en general, indicando que sus comentarios y servicios deben ser usados únicamente como fuente de información.
Leer en la fuente
QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.