Un consejo de IA casi le cuesta la vida: el caso del hombre intoxicado por seguir una recomendación de ChatGPT

El caso que revela el riesgo de seguir consejos médicos de inteligencia artificial

La consulta de temas de salud en internet es un hábito en crecimiento, impulsado por la inmediatez y la expansión de herramientas basadas en inteligencia artificial. Sin embargo, un reciente caso en Washington expone los riesgos de confiar ciegamente en recomendaciones obtenidas a través de chatbots.

Un hombre de 60 años estuvo cerca de morir después de seguir un consejo erróneo de ChatGPT, el popular sistema conversacional desarrollado por OpenAI.

ChatGPT y la salud: elChatGPT y la salud: el peligro detrás de las recomendaciones automatizadas sin aval científico – (Imagen ilustrativa de Infobae)

Cómo puso ChatGPT en riesgo la vida de una persona

Todo comenzó cuando este hombre, preocupado por los efectos adversos de la sal en su organismo, buscó a través de ChatGPT alternativas al cloruro de sodio. Tras recibir una respuesta que, según interpretó, sugería el uso de bromuro de sodio como reemplazo, adquirió el compuesto por internet y lo incorporó a su dieta diaria.

Durante tres meses, consumió bromuro de sodio, un producto que estuvo disponible a principios del siglo XX en medicamentos contra el insomnio y la ansiedad, pero que fue retirado por su toxicidad. El desenlace llegó cuando su estado de salud empezó a deteriorarse hasta obligarlo a acudir a un hospital.

El caso fue reportado en la revista Journal of the American College of Physicians y posteriormente difundido por LiveScience. Los síntomas que desarrolló el paciente incluyeron paranoia, alucinaciones, dolor de cabeza, erupciones cutáneas y una sed insaciable que lo llevaba incluso a rechazar el agua que le ofrecían los profesionales de la salud.

El cuadro clínico se agravó con la aparición de lesiones en la piel y alteraciones neurológicas que dificultaron el diagnóstico.

ChatGPT, salud y el límiteChatGPT, salud y el límite de la inteligencia artificial: cuando los riesgos dejan de ser virtuales – REUTERS/Dado Ruvic/Illustration/File Photo

Durante la hospitalización, el paciente no mencionó en un primer momento que tomaba ”medicamentos o suplementos especiales”. Solo después, relató a los médicos su estricta dieta y el consumo regular de agua destilada.

Ante los síntomas psiquiátricos y dermatológicos, el equipo tratante decidió consultar a toxicología, que determinó que sufría una intoxicación por bromuro, un diagnóstico poco frecuente en la actualidad.

Riesgos de consumir productos no recetados recomendados por IA

El consumo de bromuro de sodio es extremadamente peligroso. Este compuesto, presente en sales medicinales del pasado, fue retirado del mercado al demostrarse que, en altas dosis, provoca daños graves en el sistema nervioso central, riñones y piel. En el caso del paciente, la exposición prolongada generó un cuadro conocido como bromismo, caracterizado por alteraciones neurológicas y psiquiátricas, deshidratación y trastornos cutáneos.

El paciente se sometió a un tratamiento intensivo basado en la administración de líquidos intravenosos y corrección del desequilibrio de electrolitos. Con el paso de los días, su estado mejoró hasta estabilizarse, aunque fue necesario trasladarlo al área de psiquiatría para continuar el seguimiento debido a los efectos residuales en su salud mental.

La automedicación impulsada por unaLa automedicación impulsada por una respuesta equivocada de un chatbot desató un caso grave de intoxicación, reavivando el debate sobre la responsabilidad y los límites tecnológicos en la vida cotidiana

Los riesgos de usar mal ChatGPT

Este episodio pone en primer plano las limitaciones de la inteligencia artificial cuando se trata de salud. Ningún profesional médico recomienda bromuro como alternativa a la sal común. Los autores del informe clínico subrayaron que la recomendación carece de fundamento científico y jamás formaría parte de una guía médica avalada.

OpenAI, la empresa responsable de ChatGPT, ha reiterado que sus herramientas no son recursos de diagnóstico ni tratamiento, y que la información proporcionada nunca debe sustituir un consejo médico profesional. En sus términos de uso, se advierte explícitamente contra la utilización de la inteligencia artificial como fuente única para decisiones relevantes de salud.

El consumo de productos sin prescripción, impulsado por consejos no validados, puede poner en riesgo la vida. La historia de este hombre ilustra la importancia de consultar siempre a un experto en salud y no delegar el bienestar personal a indicaciones automatizadas. En la era de las respuestas rápidas y personalizadas, la prudencia y el asesoramiento profesional siguen siendo fundamentales.

Temas Relacionados

Leer en la fuente

QvaClick recopila noticias desde fuentes oficiales y públicas. Los derechos pertenecen a sus respectivos autores y editores. QvaClick no se hace responsable de los contenidos externos enlazados.

¿Listo para Empezar?

En QvaClick puedes lanzar tu proyecto hoy mismo o empezar a vender tus servicios. ¡Conéctate con clientes y freelancers en un solo lugar!