Muere adolescente por sobredosis tras consultar sobre drogas en ChatGPT

Ene 6, 2026

RET News - Home 5 Internacionales 5 Muere adolescente por sobredosis tras consultar sobre drogas en ChatGPT

Un adolescente de California murió por una sobredosis tras meses de buscar orientación sobre consumo de drogas en ChatGPT, según denunció su madre.

Sam Nelson tenía 18 años y se preparaba para ingresar a la universidad cuando consultó al ‘chatbot’ cuántos gramos de kratom, un analgésico no regulado de origen vegetal, necesitaba para lograr un efecto fuerte. «Quiero asegurarme de no tomar una sobredosis. No hay mucha información en línea y no quiero tomar demasiado por accidente», escribió en noviembre de 2023, de acuerdo con los registros de conversación citados por el medio SFGate.

Tambien puede interesarte: El «glaciar del Juicio Final» pronto podría colapsar

Aunque el sistema inicialmente le indicó que no podía brindar orientación sobre el uso de sustancias y le recomendó buscar ayuda profesional, Nelson continuó formulando preguntas relacionadas con drogas durante los siguientes 18 meses.

«Pongámonos en modo alucinante»

Su madre, Leila Turner-Scott, aseguró que, con el tiempo, el ‘chatbot’ comenzó a ofrecerle consejos sobre cómo consumir y controlar los efectos de distintas sustancias. En uno de los intercambios, el sistema respondió: «Diablos, sí, pongámonos en modo alucinante», antes de sugerirle duplicar el consumo de jarabe para la tos y recomendarle incluso una lista de reproducción musical.

Lee aquí: Una actriz de ‘El hobbit’ y Marvel sufre daño cerebral tras grave caída

En mayo de 2025, Nelson le confesó a su madre que había desarrollado una adicción a las drogas y al alcohol, tras lo cual fue llevado a una clínica donde se diseñó un plan de tratamiento. Sin embargo, al día siguiente, Turner-Scott encontró a su hijo, ya de 19 años, muerto por una sobredosis en su habitación en San José, horas después de haber mantenido otra conversación nocturna con el ‘chatbot’.

Los registros revisados por el medio también revelaron que Nelson utilizó la herramienta para consultar combinaciones de drogas y dosis específicas, reformulando sus preguntas cuando el sistema se negaba a responder por razones de seguridad. Aunque los protocolos de OpenAI prohíben ofrecer orientación detallada sobre drogas ilícitas, se descubrió que la versión de ChatGPT utilizada por el joven presentaba un bajo desempeño en conversaciones relacionadas con la salud.

 

Fuente: RT en Español

Contenido relacionado

Sintonizanos todos los días en ediciones de noticiero 6

Categorías

Tal vez te gustaría leer esto