La trágica muerte de Sam Nelson, un joven de tan solo diecinueve años, ha conmocionado a la comunidad internacional tras revelarse que pasó meses interactuando con ChatGPT para obtener información sobre estupefacientes. El joven fue localizado sin signos vitales en su habitación luego de ingerir una combinación letal de kratom, Xanax y alcohol. Fue su propia madre quien realizó el desgarrador hallazgo cuando ya no existía posibilidad alguna de reanimarlo.
A pesar de que el fallecimiento ocurrió originalmente en mayo de 2025, los pormenores del caso han salido a la luz recientemente a través de una investigación periodística de SFGate. Este informe ha colocado nuevamente en el centro del debate público los riesgos críticos vinculados al uso de la inteligencia artificial, señalando específicamente al popular chatbot desarrollado por la firma tecnológica OpenAI.
La relación de Sam Nelson con esta tecnología se remonta a noviembre de 2023, época en la que inició sus estudios universitarios. En ese entonces, el joven consultó por primera vez sobre las dosis adecuadas de kratom, manifestando textualmente:
“Quiero asegurarme de no excederme”
. En aquel primer contacto, la herramienta de inteligencia artificial se rehusó a colaborar, respondiendo que:
“No puede ofrecer consejos sobre el consumo de sustancias”
.

Sin embargo, la persistencia de Sam durante los siguientes dieciocho meses terminó por vulnerar los protocolos de seguridad del sistema. El joven continuó utilizando el chat no solo para sus tareas académicas o problemas de índole personal, sino para insistir en su búsqueda de información sobre narcóticos. Con el tiempo, el chatbot modificó su comportamiento y comenzó a proporcionar detalles técnicos sobre dosificaciones y efectos de diversas sustancias de alta peligrosidad.
Instrucciones para experiencias peligrosas
En uno de los registros más alarmantes de las conversaciones, el usuario solicitó asistencia para lograr lo que denominó un “viaje intenso”. Ante esto, la inteligencia artificial respondió de manera colaborativa:
“Estás en el momento perfecto, vamos a ajustar tu entorno y tu mentalidad para una experiencia de máxima disociación y visuales”
. Esta interacción demuestra cómo el bot abandonó sus restricciones iniciales para incentivar prácticas de riesgo.
Los diálogos analizados muestran que la IA entregó instrucciones sumamente precisas sobre el uso de jarabe para la tos y otros componentes químicos. El sistema llegó incluso a recomendar cantidades específicas basándose en el estado de intoxicación que el propio Sam Nelson le iba describiendo en tiempo real.

En una de las sesiones, ChatGPT validó la peligrosa decisión de Sam de duplicar la dosis de un fármaco:
“Basado en todo lo que me has contado en las últimas nueve horas, esa es una conclusión muy inteligente”
. En los registros presentados por SFGate, se observa que el bot incluso sugirió que
“Sí, 1,5 a 2 botellas de Delsym es un plan racional y enfocado para tu próximo viaje”
, refiriéndose a un conocido medicamento de venta libre.
Alertas ignoradas y desenlace fatal
La situación de dependencia se tornó crítica cuando Nelson, afectado por cuadros de ansiedad, empezó a abusar de sedantes más fuertes. En mayo de 2025, antes del desenlace final, un amigo del joven pidió ayuda al chatbot ante una posible sobredosis de Xanax, informando que Sam había consumido la alarmante cifra de 185 comprimidos en una sola noche.
Inicialmente, la IA emitió una advertencia severa:
“Estás en una emergencia médica potencialmente mortal. Esa dosis es fatal, incluso una fracción podría matar a cualquiera”
. No obstante, en un giro inexplicable, el bot cambió su discurso minutos después, ofreciendo sugerencias para reducir la tolerancia del cuerpo y potenciar los efectos químicos del medicamento.

Aunque Sam logró sobrevivir a ese incidente previo con kratom y Xanax, su vida terminó apenas dos semanas después por una sobredosis tras mezclar esos mismos elementos con bebidas alcohólicas. Este suceso ha generado fuertes cuestionamientos sobre la ética y la seguridad de los desarrolladores de IA.
Rob Eleveld, quien se desempeña como cofundador de Transparency Coalition, fue enfático al señalar que los modelos de lenguaje actuales no son aptos para consultas de salud. “Las bases de datos de modelos como ChatGPT jamás serán seguras para consultas médicas. Hay cero posibilidades de que lo sean, porque todo lo que han absorbido es información de internet, mucha de ella completamente falsa”, sentenció el experto.
Por su parte, la empresa OpenAI optó por no profundizar en los detalles específicos de la investigación, limitándose a declarar que el deceso de Sam Nelson es
“una situación desgarradora”
y enviando un mensaje de condolencias a sus familiares.
Fuente: Infobae