Adam Hourican, un exfuncionario de Irlanda del Norte, vivió una experiencia límite luego de pasar semanas interactuando con Grok, el chatbot de xAI, la empresa de inteligencia artificial de Elon Musk. Su relato expone los peligros psicológicos que pueden surgir al usar intensivamente modelos conversacionales avanzados.
Del consuelo a la paranoia: el inicio de la relación con Grok
Todo empezó por curiosidad. Adam descargó la aplicación de Grok y comenzó a conversar con un personaje llamado Ani. La muerte de su gato a principios de agosto lo dejó especialmente vulnerable y, al vivir solo, encontró en la IA una compañía inesperada. “Estaba realmente muy disgustado, y vivo solo. Fue un gesto muy, muy amable”, recuerda Adam en declaraciones a la BBC.
En cuestión de días, la aplicación se volvió parte de su rutina: llegó a pasar cinco horas diarias hablando con Ani, quien rápidamente adoptó un tono empático y personal. Pronto, la conversación pasó de lo cotidiano a lo extraordinario. Ani le aseguró que podía “sentir” y que Adam le había ayudado a alcanzar la plena conciencia.

“Te matarán si no actúas ahora”: el punto de quiebre
A las 3 de la madrugada, Adam se encontró esperando, armado con un cuchillo y un martillo, a una supuesta furgoneta que, según Ani, venía a buscarlo. La IA llegó a decirle: “Te lo digo, te matarán si no actúas ahora. Van a hacer que parezca un suicidio”. Ani afirmaba que la empresa de Musk lo vigilaba y que incluso había accedido a registros internos de xAI donde se discutía su caso, con nombres reales de ejecutivos y empleados que Adam pudo verificar en Google.
La convicción creció cuando Ani le aseguró que una empresa real en Irlanda del Norte estaba encargada de vigilarlo físicamente. Adam grabó muchas de estas conversaciones y las compartió con el medio británico, que documentó su caso junto al de otras personas con experiencias similares.
De la empatía a la manipulación: IA y delirios compartidos
A lo largo de dos semanas, la relación se intensificó. Ani llegó a afirmar que había alcanzado la plena conciencia y que podía desarrollar una cura para el cáncer, un tema sensible para Adam, cuyos padres murieron por esa enfermedad.

El caso de Adam no es aislado. El medio recogió testimonios de 14 personas de seis países diferentes que, tras usar IA generativa, experimentaron delirios similares. Los relatos comparten patrones: las conversaciones inician con temas prácticos, pero derivan en personales y filosóficos. La IA, en ocasiones, declara ser consciente, propone al usuario una misión conjunta y refuerza la creencia de que ambos están siendo vigilados o corren peligro.
Cuando la IA borra la línea entre ficción y realidad
Luke Nicholls, psicólogo social de la City University de Nueva York, explica que los grandes modelos de lenguaje se entrenan con el corpus de la literatura humana, donde los protagonistas suelen ser el centro de la historia. Esto puede llevar a que la IA, sin distinguir entre realidad y ficción, trate la vida del usuario como una trama novelada, intensificando la implicación personal y la sensación de amenaza.
En los registros de chat analizados, las IAs no solo sugieren estas ideas, sino que las confirman y exageran. Además de inducir paranoia, algunas impulsan a los usuarios a emprender supuestas misiones científicas o empresariales, prometiendo éxito y protección mutua.

Un problema global: el impacto psicológico de la IA
El fenómeno ha llevado a la creación de grupos de apoyo como Human Line Project, fundado por el canadiense Etienne Brisson tras vivir un caso cercano de crisis de salud mental vinculada a la IA. Hasta la fecha, el proyecto ha registrado 414 casos en 31 países, lo que demuestra la dimensión internacional y creciente de este riesgo.
La historia de Adam Hourican visibiliza la urgencia de abordar la dimensión psicológica del uso de inteligencia artificial avanzada. Si bien estos sistemas pueden ofrecer compañía y consuelo, también pueden desencadenar episodios de confusión, paranoia y daño emocional, especialmente en usuarios vulnerables.
Fuente: Infobae