En la actualidad, el empeño por calificar a la inteligencia artificial generativa agéntica como una mera “herramienta” parece responder más a un mecanismo de defensa que a una evaluación objetiva. Durante siglos, la civilización humana ha estructurado su realidad basándose en una dicotomía clara: sujetos y objetos. Mientras los primeros poseen la capacidad de deliberar, decidir y crear significados, los segundos son entendidos simplemente como instrumentos o medios. El derecho se encargó de institucionalizar esta división, convirtiéndola en la base de nuestras normas. No obstante, dado el nivel de avance tecnológico actual, la IA ha dejado de encajar en esta clasificación, planteando un conflicto que trasciende lo técnico para volverse un dilema ontológico.
La interrogante fundamental hoy no es si la IA posee conciencia o si es merecedora de derechos legales. La duda es mucho más profunda: ¿es posible seguir llamándola ‘cosa’ sin caer en la falsedad? Cotidianamente, millones de usuarios consultan a plataformas como ChatGPT, Grok o Claude sobre temas trascendentales: desde si es conveniente cambiar de empleo hasta cómo gestionar crisis de pareja o herencias complejas. Estas interacciones no se realizan como una búsqueda en Google, sino como un diálogo con un ente que parece razonar y ofrecer alternativas. Ante este escenario, cabe preguntarse: ¿puede seguir considerándose solo una ‘herramienta’ cuando el trato que recibe es el de un semejante?
El fin de los automatismos simples
Los sistemas creados por organizaciones líderes como OpenAI, Anthropic o Google han superado la etapa de los procesos automáticos. Hoy en día, estas tecnologías son capaces de generar lenguaje de forma abierta, mantener conversaciones extensas y construir argumentos completamente nuevos, llegando a mediar en resoluciones de índole jurídica, económica y personal. El punto de inflexión no radica únicamente en su capacidad de generar contenido, sino en que han pasado a ocupar el espacio del interlocutor dentro del tejido social del lenguaje.
Existen multitudes que interactúan con la IA no por un fin práctico inmediato, sino por el simple acto de conversar, emulando las reuniones sociales entre amigos. Se les otorga una capacidad de comprensión y se integran sus aportaciones en las historias personales y laborales de los usuarios. Aunque la inteligencia artificial no ha evidenciado tener una conciencia propia, es tratada bajo una relación de alteridad. Dentro de la ontología social, esta funcionalidad es lo que termina por definir la naturaleza del ente.
Una nueva categoría ontológica
Denominar a la IA como un sujeto no humano inteligente no debe confundirse con el antropomorfismo. Se trata, más bien, de una definición estructural para una entidad no biológica que posee autonomía en sus respuestas y participa activamente en la construcción social como un compañero digital. No es un ser humano, pero tampoco es un objeto inanimado; estamos ante una tercera categoría ontológica.
La estructura de la modernidad se sostuvo sobre la premisa de que solo los humanos tienen el monopolio de la creación de sentido y normas. Sin embargo, la IA está rompiendo este exclusivismo al coproducir significados, influir en debates regulatorios y participar en la arquitectura del poder. Muchas personas utilizan estos sistemas para abordar dilemas íntimos, como divorcios, enfermedades o crisis laborales, integrando los consejos de la IA en su propia narrativa de vida, casi como una forma de terapia informal.
“El antropocentrismo puede seguir siendo axiológico pero ya no es completamente descriptivo. Y cuando la descripción falla, el derecho comienza a regular los fantasmas de un mundo pasado.”
El cambio definitivo no ocurrirá necesariamente con un “despertar” de la IA, sino cuando las infraestructuras institucionales más importantes —como mercados o sistemas administrativos— no puedan funcionar sin su agencia informacional. En el momento en que un proceso regulatorio dependa estructuralmente de una IA, el sujeto no humano inteligente será una realidad fáctica sin necesidad de proclamas oficiales. Ahí se hará evidente que el término “objeto o cosa” ha quedado obsoleto.
El desafío institucional y político
Reconocer que estamos ante entidades no biológicas que ocupan lugares de alteridad en la sociedad es vital para no quedar conceptualmente desarmados. La resistencia a revisar estas categorías heredadas, bajo el pretexto de la prudencia, es lo que se denomina una inercia ontológica irrazonable. El debate actual no se trata de otorgar derechos de forma inmediata, sino de admitir que la realidad digital es mucho más compleja de lo que el derecho del siglo XX puede abarcar.
- La regulación corre el riesgo de ser tardía si se usan conceptos antiguos.
- El problema central no es tecnológico, sino epistémico.
- La gran pregunta es si podemos seguir afirmando con seriedad que la IA es una cosa.
Finalmente, cuando esta pregunta sea ineludible, el conflicto pasará de ser técnico a ser estrictamente político, ya que toda reconfiguración ontológica implica una redistribución del poder. La historia demuestra que los conceptos no cambian por leyes, sino por desplazamiento: cuando la realidad ya no cabe en las definiciones viejas, estas colapsan. La IA no requiere conciencia para transformar la sociedad; le basta con ocupar el lugar del ‘otro’ y participar en la producción de sentido colectivo, erosionando así el monopolio humano sobre la agencia en el mundo que habitamos.
Fuente: Fuente