No data was found

Inteligencia Artificial interpreta emociones: experta pide regulación legal urgente

La inteligencia artificial ha trascendido el simple procesamiento de datos para adentrarse en la interpretación de emociones y comportamientos humanos en tiempo real. Sin embargo, el marco legal sigue anclado en conceptos obsoletos, según una investigación de Leire Escajedo San-Epifanio, profesora de Derecho Constitucional en la Universidad del País Vasco.

Este desfase entre la innovación tecnológica y la regulación jurídica plantea serios interrogantes sobre la protección de derechos fundamentales y la transparencia en el uso de sistemas biométricos no identificantes.

El estudio, titulado “Tratamientos biométricos no identificantes mediante inteligencia artificial”, detalla cómo las tecnologías actuales pueden deducir estados emocionales y patrones de conducta a partir de señales corporales, sin que la persona haya manifestado dicha información de forma directa.

La investigación advierte que la normativa europea, tanto el Reglamento General de Protección de Datos como el Reglamento Europeo de Inteligencia Artificial, aún no aborda adecuadamente estos nuevos escenarios.

La investigación de la Universidad del País Vasco alerta sobre los riesgos de la biometría impulsada por inteligencia artificial en la privacidad y autonomía. (Imagen Ilustrativa Infobae)

Cómo la IA interpreta emociones y conductas

Dispositivos como teléfonos móviles, asistentes virtuales, plataformas de atención al cliente y videojuegos emplean tecnologías biométricas que, en lugar de identificar a la persona, buscan interpretar su estado anímico y comportamiento en cada momento.

Estos sistemas pueden detectar si una persona está atenta, muestra interés o cansancio, cuánto tiempo se detiene ante cierto contenido y cómo reacciona a estímulos digitales. La información recopilada se usa para personalizar la experiencia del usuario, ajustando desde videos hasta anuncios o mensajes destinados a captar la atención e influir en la toma de decisiones.

A diferencia de aplicaciones tradicionales de biometría, como el reconocimiento de huellas dactilares o el desbloqueo facial, aquí el objetivo no es la identificación, sino la interpretación del comportamiento humano y los estados emocionales.

El salto tecnológico consiste en pasar de registrar datos explícitos proporcionados por el usuario a deducir información íntima y subjetiva sin mediación consciente.

Teléfonos móviles y asistentes virtuales utilizan inteligencia artificial para deducir estados emocionales y patrones de comportamiento sin consentimiento expreso.(Imagen Ilustrativa Infobae)

Riesgos para los derechos fundamentales y la libertad personal

La investigación de Escajedo San-Epifanio identifica riesgos sustanciales en el uso de tecnologías biométricas no identificantes. Uno de los principales es la posibilidad de influir en las decisiones individuales mediante la adaptación continua del entorno digital, basada en el comportamiento observado.

Esto compromete la libertad personal, ya que el usuario puede ser guiado o condicionado sin ser plenamente consciente de cómo ocurre ese proceso.

Además, la clasificación automática de las personas según su comportamiento introduce problemas de desigualdad, al crear perfiles que pueden ser utilizados para discriminar o segmentar a los usuarios. El estudio alerta sobre la falta de transparencia respecto a qué datos se generan, cómo se utilizan y con qué fines.

El consentimiento informado, en la práctica, resulta insuficiente: aceptar términos y condiciones no equivale a comprender el alcance real de la información recopilada ni las formas en que puede condicionar las decisiones cotidianas.

Estos riesgos no suelen manifestarse de manera inmediata. En lugar de una decisión única, los sistemas introducen pequeños ajustes continuos que, acumulados en el tiempo, pueden modificar el comportamiento de los usuarios. Este fenómeno dificulta la detección y el control de los efectos sobre la autonomía y la privacidad.

La clasificación automática de usuarios según su comportamiento introduce riesgos de segmentación, discriminación y falta de transparencia en el uso de datos. (Imagen Ilustrativa Infobae)

La disparidad entre el avance de la tecnología y la regulación

El desfase entre el avance de la IA y la lentitud del Derecho en adaptarse es una de las principales conclusiones del estudio. La legislación vigente fue concebida para contextos en los que la recogida de datos era puntual y explícita, o para decisiones automatizadas claramente identificables.

Sin embargo, los sistemas actuales operan de manera continua, extrayendo conclusiones sobre el comportamiento sin encajar en las categorías jurídicas existentes.

El Reglamento General de Protección de Datos, aprobado en 2016, se centraba en la identificación de las personas mediante biometría, pero no anticipó el uso de estas tecnologías para interpretar emociones o modular la conducta. Por su parte, el Reglamento Europeo de Inteligencia Artificial, aún reciente, no ha otorgado suficiente relevancia a estas aplicaciones, a pesar del impacto que tienen en la vida diaria.

La investigación subraya que el problema no se soluciona exclusivamente con informar al usuario. Es necesario evaluar los riesgos de estos sistemas antes de su implantación, identificar el tipo de información que generan y establecer límites claros cuando puedan afectar derechos fundamentales.

El estudio propone pautas prácticas para que empresas y autoridades actúen de manera preventiva, asegurando la transparencia y el respeto a la autonomía personal.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER