El pasado 13 de mayo de 2026, una demandante de San Diego presentó una demanda colectiva contra OpenAI ante el Tribunal de Distrito Sur de California. El caso, identificado como Couture v. OpenAI Global, LLC, plantea una acusación directa: el popular chatbot ChatGPT incorporó en su sitio web dos herramientas de seguimiento publicitario, conocidas como Meta Pixel y Google Analytics. Según la demanda, estas herramientas habrían transmitido a Meta y Google información como los títulos de las consultas de los usuarios, sus identificadores de cuenta y sus direcciones de correo electrónico.
Es necesario tomar estos señalamientos con prudencia. Se trata de alegaciones formales, OpenAI aún no ha sido declarada culpable y hasta el momento no ha emitido una respuesta oficial. Sin embargo, el verdadero punto débil que expone esta demanda no es puramente legal, sino de diseño y funcionamiento interno.
La falsa privacidad de una conversación digital
La mayoría de las personas asume que al escribirle a ChatGPT está teniendo un intercambio privado, casi como escribir en un diario personal. La gente comparte con la inteligencia artificial detalles sobre un divorcio, una deuda, un diagnóstico médico o una disputa por la custodia de un hijo. Le confían lo que no le revelan a nadie más.
La demanda sostiene que esa percepción es errónea. ChatGPT no es un cuaderno privado; es un sitio web. Y como cualquier sitio web moderno, viene equipado con la infraestructura publicitaria estándar: el píxel de Meta, las etiquetas de Google y otros rastreadores que las tiendas en línea utilizan para identificar quién compra qué.
El meollo del asunto no sería una conspiración maquiavélica, sino algo más cotidiano y, a la vez, más alarmante: según la acusación, una conversación íntima fue procesada con la misma tecnología que se usa para registrar la compra de un par de zapatillas deportivas.
El mecanismo detrás de la filtración

La demanda no se limita a la sospecha, sino que describe el proceso técnico. Según el texto legal, cuando un usuario realizaba una consulta, el título que ChatGPT asignaba automáticamente a esa conversación —por ejemplo, “Ganador del Super Bowl 2005”— se convertía en un dato que viajaba a Meta junto con las cookies que vinculan esa acción a una cuenta específica de Facebook. En el caso de Google, la acusación señala que se capturaban direcciones de correo electrónico con hash en el momento del inicio de sesión.
Si las alegaciones son ciertas, el tema de la consulta dejaría de ser anónimo y quedaría vinculado a una identidad real.
El documento legal invoca tres normativas: la ley federal de privacidad de comunicaciones electrónicas, dos secciones de la ley de privacidad de California y la propia Constitución del estado. Por cada infracción se solicita una compensación que, de acuerdo con la norma, oscila entre los 5.000 y los 10.000 dólares estadounidenses. Al multiplicar esa cifra por una clase de usuarios que se estima en millones, el monto total de la demanda alcanzaría los miles de millones de dólares.
Un dato relevante: Meta y Google no figuran como demandados. La acción legal se dirige exclusivamente contra OpenAI, por haber incorporado esa tecnología de rastreo en su código. En otras palabras, quien construye la casa es responsable por las tuberías que elige instalar.
Un nuevo frente de batalla para la inteligencia artificial

Este caso no es un hecho aislado. El pasado 31 de marzo, se presentó una demanda casi idéntica contra Perplexity en el Distrito Norte de California. El mecanismo y la acusación son los mismos: rastreadores ocultos que envían las conversaciones de los usuarios a las plataformas publicitarias.
Se observa un patrón preocupante. La industria de la inteligencia artificial conversacional ha comercializado un producto novedoso —un asistente, un confidente, una herramienta a la que se le confían asuntos personales—, pero lo ha construido sobre la infraestructura obsoleta de la web comercial. Y esa infraestructura tiene un solo propósito: convertir el comportamiento en un perfil de usuario, y ese perfil en publicidad dirigida.
Hasta ahora, la carrera de la IA se ha contado como una competencia técnica: quién tiene el modelo más grande, quién razona mejor, quién comete menos errores.
El frente que abre esta demanda es diferente. Ya no se trata de qué tan inteligente es el asistente, sino de qué hace con la información que le confías. Cada empresa que ofrece una IA como un espacio privado está haciendo una afirmación sobre su propia tubería interna. Y la tubería, a diferencia de la publicidad, deja un registro tangible.

Fuente: Infobae