No data was found

IA y Libre Competencia: Los riesgos legales de los algoritmos

En la actualidad, la inteligencia artificial (IA) ha pasado de ser una promesa tecnológica a convertirse en una herramienta de uso diario en el entorno corporativo. Desde la creación de reportes comerciales automatizados hasta la implementación de sofisticados sistemas de algoritmos de pricing en tiempo real, las empresas enfrentan una presión constante por adoptar estas innovaciones para satisfacer a inversionistas y accionistas. No obstante, los expertos advierten que antes de entrenar o realizar consultas a estos modelos, es imperativo analizar las implicaciones legales que conllevan.

El Comité de Competencia de la OCDE, organismo que reúne a las naciones con las economías más desarrolladas, ha publicado un informe donde reconoce que la IA es un motor para la productividad y la innovación, reduciendo las barreras de entrada en diversos sectores. Sin embargo, el documento también lanza una advertencia clara: su implementación inadecuada puede provocar graves fallas de mercado.

El peligro de la coordinación algorítmica

Lejos de ser un escenario de ficción, la fijación algorítmica de precios es hoy una realidad técnica. Estos sistemas pueden procesar datos sobre ofertas, volúmenes y precios de la competencia, generando un comportamiento dinámico que responde automáticamente a las señales del mercado. El riesgo crítico reside en que esto puede derivar en una coordinación de precios sin que exista una comunicación directa o explícita entre los competidores, lo que vulnera los principios de la libre competencia.

Este fenómeno ya ha generado acciones concretas en América Latina. En Brasil, el Consejo Administrativo de Defensa Económica (CADE) inició una investigación contra diversas redes de estaciones de servicio. Según la autoridad, el uso de un software de pricing impedía que las gasolineras establecieran sus precios de forma autónoma, facilitando conductas colusivas.

Un detalle relevante en el caso brasileño es que el gremio de las estaciones de servicio habría sido el encargado de recomendar el uso de dicha herramienta tecnológica. La empresa que desarrolló el algoritmo optó por firmar un acuerdo de colaboración con el CADE, comprometiéndose a transparentar su código fuente, nombrar a un compliance officer para supervisar sus procesos y suspender nuevas contrataciones con estaciones de servicio hasta cumplir con las medidas de corrección impuestas.

Vigilancia en los marketplaces y abusos de poder

Las interrogantes legales son profundas: ¿comprendían los desarrolladores el impacto de su software? ¿Eran conscientes las empresas de los riesgos de seguir las sugerencias de sus gremios? Las autoridades regionales, además de la fijación de precios, vigilan el uso de la IA para consolidar posiciones dominantes, especialmente en el comercio electrónico.

En México, la COFECE (Comisión Federal de Competencia Económica) mantiene bajo investigación el uso de algoritmos en marketplaces por prácticas de self-preferencing. Estas estrategias consisten en que el sistema priorice automáticamente los productos propios de la plataforma sobre los de terceros. Para los reguladores mexicanos, esto crea barreras estratégicas que dañan al consumidor, por lo que exigen una mayor transparencia algorítmica.

La IA como herramienta de supervisión estatal

Curiosamente, la inteligencia artificial también es ahora una aliada para las autoridades de control. En Chile, la Fiscalía Nacional Económica (FNE) creó en 2020 una unidad de inteligencia que utiliza machine learning para auditar licitaciones públicas, permitiendo detectar patrones sospechosos de colusión entre oferentes a través del procesamiento de grandes bases de datos.

Por su parte, en Perú, el INDECOPI ha empleado estas tecnologías para el análisis de evidencias en procesos de protección al consumidor. Aunque la autoridad reconoce desafíos como las “alucinaciones” de la IA o los sesgos en los datos, defiende su utilidad técnica en las investigaciones.

La postura de la FNE de Chile es tajante: las decisiones tomadas por un algoritmo son responsabilidad de la empresa. No es una defensa válida argumentar que una infracción fue obra de la máquina y no de una persona, por lo que tanto desarrolladores como usuarios finales pueden recibir sanciones.

Recomendaciones para el cumplimiento normativo

Para los encargados de la gestión de riesgos, el funcionamiento técnico de los algoritmos puede ser una barrera difícil de superar. Ante esto, se sugieren dos acciones fundamentales:

  • Fomentar la transparencia algorítmica interna para conocer las variables y objetivos que rigen los sistemas de la empresa.
  • Colaborar con los reguladores mediante sandboxes regulatorios, que permiten probar los algoritmos en ambientes controlados antes de su lanzamiento masivo.

El compliance officer moderno debe encontrar el equilibrio entre la generación de valor mediante la inteligencia artificial y el estricto cumplimiento de la ley, evitando que la prevención de riesgos se convierta en un obstáculo para la innovación tecnológica organizacional.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER