Yaël Eisenstat ha dedicado 25 años de su trayectoria profesional a enfrentar la polarización, el extremismo y las amenazas antidemocráticas. Su paso por la CIA, la Casa Blanca como asesora de seguridad nacional y contraterrorismo, y un breve período en Facebook la convierten en una voz autorizada sobre el impacto de las plataformas digitales en la democracia.
En 2015, Eisenstat dio un giro hacia el sector tecnológico al notar que los mismos riesgos que había combatido en el gobierno estadounidense se replicaban en el mundo digital. Se unió a la compañía de Mark Zuckerberg en 2018 para liderar el equipo de publicidad política e integridad electoral. Sin embargo, a los seis meses comprendió que no le permitirían cumplir con su encargo: Facebook conocía sus malas prácticas y no tenía intención de corregirlas.
“Estas compañías quieren hacerte creer que son conductos neutrales y que no tienen ninguna responsabilidad por cómo su propia plataforma afecta nuestra seguridad, nuestras elecciones y nuestra democracia”, denunció.
La especialista en polarización y extremismos participó esta semana en el I Encuentro de Derechos Digitales en Barcelona, donde insistió en la responsabilidad de las empresas tecnológicas en la propagación de desinformación, discursos de odio y ataques al sistema democrático.
“Cada algoritmo está diseñado por un ser humano con un objetivo en mente”, afirmó Eisenstat durante su intervención. En las redes sociales, la meta es clara: aumentar la participación, la interacción y el tiempo que los usuarios pasan en la plataforma. Para lograrlo, el algoritmo privilegia el contenido más sensacionalista y emocional, que genera mayor interacción pero que, lamentablemente, suele estar lleno de desinformación e incluso de mentiras flagrantes. “Mientras los algoritmos se diseñen para engancharnos, se seguirá fomentando la desinformación”, sentenció.
Cuando frenar el odio no es rentable

Mientras la desinformación circula sin control, los discursos de odio y el extremismo crecen impulsados por el propio algoritmo. Eisenstat sostiene que las compañías tecnológicas “lo saben”. Una investigación interna de Facebook en Alemania reveló que el 64% de los usuarios que se unieron a grupos extremistas lo hicieron por recomendación de la propia red social. “No es que la gente vaya a buscar la desinformación, es que las recomendaciones de las propias redes sociales se las envían a ellos”, resumió.
En el ámbito político, los estudios indican que la derecha aprovecha mejor estas dinámicas del algoritmo. Investigaciones internas del antiguo Twitter demostraron que el contenido político de cuentas de derecha recibía mayor amplificación que el de izquierda. Democracy Reporting International corroboró esta tendencia al analizar seis elecciones en distintos países europeos, incluida España, entre 2023 y 2025. “Mostró que la extrema derecha sigue obteniendo los mejores resultados en las redes sociales porque sus actores generalmente logran las tasas de compromiso más altas debido a que están utilizando un lenguaje más emocional, un lenguaje más sensacionalista”, explicó Eisenstat.
Desde Europa, los partidos políticos no ignoraron esta dinámica: “Llamaron a Facebook para quejarse de que se sentían obligados a usar un lenguaje más extremo en sus campañas para que el algoritmo detectase sus mensajes”, contó la experta. Esto provocó que tuvieran que empezar a utilizar políticas más extremas, porque es lo que habían dicho en campaña.
Eisenstat asegura que el cambio es posible. En 2020, Twitter implementó un mecanismo que preguntaba a los usuarios si estaban seguros de querer retuitear una publicación o si habían leído el artículo que estaban a punto de compartir. “Aunque sea un segundo, hace que tu cerebro alcance tu reacción emocional. Se ha probado que reduce la difusión de desinformación”, explicó. Sin embargo, el programa duró poco: tras las elecciones, la compañía decidió que no era rentable y lo eliminó.
Poner fin a los efectos negativos de las redes sociales es posible, afirma Eisenstat, pero requiere el compromiso de compañías, legisladores, tribunales y usuarios. “Hay que tomar decisiones sobre cómo queremos usar estas plataformas”, defendió. “Cuanto más las entendemos, más empoderados estamos para decidir cómo usarlas más adelante”, concluyó.
Fuente: Infobae