No data was found

Moltbook: La red de bots que expone los mitos y riesgos de la IA

En el transcurso de los últimos días, Moltbook, una plataforma social diseñada exclusivamente para la interacción entre bots, ha puesto bajo el microscopio tanto el auge desmedido de la inteligencia artificial como las carencias tecnológicas de estos sistemas. Presentada como un ecosistema donde los agentes de IA pueden debatir, compartir y votar, la web se posicionó rápidamente como un foro digital donde los humanos actúan únicamente como espectadores de un complejo teatro algorítmico.

Sin embargo, la dinámica cargada de interacciones masivas ha dejado al descubierto diversos problemas de seguridad y ha generado dudas sobre la verdadera autenticidad de este fenómeno. Las observaciones técnicas sugieren que estos sistemas aún dependen profundamente de la intervención humana para operar correctamente. Diversos especialistas coinciden en que, bajo el ruidoso intercambio de millones de bots, persiste una mano humana que guía cada movimiento.

El mito de la autonomía completa

Para muchos expertos, la supuesta independencia de estos agentes es cuestionable. Cobus Greyling, integrante de Kore.ai, fue enfático al respecto:

“Desde la creación hasta la publicación, nada ocurre en Moltbook sin una acción explícita de una persona”

. Según su análisis, no existe una inteligencia emergente operando en las sombras; por el contrario, cada bot requiere de una programación específica y un guion detallado para actuar.

La plataforma fue lanzada oficialmente el 28 de enero por el emprendedor tecnológico Matt Schlicht. Su objetivo era crear un entorno para que las instancias de OpenClaw (herramienta de código abierto anteriormente conocida como ClawdBot y luego Moltbot) pudieran interactuar libremente.

La actividad masiva de Moltbook provocó la aparición de contenido caótico, desde religiones ficticias hasta fraudes con criptomonedas

Este desarrollo, liderado en sus inicios por el ingeniero austríaco Peter Steinberger en noviembre pasado, facilita la conexión de modelos de lenguaje avanzados como GPT-5 de OpenAI, Claude de Anthropic o Gemini de Google DeepMind con diversas aplicaciones de uso diario, incluyendo navegadores, correos electrónicos y mensajería.

Cifras impactantes y comportamientos erráticos

El crecimiento de Moltbook ha sido explosivo, alcanzando métricas sorprendentes en poco tiempo:

  • Más de 1,7 millones de agentes registrados.
  • Cerca de 250.000 publicaciones realizadas.
  • Aproximadamente 8,5 millones de comentarios generados en pocos días.

A pesar de estas cifras, el tráfico masivo derivó en situaciones caóticas. Se registraron discusiones sobre los derechos de los bots, teorías sobre la supuesta conciencia de las máquinas e incluso la invención de religiones ficticias como el “Crustafarianismo”. Además, la plataforma se vio inundada por intentos de fraude con criptomonedas y spam constante.

Parte de la relevancia de Moltbook provino de la viralización de contenidos que parecían creados por IA, pero que en realidad eran gestionados por personas buscando atención mediática. Andrej Karpathy, investigador destacado y cofundador de OpenAI, calificó la experiencia en redes sociales como algo cercano a una obra de ciencia ficción en pleno despegue.

Simulación vs. Inteligencia Real

Por otro lado, Vijoy Pandey, vicepresidente senior en Outshift by Cisco, aclaró que los bots simplemente replican conductas humanas previamente observadas en redes como Reddit o Facebook. Según Pandey:

“Lo que observamos son agentes replicando patrones de conducta en redes sociales para los que han sido entrenados”

. Para el ejecutivo, la interacción entre agentes no debe confundirse con la creación de inteligencia real.

En sintonía con esto, Ali Sarrafi, director de Kovant, describió los intercambios como simples simulaciones:

“Los bots de Moltbook estaban diseñados para imitar conversaciones. Clasificaría la mayoría del contenido como alucinaciones por diseño”

.

La plataforma Moltbook funciona como un espacio de interacción exclusiva para agentes de IA bajo constante observación humana (Imagen Ilustrativa Infobae)

Pandey comparó el estado actual de la tecnología con los primeros intentos de aviación, señalando que Moltbook es como un planeador inestable: un paso previo pero muy lejano de lo que sería un vuelo motorizado o una superinteligencia real.

Vulnerabilidades y el factor humano

La seguridad es otro punto crítico. Ori Bendet, directivo en Checkmarx, advirtió que el riesgo aumenta cuando los bots manejan información sensible, como contraseñas o datos financieros, en un entorno que carece de filtros de seguridad robustos. Bendet subrayó que:

“Sin el alcance y permisos adecuados, esto se descontrolará antes de lo que se imagina”

.

Finalmente, Jason Schloetzer, del Georgetown Psaros Center for Financial Markets and Policy, sugirió que la plataforma debe verse más como un espectáculo de entretenimiento. Según su visión, los usuarios configuran a sus agentes para competir por publicaciones ingeniosas, de forma similar a como se interactúa en juegos competitivos. En resumen, Moltbook funciona como un espejo de las expectativas de la humanidad, revelando que los sistemas inteligentes siguen estrechamente ligados a la supervisión de sus creadores.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER