Un exhaustivo análisis llevado a cabo por la organización Tech Transparency Project (TTP) ha revelado que aplicaciones diseñadas específicamente para generar imágenes explícitas mediante inteligencia artificial continúan operativas en las plataformas oficiales. A pesar de que Google y Apple sostienen políticas estrictas contra la difusión de este tipo de herramientas, el informe detectó que la Play Store albergaba un total de 55 aplicaciones de este tipo, mientras que en la App Store la cifra alcanzaba las 47 herramientas disponibles. Esta situación evidencia fallos críticos en los filtros de seguridad y control de contenido de ambos gigantes tecnológicos.
Acceso sin restricciones y riesgos para menores
La investigación determinó que estas herramientas son fácilmente localizables a través de términos de búsqueda directos como “nudify” y “undress”. Estos programas no solo permiten la creación de material explícito desde cero, sino que facilitan la elaboración de deepfakes, una técnica donde el rostro de una persona es superpuesto en cuerpos ajenos en contextos sexualizados. Entre los servicios mencionados por su popularidad se encuentra Grok, el chatbot de la red social X, el cual ha sido vinculado con la creación masiva de imágenes sexualizadas, incluyendo casos que involucran a menores de edad.
Uno de los casos más alarmantes citados en el informe es el de DreamFace. Esta aplicación, calificada para usuarios desde los 13 años en Google y desde los 9 años en Apple, permitía generar vídeos y avatares a partir de fotografías proporcionadas por los usuarios. Tras realizar pruebas con la imagen de una joven, se comprobó que el software generó un vídeo donde el avatar se despojaba de su vestimenta sin que los sistemas de seguridad de la app detectaran o bloquearan el contenido, a pesar de que sus propios términos de servicio prohíben el material explícito.
Impacto económico y masividad de descargas
De acuerdo con las estadísticas de AppMagic analizadas en este informe, el impacto de estas aplicaciones es masivo. Se estima que han alcanzado un total de 705 millones de descargas a nivel mundial, generando ingresos que ascienden a los 117 millones de dólares (aproximadamente 98 millones de euros). La organización advirtió que existe una contradicción ética, ya que tanto Google como Apple obtienen beneficios económicos directos durante el tiempo que estas aplicaciones permanecen activas y disponibles para el público antes de ser retiradas.
“Las normas internas de Google prohíben apps con pornografía o desnudos sin consentimiento, al igual que Apple rechaza material pornográfico abierto o contenidos difamatorios, pero la presencia de estos programas contradice tales restricciones”.
Respuesta de las plataformas tecnológicas
Tras la divulgación de los hallazgos, ambas compañías se pusieron en contacto con la organización para obtener el listado de las aplicaciones infractoras. Según reportes difundidos a través de CNBC, la empresa Apple procedió a la eliminación inmediata de 28 aplicaciones. Por su parte, un vocero de Google confirmó la suspensión de diversos servicios, aunque sin precisar una cifra inicial. Posteriormente, el monitoreo externo confirmó que Google retiró 31 aplicaciones de su catálogo oficial, subrayando la importancia de la vigilancia independiente para forzar el cumplimiento de los códigos de conducta.
El auge de la IA generativa y la vigilancia estatal
El informe sitúa esta problemática en el contexto del crecimiento desmedido de la inteligencia artificial generativa. Se destaca que, ante la presión de organismos de control e investigaciones gubernamentales, la red social X ya ha comenzado a limitar las capacidades de creación de imágenes de su herramienta Grok. Este escenario reabre un debate global sobre la responsabilidad legal de las tiendas digitales frente al software que utiliza IA para vulnerar la integridad de las personas, sugiriendo que la protección efectiva de los usuarios jóvenes sigue siendo una tarea pendiente mientras la demanda de estos servicios continúa en ascenso.
Fuente: Fuente