No data was found

Instagram notificará a padres sobre búsquedas de autolesión de hijos

La plataforma Instagram ha anunciado la implementación de una nueva herramienta de seguridad diseñada para emitir alertas parentales cuando se detecten búsquedas relacionadas con el suicidio o la autolesión. Esta funcionalidad se activará si un usuario menor de edad intenta localizar información sobre estos temas sensibles de manera recurrente en un lapso breve. El propósito fundamental es facilitar una intervención temprana por parte de los núcleos familiares, ofreciendo recursos de soporte inmediatos a través de diversos canales de comunicación.

Este sistema de aviso forma parte de las opciones de supervisión parental integradas en la aplicación. En el momento en que los algoritmos identifiquen múltiples búsquedas consecutivas sobre estos riesgos, se enviará una notificación automática a los tutores. Los canales de contacto para recibir estos avisos incluyen el correo electrónico, mensajes SMS, notificaciones directas en la app o vía WhatsApp, dependiendo de la configuración de contacto de la cuenta vinculada.

Al activarse la alerta, los adultos responsables podrán visualizar un mensaje a pantalla completa con detalles sobre la actividad detectada. Este mensaje incluye materiales de apoyo desarrollados en conjunto con expertos en seguridad infantil y especialistas en salud mental. Es importante destacar que estas notificaciones solo operarán si la función de supervisión ya ha sido autorizada previamente por ambas partes, protegiendo así la privacidad de los jóvenes frente a terceros no vinculados.

La nueva función de Instagram enviará avisos a padres registrados por correo, SMS o WhatsApp cuando se detecten búsquedas relacionadas con suicidio. (Meta)

Cronograma de implementación global

El despliegue inicial de esta característica comenzará la próxima semana en naciones como Estados Unidos, el Reino Unido, Canadá y Australia. Durante el transcurso del año 2024, se espera que la función se extienda a otras regiones. No obstante, por el momento no se han confirmado fechas específicas para su llegada a Latinoamérica o España, ya que el proceso depende de las normativas legales de cada territorio y los resultados obtenidos en la fase inicial.

Criterios técnicos y asesoría experta

Para establecer los parámetros de estas alertas, Instagram colaboró estrechamente con un consejo consultivo de seguridad infantil. El reto principal fue definir un umbral de búsquedas que permita una protección real sin saturar a los padres con avisos innecesarios que pudiesen comprometer la efectividad del sistema o la autonomía del adolescente.

Expertos en ciberseguridad y salud mental respaldan la iniciativa, destacando la importancia de la intervención temprana de las familias. Imagen Ilustrativa Infobae)

El sistema se enfoca en patrones de comportamiento específicos: solo se dispara ante la insistencia en temas de autolesión en tiempos cortos. Sobre esto, el doctor Sameer Hinduja, codirector del Cyberbullying Research Center, señaló la relevancia de esta medida. Según el especialista, el involucramiento de los padres en estas situaciones críticas resulta vital para la prevención de daños graves, atendiendo a una solicitud histórica de expertos para que las redes sociales asuman un rol más activo en la protección de usuarios vulnerables.

Fortalecimiento de la salud mental en entornos digitales

Esta actualización se suma a las políticas de Instagram ya existentes para resguardar el bienestar emocional de los menores. Actualmente, la red social bloquea directamente los resultados de búsquedas explícitas de suicidio, redirigiendo al usuario hacia líneas de ayuda y guías informativas. Además, las políticas de contenido prohíben la promoción o glorificación de conductas peligrosas, ocultando publicaciones de este tipo para las cuentas de adolescentes.

La inteligencia artificial de la compañía está programada para reconocer y asistir a jóvenes que requieran ayuda inmediata. Asimismo, se ha informado que se está trabajando en una extensión de esta herramienta para alertar a los padres si sus hijos intentan conversar sobre temas de autolesión con asistentes virtuales dentro de la plataforma. Se prevén nuevos anuncios técnicos sobre este avance en los meses venideros.

La inteligencia artificial analiza los comportamientos de búsqueda y próximamente notificará a los padres si se intentan iniciar conversaciones sobre autolesión. REUTERS/Dado Ruvic/Illustration

Opinión de la comunidad especializada

Diversos analistas en salud mental y seguridad en la red han calificado la medida como un paso sustancial hacia adelante. Argumentan que la posibilidad de recibir esta información a tiempo otorga a los cuidadores una ventaja estratégica para actuar antes de que las crisis escalen. En este sentido, Vicki Shotbolt, directora ejecutiva de Parent Zone, manifestó que herramientas de este tipo ofrecen mayor tranquilidad a las familias preocupadas por el uso digital de sus hijos.

Medidas como estas refuerzan el compromiso de la plataforma con la seguridad infantil y la prevención, facilitando la intervención familiar sin invadir la autonomía adolescente.

Finalmente, estas iniciativas buscan consolidar un compromiso con la seguridad infantil sin irrumpir drásticamente en la privacidad del menor. Al proveer datos exactos en momentos críticos, las familias tendrán mejores herramientas para acompañar a los adolescentes y propiciar entornos digitales más seguros durante situaciones delicadas.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER