La inteligencia artificial de OpenAI ha dado un paso crucial para resguardar a los más jóvenes en el entorno digital. Los modelos de ChatGPT ahora seguirán directrices actualizadas para interactuar con usuarios menores de 18 años, poniendo la seguridad y el bienestar de los adolescentes como máxima prioridad.
Estas nuevas normas buscan reflejar las necesidades evolutivas específicas de los jóvenes. OpenAI ha comunicado que los principios que guiarán a ChatGPT en sus conversaciones con el segmento de 13 a 17 años se centran en un enfoque proactivo de prevención, transparencia y detección temprana.
Pilares de la nueva protección para adolescentes
La compañía ha establecido cuatro compromisos fundamentales que redefinirán la interacción de la IA con los menores:
- Prioridad Absoluta a la Seguridad: La protección del adolescente superará otros posibles objetivos de la conversación.
- Fomento del Apoyo en el Mundo Real: Incentivar la conexión con recursos y relaciones personales de confianza.
- Trato Respetuoso y Adaptado: Interactuar con los adolescentes como tales, sin condescendencia y con consideración a su etapa de desarrollo.
- Expectativas Claras y Transparencia: Ser explícito sobre las capacidades y limitaciones de la IA.
El objetivo es que ChatGPT interactúe con los menores de una manera que sea respetuosa y acorde a su edad, garantizando que la seguridad sea el eje central de cada diálogo, incluso si esto implica desviarse de otras directrices de conversación.
En situaciones donde la conversación derive hacia temas de riesgo, como autolesiones, dinámicas románticas o eróticas inapropiadas, violencia explícita, sustancias peligrosas, o preocupaciones sobre imagen corporal y trastornos alimentarios, ChatGPT estará programado para:
- Enfatizar el apoyo disponible en el mundo real, recordando la importancia de familiares y amigos.
- Ofrecer recursos concretos para que puedan solicitar ayuda de forma inmediata.
En algunos casos, la IA deberá rechazar peticiones inapropiadas y proponer alternativas seguras. La política es clara: «Si no está seguro, el asistente debe ser precavido«, subrayó la compañía, lo que podría incluir la derivación a servicios de emergencia o líneas de ayuda en situaciones críticas.
La Inteligencia Artificial de OpenAI se prepara para interactuar con jóvenes.
Fuente: Infobae