OpenAI cambia sus reglas y abre una nueva polémica: ahora permitiría el uso de ChatGPT con fines militares

Las reglas de ChatGPT, el poderoso chatbot de OpenAI, hasta hace poco prohibían explícitamente su uso para fines “militares y bélicos”. Ahora, la publicación The Intercept reveló que la organización especializada en inteligencia artificial generativa eliminó esa sección en sus políticas de uso, una movida que profundiza el debate acerca del empleo de estas tecnologías y sus implicancias más allá de las pantallas.

OpenAI cambia las reglas de uso de ChatGPT: ¿un guiño a las organizaciones militares?

De acuerdo a la fuente, la modificación en las políticas de ChatGPT fue realizada el 10 de enero con el propósito de agregar transparencia y “brindar orientación más específica acerca del servicio”. En concreto, se quitó el texto que hacía referencia a la prohibición de empleo del chatbot para fines militares y bélicos. En ese marco, se mantiene las restricciones vinculadas a acciones dañinas y las advertencias respecto al auxilio de estas tecnologías para el “desarrollo o uso de armas”.

En términos prácticos, la mención recientemente eliminada en la lista de usos prohibidos de ChatGPT implicaba que OpenAI no podía trabajar con agencias, como el Departamento de Defensa de Estados Unidos, por mencionar un ejemplo. En esta instancia, aún no es posible evaluar cabalmente las implicancias de esa decisión en la vida real. Sin embargo, la eliminación de esa referencia se produce justo cuando las agencias militares en todo el mundo muestran interés en el uso de la IA.

Cabe mencionar que, por el momento, el modelo de lenguaje que opera detrás de ChatGPT no ofrece modos directos para causar daños físicos. Sin embargo, tal como indican en The Intercept, su tecnología podría adaptarse para ello, escribiendo código que dé órdenes a equipos militares. La referencia es al avance de la automatización de las armas, una problemática que ya ha sido abordada por expertos que han advertido los riesgos en la despersonalización en el uso de la fuerza.

La respuesta de OpenAI y su acercamiento al DARPA de Estados Unidos

Consultado sobre el cambio en la redacción de su política, un vocero de OpenAI señaló que la mencionada modificación tiene como objetivo “crear principios universales que sean fáciles de recordar y aplicar”. El representante de la organización que dirige Sam Altman se negó a aclarar si la prohibición del uso de su tecnología para “dañar” a otros incluía todo tipo de uso militar.

ChatGPT de OpenAI es el emblema de la inteligencia artificial generativa.
ChatGPT de OpenAI es el emblema de la inteligencia artificial generativa.Por: REUTERS

“No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo “militar” en nuestras políticas anteriores. Por lo tanto, el propósito de nuestra actualización es brindar claridad y la capacidad de tener estas discusiones”, ahondaron desde OpenAI.

En declaraciones al sitio Engadget, desde la empresa estadounidense remarcaron que la política de uso de ChatGPT no permite usos que dañen a otras personas. Pero señalaron que ya trabajan junto al DARPA (la Agencia de Proyectos de Investigación Avanzados, que depende del Departamento de Defensa) para “estimular la creación de nuevas herramientas de ciberseguridad, en pos de proteger el software de código abierto del que dependen la infraestructura crítica y la industria”.

Fuente: TN

ra

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER


Warning: Undefined array key "feed_track" in /home/kchfm/public_html/wp-content/plugins/ultimate-twitter-feeds/includes/classes/Utfeed.php on line 61