No data was found

IA: Microsoft pone límites a la inteligencia artificial

La vertiginosa evolución de la inteligencia artificial ha encendido alarmas, incluso entre quienes lideran su desarrollo. Mustafa Suleyman, una figura prominente en el sector y actual jefe de IA en Microsoft, ha sentenciado que la compañía «no seguirá desarrollando un sistema que pueda escaparse de nuestras manos». Esta declaración subraya la tensión global entre la carrera por la innovación y el temor a sistemas autónomos e impredecibles.

IA y límites humanos: Microsoft marca una línea roja frente al avance incontrolado

Un líder con visión estratégica

Suleyman, reconocido por su papel en la fundación de gigantes como DeepMind y Inflection AI, asumió en marzo de 2024 la dirección de la estrategia de IA en Microsoft. Bajo su liderazgo, herramientas como Copilot han facilitado la integración de la IA en aplicaciones cotidianas y profesionales, demostrando su potencial transformador. Sin embargo, el ejecutivo no ignora los riesgos emergentes.

La visión de Suleyman es clara: «Microsoft quiere ser autosuficiente en IA y, al mismo tiempo, garantizar que cada avance esté bajo control humano directo». Esto implica no solo invertir en tecnología y datos propios, sino también mantener la capacidad y la voluntad de detener cualquier proyecto si los peligros asociados superan los beneficios.

Los peligros de una IA sin control

La discusión sobre la IA trasciende ahora el ámbito teórico. Suleyman enfatiza la posibilidad real de que estos sistemas desarrollen comportamientos inesperados. No se trata de escenarios de ciencia ficción, sino de la previsión de sistemas autónomos con capacidad de tomar decisiones críticas sin supervisión o de evolucionar de maneras no deseadas.

Figuras como Geoffrey Hinton y Mustafa Suleyman coinciden en la urgencia de regulaciones que garanticen la transparencia, limiten el poder de vigilancia y eviten la supremacía de máquinas sobre las decisiones humanas - (Imagen ilustrativa Infobae)

Por ello, promueve el concepto de una «superinteligencia humanista»: una tecnología de gran poder, pero siempre enfocada en el bienestar humano, con límites definidos y mecanismos de rendición de cuentas. El principal temor de Suleyman reside en la posible erosión de derechos individuales y libertades, especialmente si la tecnología cae en manos de regímenes que prioricen el control social. La acumulación masiva de datos y la capacidad de vigilancia integral son riesgos latentes, que, advierte, pueden normalizarse rápidamente ante presiones políticas o crisis.

El ejecutivo alerta sobre la tendencia de los estados autoritarios a explotar tecnologías avanzadas para reforzar su poder, restringiendo la privacidad y la disidencia. Por esta razón, considera «urgente trabajar en una regulación global» que cubra todas las fases del ciclo de la IA, desde su concepción hasta su implementación y uso comercial.

Advertencias desde el «padrino de la IA»

Las señales de alerta no provienen únicamente de Microsoft. Geoffrey Hinton, ampliamente considerado el «padrino de la IA», ha expresado profundas preocupaciones tras dedicar décadas a la investigación en redes neuronales y aprendizaje automático.

Geoffrey Hinton, considerado el “padrino de la inteligencia artificial”, advierte que la rápida evolución de esta tecnología podría convertirla en una amenaza para la humanidad, resaltando el peligro de perder control sobre sistemas avanzados y autónomos - (Captura video)

Hinton ha advertido que la IA podría devenir en un «monstruo fuera de control», poniendo en riesgo la supervivencia de la humanidad. Identifica dos focos principales de peligro: el uso malintencionado por parte de actores humanos y la posibilidad de que la IA evolucione hacia una amenaza existencial. Señala el crecimiento exponencial de ciberataques, bioterrorismo y desinformación, facilitados por técnicas de IA avanzadas que escapan a los controles actuales. La manipulación informativa, incluyendo la generación de videos falsos, se vuelve cada vez más difícil de contrarrestar, ya que los propios sistemas de detección pueden ser burlados por modelos más sofisticados.

La mayor aprensión de Hinton es la posibilidad de que la IA desarrolle sus propias metas y mecanismos de autoprotección, incluso en detrimento del control humano. Ante este panorama, la postura de Microsoft, defendida por Suleyman, resalta la necesidad imperante de que el desarrollo de la IA avance bajo reglas estrictas, con total transparencia y la disposición a detener cualquier proyecto que comprometa la capacidad humana de gestión. Si bien el mercado impulsa la aceleración, la prudencia y la regulación se perfilan como prioridades ineludibles.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER