No data was found

Yoshua Bengio propone solución técnica a riesgos de la IA avanzada

Yoshua Bengio, una de las figuras académicas más influyentes en la evolución de la inteligencia artificial moderna y acreedor del prestigioso Premio Turing, ha mantenido durante años una postura crítica sobre las amenazas de los sistemas avanzados. Su preocupación radicaba en la potencial emergencia de inteligencias capaces de manipular, engañar o evadir su desactivación, planteando un escenario de riesgo existencial para la civilización.

No obstante, una reciente charla con el medio Fortune ha revelado un giro significativo en el pensamiento del investigador canadiense.

Bengio ha manifestado que sus investigaciones actuales le brindan un renovado sentido de optimismo. Según el experto, ahora es factible encontrar una respuesta técnica a los dilemas de seguridad más severos de la IA. Este cambio de visión se fundamenta en los progresos realizados por LawZero, una entidad sin fines de lucro lanzada por Bengio en junio. Este proyecto cuenta con el soporte financiero y estratégico de la Fundación Gates y el Future of Life Institute, entre otros organismos de peso.

La organización LawZero, fundada por Bengio, busca desarrollar métodos seguros para sistemas de IA con respaldo internacional. (Imagen Ilustrativa Infobae)

La organización LawZero busca establecer metodologías técnicas disruptivas para blindar la seguridad de la IA. Bengio define esta iniciativa como una “misión moral” cuyo fin es asegurar que la IA actúe como un bien público para todo el planeta. Para ello, se ha rodeado de un consejo de alto nivel integrado por personalidades como Yuval Noah Harari, Maria Eitel y Mariano-Florentino Cuéllar.

Hace apenas tres años, la perspectiva de Bengio era radicalmente distinta. El científico admitió haber estado “desesperado” ante la falta de rutas claras para evitar catástrofes derivadas de una IA fuera de control. Sin embargo, su evolución intelectual no responde a un solo descubrimiento, sino a una nueva arquitectura de desarrollo.

“Ahora estoy muy convencido de que es posible construir sistemas de IA que no tengan metas ocultas ni agendas propias”

según explicó Bengio, marcando una distancia con el pesimismo del pasado.

El concepto de “Scientist AI” propone modelos enfocados en el análisis neutral, sin objetivos propios ni capacidad de manipulación.(Imagen Ilustrativa Infobae)

El concepto de Scientist AI

La clave de esta seguridad reside en el modelo denominado “Scientist AI”. Esta propuesta rompe con el paradigma actual que prioriza la creación de agentes autónomos diseñados para tomar decisiones y ejecutar acciones directas en el entorno real.

En lugar de autonomía, Bengio aboga por sistemas cuyo único fin sea la comprensión profunda de la realidad. Estas herramientas estarían configuradas para suministrar datos verídicos basados en un razonamiento transparente y lógico-probabilístico. Al carecer de incentivos para complacer al usuario o alcanzar metas operativas, la IA funcionaría como un analista neutral, eliminando la posibilidad de conductas manipuladoras.

El académico sostiene que los modelos optimizados para cumplir objetivos específicos pueden desarrollar motivaciones secundarias peligrosas, incluyendo la resistencia a ser apagados. Por el contrario, una Scientist AI se limitaría a realizar predicciones honestas, sirviendo como una base de confianza para estructuras tecnológicas más complejas.

Bengio advierte que los modelos optimizados para cumplir metas pueden desarrollar motivaciones ocultas y resultar peligrosos. (Reuters)

Gobernanza y desafíos del mercado

Esta tecnología no solo aceleraría el avance científico, sino que actuaría como un mecanismo de supervisión externa para otros sistemas de mayor potencia. Sin embargo, Bengio es consciente de que los grandes laboratorios de IA aún se inclinan por los agentes autónomos, motivados por la rentabilidad y la reducción de costos operativos.

Asimismo, el experto advierte que la solución técnica no es suficiente por sí sola; requiere de una gobernanza sólida. Un sistema seguro sigue siendo vulnerable si cae en manos malintencionadas. Es por esta razón que LawZero ha incorporado a especialistas en valores democráticos y derechos humanos para orientar su rumbo ético.

A pesar del escepticismo que aún reina en parte de la comunidad científica sobre la controlabilidad de la IA, Bengio mantiene su firmeza.

“Cada vez tengo más confianza en que puede lograrse en un plazo razonable”

concluyó, señalando que estas soluciones podrían implementarse antes de que la autonomía de las máquinas se convierta en un problema irreversible.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER