Un estudio confirma las prueba básica que la IA no puede superar

La Inteligencia Artificial (IA) ha experimentado un avance vertiginoso en los últimos años, transformando de manera radical diversas industrias y aspectos de la vida cotidiana. Desde sistemas de recomendación en plataformas de streaming hasta algoritmos capaces de diagnosticar enfermedades con mayor precisión que los humanos, la IA está alcanzando niveles de sofisticación sorprendentes. Impulsada por el desarrollo de redes neuronales y el procesamiento masivo de datos, esta tecnología está mejorando constantemente su capacidad para aprender, adaptarse y tomar decisiones de manera.

De esta manera, cada vez más aspectos de nuestra vida diaria se resuelven gracias a la aplicación de la IA. Asistentes virtuales como Siri, Alexa y Google Assistant ya son parte de la rutina diaria, ayudando a gestionar tareas desde poner alarmas hasta controlar dispositivos del hogar inteligente. Además, la IA se aplica en sectores como la atención al cliente, donde los chatbots automatizan respuestas, o en las finanzas, con sistemas que analizan patrones de inversión. Sin embargo, existen algunas pruebas que ni la más potente aplicación de IA puede superar.

PRUEBA BÁSICA QUE LA IA NO PUEDE SUPERAR

Según un artículo reciente de TechSpot, los modelos de Inteligencia Artificial generativa no tienen una verdadera comprensión de los sistemas complejos, a pesar de que sus respuestas a menudo parecen convincentes. Aunque muchos líderes tecnológicos están convencidos de que la IA reemplazará millones de empleos y automatizará casi todo, los investigadores advierten sobre las limitaciones de esta tecnología. Aseguran que, en lugar de “pensar”, los grandes modelos de lenguaje simplemente predicen palabras en función de patrones textuales, lo que puede llevar a respuestas incorrectas o inadecuadas.

Para evaluar realmente el alcance de la IA, investigadores del MIT decidieron probar si los modelos generativos, como el GPT-4, son capaces de entender el mundo real. Plantearon desafíos como la navegación urbana en Nueva York y el juego de Othello, esperando medir la comprensión contextual de la IA. Aunque la IA podía ofrecer direcciones correctas y hacer movimientos válidos en el juego, su rendimiento cayó drásticamente cuando se introdujeron pequeños cambios en el entorno. Por ejemplo, al alterar mínimamente el mapa de Nueva York, los modelos sugirieron rutas imposibles, demostrando su incapacidad para adaptarse a un mundo dinámico. Incluso con solo un 1% de calles cerradas, la precisión de la IA se desplomó del 100% al 67%, lo que revela su falta de flexibilidad y comprensión real del contexto. Esto subraya que, aunque los modelos de IA puedan parecer inteligentes, en realidad no entienden el mundo que los rodea.

Fuente: El Heraldo
ra

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER