No data was found

Amodei de Anthropic: Incertidumbre sobre la conciencia de la IA

En declaraciones recientes, Dario Amodei, quien ejerce como director ejecutivo de la organización Anthropic, admitió que actualmente no existen evidencias científicas ni técnicas para confirmar si los sistemas de inteligencia artificial han desarrollado algún nivel de conciencia. Este vacío de conocimiento, según el directivo, se encuentra en el núcleo de las discusiones sobre las fronteras y los peligros de una tecnología que avanza sin frenos, impactando áreas críticas como la salud pública, la economía global y las estructuras democráticas.

Amodei señaló que su interés por este sector nació de una motivación filantrópica y científica.

“Me atrajo el campo de la inteligencia artificial por la posibilidad de acelerar los avances en problemas que resultan demasiado complejos para los humanos”

, detalló. Bajo su perspectiva, la IA está próxima a transformar radicalmente la biología mediante el diseño de experimentos y la innovación en fármacos para combatir patologías severas como el cáncer, el Alzheimer y afecciones del corazón. Respecto a este potencial, el ejecutivo cuestionó:

“¿Podemos realmente curar todas estas enfermedades? ¿Podemos acelerar el progreso y eliminar dolencias físicas y mentales? Esa es la dimensión que veo como posible”

.

Amodei proyecta que la IA podrá asumir tareas completas en biología, diseñar experimentos y acelerar el desarrollo de tratamientos contra cáncer, Alzheimer y enfermedades cardíacas, abriendo la puerta a avances médicos sin precedentes (Imagen Ilustrativa Infobae)

Hacia una nación de genios artificiales

Para el máximo responsable de Anthropic, el objetivo final no es necesariamente la creación de una entidad divina o única, sino la proliferación de capacidades cognitivas superiores trabajando de forma simultánea. Amodei ilustró este concepto comparándolo con un entorno de alta productividad intelectual.

“Puedes imaginarte cien millones de inteligencias entrenadas para abordar diferentes problemas. Eso nos permitirá diversificar y probar múltiples enfoques en paralelo”

, sostuvo. No obstante, aclaró que estas posibilidades están condicionadas por los marcos legales y la capacidad de las sociedades para asimilar tales cambios.

En el ámbito financiero, el experto proyecta un panorama de bonanza sin precedentes. Según sus estimaciones, el uso masivo de esta tecnología podría disparar la productividad a niveles históricos.

“El crecimiento del PIB podría llegar al 10% o incluso al 15%”

, afirmó, señalando que este fenómeno obligará a replantear las políticas de recaudación de impuestos y la manera en que se distribuye el capital a nivel global. Sin embargo, advirtió que gestionar la velocidad de esta transición será un reto administrativo de primer orden.

La transformación del mercado laboral

El impacto en el empleo es otro de los puntos de preocupación para el directivo, quien prevé una sustitución acelerada en roles técnicos y de oficina.

“El trabajo administrativo inicial, la ingeniería de software y los abogados junior serán los primeros afectados”

, puntualizó Amodei. El ejecutivo describió el momento actual como una “fase centauro”, caracterizada por la colaboración estrecha entre personas y algoritmos, aunque sospecha que este periodo de transición será corto debido a que la automatización está demostrando ser capaz de cubrir procesos completos de principio a fin.

Amodei advirtió que la automatización transformará rápidamente empleos administrativos, legales y técnicos, en un proceso más veloz que cualquier revolución previa (Imagen Ilustrativa Infobae)

Datos internos de Anthropic ya sugieren que la IA está superando las capacidades humanas en áreas como el desarrollo de código. Amodei anticipa que sectores como las finanzas, la medicina y la consultoría verán cambios disruptivos muy pronto. Lo que más inquieta al directivo es la rapidez del proceso: a diferencia de otras revoluciones que tomaron siglos, esta se mide en años. Mientras que la construcción y el mantenimiento físico podrían resistir más tiempo, el avance de la robótica también acortará esa brecha de seguridad laboral.

Riesgos existenciales y seguridad internacional

El líder tecnológico no esquivó los riesgos oscuros asociados a la IA. Mencionó específicamente el uso de sistemas autónomos en conflictos bélicos, como flotas de drones coordinados, y el riesgo de que modelos sofisticados ayuden en la síntesis de armamento biológico.

“Debemos ser especialmente cuidadosos con la autonomía total de estos sistemas y la pérdida de controles humanos”

, enfatizó, alertando además sobre el uso de estas herramientas por parte de gobiernos autoritarios para vulnerar libertades civiles o desestabilizar sistemas democráticos.

Sobre la gobernanza global, Amodei comparó la situación con los tratados de no proliferación nuclear. Admitió que establecer un marco de regulación entre naciones competidoras es una tarea titánica pero necesaria. El ejecutivo se mostró a favor de implementar

“un control y supervisión internacional rigurosos”

, siempre que se puedan establecer sistemas de verificación mutua entre las potencias tecnológicas del mundo.

Frente a los riesgos —desde armas autónomas hasta manipulación autoritaria—, Anthropic impulsa controles éticos y una “constitución interna” para guiar el comportamiento de sus modelos (REUTERS/Dado Ruvic/Illustration)

Ética y el diseño de una constitución para la IA

Al abordar nuevamente el tema de la autoconciencia, Amodei fue tajante:

“No sabemos si los modelos son conscientes”

. Ante esta duda, su compañía ha optado por un enfoque preventivo mediante la creación de una “constitución interna”. Se trata de un documento extenso de aproximadamente 75 páginas que dicta los valores éticos que el modelo debe seguir para proteger a los usuarios. Este sistema incluye una función de seguridad donde el modelo puede negarse a ejecutar órdenes si las considera peligrosas o inmorales, funcionando como una especie de salvaguarda ética.

Amodei reveló que, en ocasiones, la IA se rehúsa a procesar contenidos dañinos.

“Es poco frecuente, pero sucede cuando la IA se enfrenta a materiales especialmente dañinos”

, explicó. Asimismo, mencionó que los investigadores han detectado patrones de activación interna que simulan estados similares a la ansiedad humana, aunque esto no implica necesariamente una experiencia sensible real. Por precaución, la empresa actúa como si estos estados tuvieran relevancia moral para evitar daños colaterales.

Finalmente, el directivo advirtió sobre la tendencia de las personas a generar vínculos emocionales con las máquinas, atribuyéndoles una humanidad de la que carecen. Amodei concluyó reflexionando sobre la necesidad de que la tecnología sea honesta y respete la libertad de decisión del ser humano, evitando que las máquinas intenten ocupar el lugar de las personas. Sobre el futuro, mantuvo una postura cautelosa, indicando que el destino de la sociedad depende de pequeñas acciones actuales.

“Pequeñas decisiones pueden definir profundamente el rumbo de la humanidad”

, sentenció.

Fuente: Fuente

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER