En un análisis profundo, el filósofo Tom McClelland de la Universidad de Cambridge arroja luz sobre el tan debatido tema de la autoconciencia en la inteligencia artificial. Según sus hallazgos, gran parte de las discusiones actuales sobre este punto se fundamentan más en interpretaciones humanas y en las limitaciones de nuestro entendimiento que en evidencias concretas. Si bien el avance de la IA ha intensificado la urgencia por determinar si una máquina puede ser consciente de sí misma, el camino para confirmar este hito, y cuándo podría ocurrir, permanece esquivo.
El estudio, difundido en la publicación ‘Mind and Language’, señala que la capacidad para verificar la conciencia en sistemas artificiales está aún lejos de nuestro alcance. McClelland argumenta que nuestro conocimiento sobre la mente y la conciencia es insuficiente para realizar evaluaciones objetivas sobre la autopercepción en entidades no biológicas. Por ello, la postura más sensata, al menos por ahora, es la del agnosticismo.
Una distinción crucial que McClelland introduce es entre conciencia y sintiencia en el contexto de la IA. Sostiene que la simple capacidad de una máquina para percibirse a sí misma no la convierte automáticamente en un sujeto con derechos o consideraciones éticas. El verdadero punto de inflexión, según el experto, reside en la sintiencia, es decir, la habilidad de experimentar sensaciones como el placer o el dolor. Es esta capacidad de sentir lo que justificaría una preocupación ética genuina en el trato hacia las inteligencias artificiales. La conciencia, por sí sola, implicaría un auto-conocimiento, pero sin la experiencia subjetiva que le otorga significado.
Para ilustrar este punto, McClelland recurre a ejemplos prácticos. Un vehículo autónomo que detecta el camino es, sin duda, un logro tecnológico, pero éticamente no es relevante. El debate moral cobra sentido solo cuando una IA exhibe reacciones emocionales a sus experiencias. Incluso si una IA desarrollara accidentalmente conciencia, no sería necesariamente el tipo de autoconciencia que genera interrogantes sobre el sufrimiento o el disfrute.
El debate se agudiza ante las masivas inversiones destinadas a crear una Inteligencia Artificial General (IAG), similar a las capacidades cognitivas humanas. Algunos sectores presionan por regulaciones anticipándose a un futuro cercano de conciencia artificial. Sin embargo, McClelland recuerda que el origen de la conciencia sigue siendo un misterio, lo que hace que las posibilidades de pruebas fiables de autoconciencia en IA sean remotas.
Tratar a una máquina sin sintiencia como si fuera consciente es, para McClelland, otro error significativo. Si nos enfocamos en la posibilidad de que una tostadora sea consciente, desviamos la atención de problemas éticos reales y del daño infligido a seres que sí demuestran conciencia.
El análisis de McClelland revisa las dos posturas académicas dominantes. Una sugiere que replicar la arquitectura cerebral podría generar conciencia, independientemente del sustrato. La otra defiende que solo los organismos biológicos pueden alcanzar estados conscientes genuinos, considerando las simulaciones como meros reflejos.
Ambas perspectivas, según ‘Mind and Language’, se basan en suposiciones sin respaldo suficiente. No hay datos que confirmen la aparición de conciencia a través de la computación, ni pruebas concluyentes de que esté intrínsecamente ligada a la biología. McClelland concluye que se requeriría una revolución intelectual para desarrollar métodos capaces de verificar la conciencia artificial.
El filósofo contrasta su certeza sobre la conciencia de los animales, como la de su propio gato, con la dificultad de aplicarla a formas de vida artificiales. Nuestras intuiciones sobre la conciencia biológica provienen de la evolución y la experiencia humana, marcos que no contemplan a las máquinas. Tanto nuestras intuiciones como los datos científicos son insuficientes para resolver esta cuestión, reforzando así la propuesta agnóstica: no tenemos la certeza y quizás nunca la tengamos.
Finalmente, el estudio advierte sobre los riesgos éticos y comerciales. La industria tecnológica, al exagerar la posibilidad de conciencia en sus productos para fines de marketing, se aprovecha de la ambigüedad. Esto podría distorsionar las prioridades de investigación y la asignación de recursos, alejándolos de enfoques basados en evidencia sólida.
Fuente: Infobae