Incluso los más escépticos encuentran difícil negar que la fiebre por la inteligencia artificial trasciende el simple marketing. El avance tecnológico impulsa un auge bursátil sin precedentes, que podría colapsar en cualquier instante, pero las respuestas de las versiones más recientes de ChatGPT y Claude siguen pareciendo sacadas de un truco de magia. En el ámbito empresarial, casi todos coinciden en que lo visto hasta ahora es apenas un anticipo: la inteligencia artificial promete productos superiores y una drástica reducción de costos laborales.
Esa promesa es futura, pero la IA ya está transformando la sociedad. En AI for Good (Inteligencia Artificial para el bien), Josh Tyrangiel describe el impacto presente de esta revolución a través de casos reales: investigadores, educadores y emprendedores ambiciosos —muchos de ellos fuera de Silicon Valley— se familiarizan con la tecnología e intentan, de forma conmovedora, lograr algo positivo.
AI for Good nació de una columna que Tyrangiel escribió para The Washington Post entre 2023 y 2024. Resulta útil en una época donde se exige a los trabajadores dominar herramientas como Claude y ChatGPT. El libro es el tipo de lectura que los directores de innovación y consultores recomendarían con entusiasmo. Para bien o para mal, a tu jefe le encantará.

Tyrangiel evita sabiamente los debates técnicos sobre qué es la IA (ChatGPT lo es, pero también la tecnología que transcribe mensajes de voz o permite depositar cheques desde el celular). También esquiva el intelectualismo excesivo que suele rodear los riesgos tecnológicos. (Busca en Google “paperclip problem” si quieres adentrarte en ese tema. O pregúntale a un chatbot).
Es refrescante leer un libro sobre IA que no se centra en figuras moralmente cuestionables del sector, sino que se detiene, por ejemplo, en Peggy Buffington, una superintendente escolar de Indiana que parece más lúcida sobre los desafíos de la IA que Sam Altman o Jeff Bezos.
“Algunos chicos solo la acosaban sin parar”, cuenta Buffington a Tyrangiel al describir los experimentos de su distrito con un chatbot de tutoría llamado Khanmigo. “Le decían groserías. O sea, te puedes imaginar cómo terminó eso”.
El primer cuarto del libro aborda el desarrollo de Khanmigo, creado por OpenAI y la organización sin fines de lucro Khan Academy. La recepción es mixta. Tyrangiel cita a adultos impresionados, pero luego se encuentra con alumnos de octavo grado que “no estaban nada impresionados”. Uno califica al chatbot como “poco útil” para preguntas complejas y dice que “no se parece en nada a un profesor real”.

Esto resulta preocupante, aunque el número de distritos escolares que usan Khanmigo crece rápidamente. “El mercado ha dictado su propio veredicto”, escribe Tyrangiel.
Luego el relato se traslada a la Cleveland Clinic, donde el director ejecutivo, Tomislav Mihaljevic, espera que la IA salve vidas. Un sistema de aprendizaje automático diseñado para identificar pacientes con alto riesgo de sepsis coincide con una reducción en la tasa de muertes por sepsis, probablemente porque detecta casos que los médicos pasarían por alto.
Estos resultados son prometedores pero ambiguos. El software genera falsos positivos y no está claro si la IA merece el crédito. Como señala Tyrangiel, es posible que los empleados estuvieran más alerta al saber que su trabajo se comparaba con la IA. Aun así, Mihaljevic lo presenta como una “prueba de concepto” que sugiere que “la IA no necesita ser perfecta para ser útil”.
La sección más sólida narra los esfuerzos de Kristy Johnson, investigadora del MIT, que utiliza IA para interpretar las vocalizaciones de su hijo con discapacidad del desarrollo. Johnson desarrolló su herramienta recopilando grabaciones de niños no verbales junto con las interpretaciones de sus padres. Es un relato apasionante, tanto por su audacia técnica como por el afecto parental.

AI for Good está estructurado como un libro de viajes y la prosa es ágil, concisa y precisa. Pero los viajeros no siempre regresan con una comprensión matizada, especialmente si no se alejan del autobús turístico.
La escena inicial es decepcionante. Tyrangiel relata su “despertar con la IA”, una “epifanía nocturna” mientras ve un video de YouTube de una conferencia organizada por Palantir, la empresa de análisis tecnológico y contratista de defensa. En el video, un funcionario de la administración Trump describe cómo contrató empleados de Palantir para construir un panel de datos que rastreara materiales para distribuir vacunas contra el Covid en la Operación Warp Speed.
“Señor, le vamos a dar todos los datos que necesite para que pueda evaluar, determinar riesgos y tomar decisiones rápidamente”, citan a los empleados. “Perfecto, están contratados”, responde el funcionario. Tyrangiel dice sentirse transportado y vio el video compulsivamente: “En casa, en la oscuridad, hice clic en reiniciar, impulsado por la fuerza de algo lejanamente familiar”. Esa fuerza era “optimismo”.

La elección de Palantir como ejemplo de “IA para el bien” resulta extraña junto a trabajadores de la salud y docentes. La empresa, cofundada por el capitalista de extrema derecha Peter Thiel, ha recibido denuncias de activistas por derechos civiles y provee software para redadas migratorias del gobierno de Trump. ¿Es Palantir “bueno”? Es debatible, aunque Tyrangiel descarta esa discusión como “casi trivial”. Parece considerar estas cuestiones como inútiles. La IA ya está aquí, sin importar quién la desarrolle, y la única opción es aprovecharla.
Hacia el final, Tyrangiel expresa su esperanza de que AI for Good inspire a otros a usar la tecnología para resolver problemas sociales. Es un mensaje que le servirá en conferencias. Pero en un momento donde las empresas despiden a decenas de miles en nombre de la automatización, y donde billones de dólares dependen de convencer a más personas de que los chatbots valen su tiempo y dinero, es un argumento tan previsible que bien podría haberlo generado una IA.
Fuente: Infobae