La compañía tecnológica Google ha procedido a la eliminación de diversos resúmenes generados mediante inteligencia artificial en los resultados de búsqueda vinculados a la salud. Esta determinación se tomó tras confirmarse que estas herramientas automatizadas podían difundir información errónea y comprometer la seguridad física de los internautas.
Las acciones correctivas se implementaron después de que diversas indagaciones expusieran fallos en los denominados ‘AI Overviews’. Estos fragmentos, que aparecen en la parte superior del buscador, presentaban datos inexactos sobre sintomatología, exámenes diagnósticos y recomendaciones clínicas. Uno de los errores más alarmantes fue la sugerencia de evitar alimentos grasos para pacientes con cáncer de páncreas, una instrucción que contradice los protocolos médicos establecidos.

Al respecto, Anna Jewell, directora de soporte y de investigación de Pancreatic Cancer UK, advirtió sobre las graves consecuencias de este tipo de consejos. La experta manifestó que:
“podría ser realmente peligrosa y poner en riesgo la posibilidad de que un paciente esté en condiciones de recibir tratamiento”
Jewell enfatizó que, si una persona sigue dicha recomendación, podría perder el aporte calórico indispensable para resistir procedimientos críticos como cirugías o quimioterapia.
Otro fallo sustancial ocurrió en las consultas sobre pruebas de función hepática. El sistema de inteligencia artificial proporcionaba parámetros de referencia sin aclarar que los valores normales fluctúan según la etnia, edad, sexo y nacionalidad de cada individuo. Pamela Healy, directora ejecutiva de la British Liver Trust, señaló que estas respuestas automatizadas podrían inducir a pacientes graves a pensar que sus análisis son correctos, alejándolos de la asistencia médica oportuna.
En el ámbito de la salud femenina, se detectaron fallos sobre el cáncer vaginal. La IA de Google listó erróneamente la prueba de Papanicolaou como método de detección para esta enfermedad, aunque dicho examen no cumple esa función. Athena Lamnisos, directora de la organización Eve Appeal, destacó que recibir información imprecisa puede causar que muchas mujeres no consulten a un especialista al creer que están protegidas por otros estudios diagnósticos.

La problemática también alcanzó el área de la salud mental. En búsquedas sobre trastornos alimentarios y psicosis, el buscador ofreció sugerencias peligrosas o que desincentivaban la búsqueda de auxilio profesional. Stephen Buckley, responsable de información en la entidad Mind, subrayó que los resúmenes carecían de contexto, utilizaban fuentes poco confiables y, en ocasiones, reforzaban estigmas o narrativas negativas.
Acciones de Google y críticas de especialistas
Como respuesta inmediata, Google retiró los AI Overviews en consultas específicas, especialmente aquellas relacionadas con los rangos normales en exámenes de hígado. La organización informó que mantiene una revisión constante de la calidad de sus resúmenes y cuenta con un equipo de clínicos especializados para evaluar errores reportados.
Un representante de la empresa aseguró que la gran mayoría de los fragmentos generados por IA son precisos y que se sigue invirtiendo en optimizar la calidad de los contenidos, con un enfoque prioritario en los temas sanitarios.

No obstante, expertos en políticas de salud consideran que estas medidas son reactivas. Vanessa Hebditch, directora de comunicaciones de la British Liver Trust, aunque valoró el retiro de la información perjudicial, mostró su preocupación de que la solución solo se aplique a términos de búsqueda aislados y no a la estructura general de la herramienta en temas médicos.
Finalmente, se ha observado que la información proporcionada por la inteligencia artificial de Google carece de consistencia, variando entre consultas idénticas realizadas en diferentes momentos. Esta falta de uniformidad, derivada del uso de distintas fuentes en cada ejecución, genera una creciente incertidumbre entre las asociaciones de pacientes y los profesionales de la salud.
Fuente: Infobae