No data was found

Cuando el chatbot reemplaza al doctor: Anthropic revela que Claude ya da consejos médicos

El 30 de abril de 2026, la empresa Anthropic divulgó un estudio que, a simple vista, parecía un reporte técnico más. Sin embargo, al leerlo con detenimiento, sus hallazgos resultan inquietantes. La compañía analizó un millón de conversaciones sostenidas con su chatbot Claude y descubrió que el 6% de esas interacciones no trataban sobre programación, resúmenes o búsqueda de información. Eran, en realidad, personas solicitando orientación sobre cómo enfrentar su vida cotidiana. De ese grupo, aproximadamente 38.000 conversaciones, el tema predominante no fue la carrera profesional, el dinero o las relaciones sentimentales. Fue la salud, con un 27% del total.

Hasta aquí, podría parecer una simple curiosidad estadística. Pero el dato que transforma esta investigación en una noticia inquietante aparece en una sola línea del documento académico, casi de pasada: parte de los usuarios le confesó a Claude que recurría a la inteligencia artificial «precisamente porque no podían acceder o pagar un profesional». No se trata de una suposición de los científicos. Es lo que las personas escribieron directamente en el chat.

Un sustituto no oficial para el sistema de salud

El discurso oficial sobre la inteligencia artificial generativa, repetido por figuras como Sam Altman, Sundar Pichai y Dario Amodei en cada conferencia, se centra en la productividad. Programadores que escriben código con mayor rapidez, abogados que revisan contratos en cuestión de minutos, oficinistas que ganan dos horas al día. Esa narrativa está respaldada por cifras y casos concretos, y es real en muchos aspectos.

Lo que el paper de Anthropic revela es la otra cara de la moneda, aquella que no aparece en los informes financieros trimestrales. Una porción significativa del uso masivo de Claude responde a una necesidad mucho más básica y, al mismo tiempo, más grave. La Figura 1 del estudio desglosa los subtemas dentro de la categoría de salud: interpretación de análisis clínicos, manejo de condiciones crónicas, lesiones, síntomas respiratorios, cálculo de calorías y macros para composición corporal. Además, en el apartado sobre escenarios de alto riesgo, los investigadores enumeran cuatro ejemplos concretos: vías migratorias, instrucciones para el cuidado de bebés, dosis de medicamentos y deudas de tarjeta de crédito.

La consulta médica de millones de personas, tanto en países desarrollados como en vías de desarrollo, ya se realiza a través de un chatbot. El estudio de Anthropic lo documenta con datos propios y contundentes.

Las principales búsquedas de salud en Claude incluyen interpretación de análisis clínicos, condiciones crónicas y cálculo de calorías corporales. (Imagen Ilustrativa Infobae)

Un paper de seguridad que lo confirma todo

Este es el detalle que cambia la perspectiva. La admisión no llega en un comunicado de marketing o en una nota de prensa. Aparece en un documento firmado por el equipo de seguridad de Anthropic, dedicado a investigar cómo proteger el bienestar de los usuarios. Los autores lo presentan como una preocupación legítima: Claude no fue diseñado para proporcionar consejos médicos y, en estos casos, el modelo reconoce sus limitaciones y recomienda consultar a un humano.

El problema, leyendo entre líneas, es que sugerir una consulta humana no resuelve nada cuando el usuario ya ha respondido, en el mismo chat, que no tiene los recursos para pagarla. El paper no narra esa secuencia conversacional completa. Documenta ambos hechos por separado y deja la tensión sin resolver. Los investigadores anuncian que el próximo paso es construir evaluaciones específicas para estos dominios de alto riesgo, especialmente para usuarios que no tienen alternativa profesional. Es decir: identifican el problema, aún no lo han solucionado y advierten que están trabajando en cómo medirlo.

Esta situación coloca a Anthropic, y por extensión a OpenAI, Google y todos los laboratorios de inteligencia artificial de frontera, en una posición que la regulación aún no ha comprendido del todo. Se han convertido en proveedores de consejo médico de facto, a una escala de cientos de millones de personas, sin licencia clínica, sin responsabilidad civil y sin un protocolo de derivación obligatorio. Y son los primeros en saberlo.

El informe de Anthropic plantea la necesidad urgente de regulación para los chatbots que brindan consejos médicos sin licencia ni protocolo obligatorio. (Imagen Ilustrativa Infobae)

Lo que el dato cambia en el debate público

La discusión pública sobre inteligencia artificial y salud sigue atada a dos imágenes predominantes: el médico de élite que utiliza Claude para revisar literatura científica, o el riesgo lejano de un diagnóstico automatizado y equivocado. Ambas son ciertas, pero ambas son secundarias. La realidad operativa, la que surge del análisis de un millón de conversaciones, es otra: el chatbot ya es el primer punto de contacto del sistema de salud para una parte sustancial de los usuarios.

Esto desplaza el centro del debate. La pregunta ya no es si los chatbots deberían dar consejos médicos. Ya los están dando. La cuestión ahora es bajo qué condiciones, con qué garantías de precisión, con qué obligación de derivar a un especialista y con qué transparencia sobre los límites del modelo. Anthropic publicó el dato. Ahora le corresponde a la FDA, la agencia que aprueba medicamentos en Estados Unidos, a la Comisión Europea y a las autoridades sanitarias regionales decidir si lo van a tomar en serio o si van a seguir tratando estas conversaciones como simple ruido estadístico.

El sistema de salud privado está diseñado para quienes pueden pagar. El sistema público, para quienes pueden esperar. Existen millones de personas que no encajan en ninguna de esas dos categorías y que hoy en día le preguntan sus dudas a Claude. Anthropic acaba de documentarlo en un paper firmado por su propio equipo de seguridad. Es lo más cerca que la industria ha estado de pedir, implícitamente, que la regulen.

Fuente: Infobae

COMPARTIR ESTA NOTICIA

Facebook
Twitter

FACEBOOK

TWITTER