Tiene sentido empezar por un detalle concreto: alguien con dolor torácico escribió en un chat y recibió como primera respuesta que se trataba de ansiedad. No hay nombre ni hospital, solo la experiencia que hoy circula en foros y que el estudio citado por los medios recoge como síntoma de un problema mayor. La urgencia es real porque mucha gente ya usa la web como primer filtro de salud.

Qué nos dicen los números y las fuentes

No todos los peligros son invisibles. Según Pew Research Center, cerca del 72% de los usuarios de internet ha buscado información de salud en la red (Pew Research Center, 2013), lo que sitúa a los chatbots en el camino cotidiano de consulta. La adopción masiva de herramientas de IA es veloz: ChatGPT alcanzó 100 millones de usuarios mensuales en enero de 2023, apenas dos meses después de su lanzamiento en noviembre de 2022, lo que ilustra la capacidad de estas plataformas para convertirse en punto de contacto generalizado (The New York Times, enero 2023). Y esto ocurre en un contexto sanitario desigual: la Organización Mundial de la Salud estima que aproximadamente la mitad de la población mundial no recibe servicios básicos de salud, lo que hace más probable que la gente recurra a soluciones digitales informales (WHO, 2017).

Esos tres números no prueban por sí solos que todos los chatbots sean peligrosos, pero explican por qué un error tiene consecuencias distintas hoy: impacto masivo y población que, por falta de acceso, confía en opciones no reguladas.

Qué encontró el estudio

La nota que difundió Infobae refiere a una investigación según la cual los consejos médicos generados por modelos de lenguaje suelen ser erróneos. El texto no ofrece en el cuerpo cifras metodológicas detalladas: el porcentaje exacto de respuestas equivocadas, la muestra de chats analizados y los criterios para juzgar riesgo no están disponibles en la reseña ofrecida. Eso importa: sin datos públicos y verificables la discusión cae en anécdotas y titulares. Si la investigación está disponible, debería acompañarse de la base de datos, protocolos y casos clínicos anonimizados para evaluación independiente.

Por qué importa más que un tropiezo tecnológico

Hay dos vectores de riesgo. Primero, el clínico: un consejo incorrecto puede retrasar una consulta urgente o inducir tratamientos innecesarios. Segundo, el sistémico: la normalización de respuestas erróneas erosiona la confianza en fuentes legítimas y desplaza demanda hacia servicios que no están obligados a estándares sanitarios. En un país donde gran parte de la población recurre a internet por barreras de acceso, esto no es un problema abstracto.

Qué pedir — y cómo se diferencia de la reacción performativa

No proponemos frenar la innovación. Proponemos controles concretos. Pedimos tres medidas mínimas:

  1. Métricas públicas obligatorias: tasa de coincidencia clínica, porcentaje de respuestas potencialmente riesgosas y canales de escalamiento a profesionales certificados; esos indicadores deben publicarse con fuentes y metodología reproducible.

  2. Coordinación técnica entre desarrolladores, autoridades sanitarias y sociedades científicas: protocolos comunes para actualizar modelos con evidencia clínica y excluir recomendaciones contrapuestas a guías vigentes.

  3. Compromisos verificables y responsabilidad: auditorías externas periódicas, mecanismos de corrección y obligación de notificar a usuarios cuando la respuesta provenga de un sistema automatizado sin respaldo clínico.

Estas demandas siguen la línea de recomendaciones internacionales, como las de la OMS sobre gobernanza ética de la IA en salud (WHO, 2021). No es un gesto: son requisitos que permiten medir si una solución digital mejora o empeora la atención.

Cierre: internet como espejo, no como consigna

La discusión sobre chatbots de salud no admite sentimentalismos. Vemos una tecnología que puede ampliar acceso y otra que, sin reglas claras, extiende errores a escala. Lo que nadie cuenta es que la diferencia entre un buen servicio y un daño masivo suele estar en los detalles técnicos y en la transparencia pública. Exigir datos, coordinación y verificabilidad no es tecnofobia; es saneamiento de lo público frente a lo viral.

Fuentes citadas: Pew Research Center, Health Online 2013; The New York Times, informe sobre usuarios de ChatGPT, enero 2023; World Health Organization, datos sobre cobertura de servicios esenciales, 2017; WHO, Ethics and Governance of AI for Health, 2021. Si la investigación original citada por los medios publica sus métricas, deberíamos evaluar sus cifras con la misma exigencia que pedimos para las empresas.