«Tres muertes que se pudieron evitar«
230 millones consultan a ChatGPT cada semana sobre su salud. Si la IA alucina o se . Tu cuerpo paga las consecuencias.
El 66% de la población ya recurre a la inteligencia artificial para consultar síntomas antes de ir al doctor. Entre jóvenes de 16 a 19 años, la cifra sube al 90%. Estamos frente a una pandemia silenciosa: millones de personas sustituyendo el criterio médico por un algoritmo que, literalmente, alucina.

Así se llaman los errores de la IA: alucinaciones. Respuestas que suenan perfectamente médicas, convincentes, estructuradas — pero completamente falsas. Y cuando esas alucinaciones se mezclan con tu salud, las consecuencias no son digitales. Son de carne y hueso.
MUERTE #1: EL DIAGNÓSTICO QUE TE MATA
Un hombre buscó un sustituto para la sal en sus comidas. ChatGPT le recomendó bromuro de sodio. Tres meses después estaba hospitalizado con paranoia, alucinaciones auditivas y visuales, y retención psiquiátrica involuntaria. El bromismo — una enfermedad del siglo XIX — regresó gracias a un consejo de inteligencia artificial. Otro paciente pospuso atención tras un accidente cerebrovascular porque la IA le dijo que era estrés. Para cuando llegó al hospital, el daño ya era irreversible.
“La IA no puede auscultar. No puede tomar tu pulso. No conoce tu historial. Diagnosticar sin un cuerpo frente a ti no es medicina — es adivinación con algoritmo.”
MUERTE #2: TU PRIVACIDAD EN MANOS DE UNA EMPRESA
OpenAI lanzó ChatGPT Health a principios de 2026, permitiendo conectar historiales médicos y aplicaciones de salud. Suena conveniente. Pero no es un dispositivo médico regulado. No está sujeto a los mismos estándares de evidencia ni rendición de cuentas que una herramienta clínica. Tus enfermedades, medicamentos y resultados de laboratorio ahora alimentan una máquina de una empresa privada que no puede garantizar cómo usará esos datos.
MUERTE #3: EL TIEMPO QUE NO RECUPERAS
En salud mental, cuanto más tarda alguien en recibir tratamiento, peor se pone. La IA no detecta que estás en crisis. No llama a emergencias. No te abraza. En México, con 0.2 psiquiatras por cada 100,000 habitantes, la tentación de usar un chatbot como terapeuta es enorme. Pero cada día que la IA te ‘atiende’, es un día que un profesional real no te está viendo.

TU VIDA NO ES UN PROMPT
La IA puede ser extraordinaria como herramienta para profesionales médicos. Pero por la misma razón que no vuelas en un avión pilotado por un novato sin supervisión, no deberías confiar tu salud a una herramienta que alucina regularmente.

“¿Cuándo fue la última vez que tu hijo te dijo que le dolía algo y lo primero que hizo fue abrir una app en lugar de hablar contigo? Esa es la primera muerte. Y de esa no te avisa ningún algoritmo. Cierra la app. Abre la puerta del consultorio. Tu vida no es un prompt.”
Equipo T2S1
