El uso creciente de plataformas como ChatGPT para identificar enfermedades físicas o trastornos psicológicos puede generar diagnósticos erróneos, aumentar la ansiedad y postergar tratamientos necesarios
Buscar respuestas rápidas a síntomas físicos o emocionales a través de la inteligencia artificial se ha convertido en una práctica común. Sin embargo, el uso de herramientas como ChatGPT o aplicaciones automatizadas para autodiagnosticarse puede traer consecuencias graves tanto para la salud física como mental.
“Las personas están consultando a la IA como si fuera un médico o un terapeuta, sin considerar que estas plataformas no tienen la capacidad de evaluar un caso clínico ni de contener emocionalmente a quien está sufriendo”, advierte Teresa Valle, psicóloga Grupo Cetep, red de salud mental.
Inmediatez sin criterio: el riesgo del diagnóstico automatizado
Uno de los principales riesgos que alertan los especialistas es el error en el diagnóstico. Las IAs están diseñadas para entregar respuestas basadas en patrones universales, no para interpretar el historial médico, el contexto emocional o las variables individuales de cada persona. “Un dolor abdominal puede ser desde estrés hasta una apendicitis. Solo un profesional, con exámenes y criterio clínico, puede identificar la causa real”, explica Teresa Valle.
Además, el acceso instantáneo a respuestas alarmistas puede aumentar la ansiedad y fomentar la llamada “cibercondría”, un trastorno donde las personas desarrollan angustia excesiva al buscar síntomas en internet. “Muchas veces se convencen de tener enfermedades graves, generando más miedo e incluso retrasando el tratamiento adecuado”, agrega.
Cuando la tecnología aísla en lugar de acompañar
En salud mental, los peligros también son evidentes. Algunas personas están optando por hablar con chatbots en lugar de acudir a psicólogos o psiquiatras. “Esto puede reforzar el aislamiento social y postergar intervenciones terapéuticas necesarias. La IA no escucha activamente ni ofrece contención emocional real”, señala la profesional de Grupo Cetep.
El fenómeno se agrava con la proliferación de contenidos en redes sociales donde influencers o aplicaciones sugieren diagnósticos o tratamientos sin ninguna base profesional. “La salud, tanto física como mental, debe abordarse con responsabilidad, con acompañamiento humano y con una entrevista clínica, para que el profesional no solo aborde la sintomatología, sino también el estilo de vida, la forma de pensar, la forma que tienen los pacientes de hablar permite hacer un diagnóstico más completo y un mejor tratamiento”, enfatiza Teresa Valle.
Mhaite, IA con criterio clínico
En contraste con el uso desinformado de la IA, existen iniciativas tecnológicas responsables y efectivas como Mhaite, desarrollada por Grupo Cetep. Esta herramienta digital nace como respuesta a este desafío: una plataforma que conversa evalúa y deriva, entregando información clave para tomar decisiones organizacionales basadas en evidencia, con foco en la prevención y acción oportuna.”Mhaite demuestra que la IA puede integrarse al sistema de salud de manera ética y efectiva, optimizando recursos y activando redes clínicas reales desde el primer clic”, señala Teresa Valle.
El sistema automatizado de Mhaite permite asignar orientación adecuada según el nivel de necesidad, distribuyendo eficazmente la carga de atención: evita el sobreuso de recursos clínicos en casos leves y prioriza a quienes más lo necesitan.
Continúa leyendo noticias de Salud & Bienestar aquí.