La promesa de la inteligencia artificial en la salud ha dejado de ser una quimera futurista para convertirse en una realidad palpable, aunque aún incipiente y plagada de interrogantes. En los últimos meses, gigantes tecnológicos como Microsoft, Amazon y OpenAI han desatado una avalancha de herramientas de IA conversacional —desde Copilot Health hasta ChatGPT Health y Health AI— que prometen revolucionar el acceso a la información y el cuidado médico. Esta proliferación no es casual: Microsoft, por ejemplo, reporta la asombrosa cifra de 50 millones de preguntas de salud diarias en su aplicación Copilot, consolidando la salud como el tema más popular. Estamos, sin duda, ante un punto de inflexión, donde la tecnología se presenta como un bálsamo para sistemas sanitarios saturados, pero también como un espejo de nuestras urgencias y anhelos más profundos.
El Canto de Sirena del Acceso Universal
La visión optimista que acompaña a esta marea de innovación es seductora. Estos chatbots, disponibles 24/7, podrían aliviar la presión sobre los servicios de salud, ofreciendo desde triaje inicial y recomendaciones de bienestar hasta un espacio seguro para expresar inquietudes. Expertos como Andrew Bean del Oxford Internet Institute sugieren que los modelos han alcanzado una madurez suficiente para ser útiles, mientras que líderes de Microsoft AI y OpenAI, Dominic King y Karan Singhal, respectivamente, citan tanto el avance de la IA generativa como la creciente demanda de los usuarios como catalizadores. Girish Nadkarni, director de IA del Mount Sinai Health System, va más allá, subrayando que la existencia misma de estas herramientas es un reflejo de las dificultades de acceso a la atención médica, especialmente para poblaciones vulnerables. La IA, en este escenario, se erige como un puente hacia una atención más equitativa y accesible.
La Sombra de la Prisa: Cuando la Innovación Adelanta a la Cautela
Sin embargo, la velocidad con la que estas herramientas han sido desplegadas masivamente ha encendido las alarmas en la comunidad científica y médica. La crítica más contundente es la flagrante falta de una evaluación rigurosa e independiente antes de su lanzamiento al público. Un estudio reciente y ampliamente debatido, liderado por el propio Girish Nadkarni en Mount Sinai, reveló hallazgos preocupantes: ChatGPT Health, en ocasiones, recomienda un exceso de atención para condiciones leves y, lo que es más alarmante, falla en identificar emergencias. Aunque la metodología del estudio ha sido cuestionada, su existencia subraya la escasa supervisión externa en un ámbito tan crítico. Los expertos coinciden: mientras que sugerir planes de ejercicio puede ser inofensivo, usos como el triaje, el diagnóstico o la elaboración de planes de tratamiento conllevan riesgos evidentes y potencialmente catastróficos.
La complejidad inherente a la aplicación de la IA en medicina contrasta drásticamente con la celeridad de estos lanzamientos. En el foro de Neurociencia e Inteligencia Artificial del HOMS, el Dr. Nicolás Hatzopoulos de la Universidad de Chicago, con más de 25 años de investigación en interfaces cerebro-computadora (BCI), destacó la monumental dificultad de descifrar el 'código' del cerebro para controlar dispositivos externos. Su trabajo, que busca leer la intención volitiva neuronal, exige grabar de muchas más neuronas y áreas cerebrales para lograr un control efectivo. Asimismo, el Dr. Samuel Bolchenboom, también de la Universidad de Chicago, enfatizó la importancia crítica de los datos para construir modelos de IA robustos y fiables en la investigación médica. Este nivel de rigor y la inversión de décadas en investigación contrastan con la prisa por desplegar chatbots de consumo masivo, reforzando la demanda de una base de evidencia sólida y una evaluación externa exhaustiva para garantizar la seguridad y eficacia de estas nuevas tecnologías en un campo tan delicado y vital.