La IA es mejor que los médicos en cuanto a la empatía?

Leslie Jamison, trabajó como «actriz médica» en exámenes para estudiantes de la carrera de medicina mucho antes de la llegada de los chatbots.

Notó una brecha entre la empatía performativa que debía evaluar y la empatía más profunda que buscaba como paciente.

Según escribió, los criterios de calificación que debía aplicar premiaban expresiones superficiales de comprensión.

Para Jamison, esto era peor que nada.

«La empatía no consiste solo en recordar decir: “entiendo que debe ser muy difícil”, sino en descubrir cómo visibilizar la dificultad para que pueda ser comprendida.

La empatía requiere tanto indagación como imaginación.

La mayoría de los investigadores contemporáneos dividen la empatía en cuatro componentes.

La empatía afectiva es la capacidad de sentir algo de lo que siente otra persona: resonancia emocional.

La empatía cognitiva es la comprensión intelectual de la perspectiva del otro, alcanzable sin necesidad de compartir sus sentimientos.

La empatía comunicativa es la capacidad de expresar esa comprensión de forma clara (a través de palabras, tono y gestos) para que la otra persona sepa que ha sido comprendida.

La empatía moral es una capacidad de respuesta a la concepción que otra persona tiene de su propio sufrimiento, una capacidad que realmente transforma nuestra respuesta hacia ella.

No se trata de cuatro caras de la misma moneda.

Son capacidades parcialmente independientes, cada una de las cuales puede existir sin las demás.

Un médico puede tener una gran empatía cognitiva y escasas habilidades comunicativas, o una profunda resonancia afectiva con casi nula capacidad para expresarla.

Fundamentalmente, un sistema puede tener una empatía comunicativa fluida sin ningún compromiso moral.

Esta última combinación es precisamente la que produce un modelo lingüístico grande y bien entrenado.

Lo que revela la IA

Los hallazgos que indican que la IA es percibida como empática nos dicen más sobre las formas erróneas en que hemos estado midiendo la empatía que sobre la superioridad de las máquinas.

Las evaluaciones estándar de empatía, del tipo que critica Jamison, capturan principalmente la capa comunicativa: un tono cálido, gestos de reconocimiento y validación verbal de las emociones.

Un sistema de gestión de la vida (LLM) entrenado con millones de conversaciones humanas puede obtener buenos resultados en estas métricas porque ha aprendido la estructura.

Pero la estructura sin fundamento no es suficiente.

La empatía comunicativa sin un compromiso moral subyacente es un desempeño vacío.

Puede satisfacer a los pacientes en breves intercambios textuales.

Pero evaluar solo eso y afirmar que las máquinas superan a los humanos fomenta un reduccionismo superficial.

Una evaluación más sólida no se limitaría a examinar las percepciones de los pacientes sobre una breve consulta escrita.

Dicha evaluación preguntaría si los chatbots pueden sostener el trabajo interpretativo continuo de la atención longitudinal, ayudar a los pacientes a afrontar los desafíos de la incertidumbre clínica o simplemente estar presentes cuando los pacientes deben recibir malas noticias.

Existe una diferencia categórica que las métricas ocultan.

Un sistema de IA procesa entradas y genera salidas; no hay nada en juego para él.

No se le puede conmover.

Un médico que podría conmoverse pero elige el desapego está fallando.

Estas son situaciones diferentes para el paciente, incluso cuando los resultados parecen idénticos en un solo encuentro.

Como dijo Harari: “El nivel más profundo de las relaciones humanas no es el deseo de que alguien se

preocupe por mis sentimientos; es lo contrario…

Es el deseo de preocuparse también por los sentimientos del otro”.

El problema de la formación

Esta distinción es crucial para la educación médica.

Sabemos que la empatía se erosiona durante la carrera de medicina, con la caída más pronunciada en el tercer año, precisamente cuando los estudiantes pasan del aula a la clínica.

Este patrón se mantiene durante la residencia.

Las causas son estructurales.

El currículum oculto enseña el distanciamiento emocional como profesionalismo.

Los modelos a seguir priorizan la eficiencia sobre la presencia.

Los sistemas de evaluación premian la precisión diagnóstica y la competencia procedimental, mientras que la calidad relacional se considera inmensurable o secundaria.

Los estudiantes ingresan a la medicina con una empatía e idealismo superiores al promedio; la formación degrada sistemáticamente ambos.

Osler, en una famosa recomendación, aconsejaba a los estudiantes que buscaran la ecuanimidad (una especie de distanciamiento emocional) en lugar del compromiso empático.

El enfoque de Osler se ha convertido en la norma.

Los médicos reciben formación para evitar conexiones emocionales profundas con el sufrimiento de los pacientes, incluso cuando obtienen malas calificaciones si no aprenden a expresar una aprobación superficial de dicho sufrimiento.

La empatía se celebra en teoría, pero se extingue en la práctica.

Los estudiantes reciben un mensaje contradictorio y lo resuelven como suelen hacerlo las personas sobrecargadas de trabajo: respondiendo según lo exigido para obtener recompensas y protegiéndose con cinismo.

Los intentos previos de contrarrestar esto mediante la adición de asignaturas al currículo (una optativa de humanidades por aquí, un módulo de comunicación por allá) han fracasado en su mayoría, no porque el contenido fuera erróneo, sino porque no modificaron el entorno que erosiona lo que el currículo cultiva.

No se puede enseñar empatía un martes y eliminarla de los estudiantes el resto de la semana.

Cómo enseñar

La aparición de la IA empática plantea una pregunta crucial en la educación médica: ¿Qué aporta la empatía humana que una máquina no pueda?

Si nuestra respuesta es: «Según nuestros indicadores actuales, nada», entonces el problema reside en nuestros indicadores, lo que garantizará nuestra rápida obsolescencia en un mundo de chatbots altamente capacitados.

No se trata de un descubrimiento sobre la naturaleza humana.

Las formas más profundas de empatía que sustentan la práctica clínica (la comprensión interpretativa, la atención moral, la disposición a dejarse conmover genuinamente por la realidad del paciente) son precisamente las habilidades que no se pueden automatizar.

El reto no consiste en competir con las máquinas mediante la empatía programada, sino en enseñar las formas que ninguna máquina puede simular.

Estas no son fáciles de enseñar y requieren tiempo en un curriculum que no se puede extender más.

Escuchar no debe ser un complemento opcional de la atención, sino una competencia fundamental, una habilidad sofisticada que debe cultivarse, practicarse y perfeccionarse.

Acción/Reflexión/Acción.

El estudiante que visita/conoce a un paciente y luego reconstruye el encuentro con todo detalle en un informe textual. Posteriormente, junto con sus supervisores y otros estudiantes, reflexionan sobre lo que escucharon, lo que omitieron y cómo su propia experiencia influyó en su escucha.

El objetivo es que el profesional preste plena atención a la realidad emocional del paciente, observe en tiempo real cómo esas emociones le afectan y evalúe críticamente sus respuestas.

El desafío que la IA plantea a la profesión médica nos obliga a reflexionar profundamente sobre lo que significa cuidar a los pacientes.

Las máquinas parecen preocuparse.

La pregunta es si podemos ayudar a los humanos a brindar una atención genuina.

John D. Lantos, MD, pediatra y bioeticista en New Haven, Connecticut.

Referencias

Ayers JW, Poliak A, Dredze M, et al. Comparing physician and artificial intelligence chatbot responses to patient questions posted to a public social media forum. JAMA Intern Med. 2023;183(6):589-596.

Kang SJ, Cha HS. Empathy in artificial intelligence. Neuroscience Research. 2024;198:1-9.

Liu J, Wang C, Liu S. Utility of ChatGPT in clinical practice. J Med Internet Res. 2023;25:e48568.

Haver HL, Cusick MO, Matar RM, et al. Use of ChatGPT and GPT-4 to generate answers to complex clinical questions: promising results, with room for improvement. Cureus. 2023;15(9):e44801.

Loading

Deja un comentario

Carrito de compra
Scroll al inicio