PathMBA Vault

Customer experience

Para que los pacientes confíen en la IA médica, tienen que entenderla

por Chiara Longoni, Romain Cadario, Carey K. Morewedge

Para que los pacientes confíen en la IA médica, tienen que entenderla

Las aplicaciones de salud para el diagnóstico basadas en la inteligencia artificial están cada vez más disponibles para los consumidores; incluso se puede acceder a algunas a través de teléfonos inteligentes. Google, por ejemplo, anunciado recientemente su entrada en este mercado con una herramienta basada en la IA que ayuda a las personas a identificar las afecciones de la piel, el cabello y las uñas. Sin embargo, un obstáculo importante para la adopción de estas tecnologías es que los consumidores tienden a confiar menos en la IA médica que en los proveedores de atención médica humana. Creen que la IA médica no satisfacer sus necesidades únicas y funciona peor que los proveedores humanos comparables, y piensan que no pueden hacer que la IA rinda cuentas por los errores de la misma manera que podrían hacerlo con un humano.

Esta resistencia a la IA en el ámbito de la medicina representa un desafío para los responsables políticos que desean mejorar la atención médica y para las empresas que venden servicios de salud innovadores. Nuestra investigación proporciona información que podría utilizarse para superar esta resistencia.

En un artículo publicado recientemente en Naturaleza Comportamiento humano, mostramos que la adopción de la IA médica por parte de los consumidores tiene tanto que ver con su percepción negativa de los proveedores de cuidados con IA como con su visión poco realista y positiva de los proveedores de cuidados humanos. Los consumidores se muestran reacios a confiar en los proveedores de cuidados de la IA porque no creen que entiendan o entiendan objetivamente cómo la IA toma las decisiones médicas; ven su toma de decisiones como una caja negra. Los consumidores también se muestran reacios a utilizar la IA médica porque creen erróneamente que entienden mejor la forma en que los humanos toman las decisiones médicas.

Nuestra investigación, que consta de cinco experimentos en línea con representantes nacionales y muestras de conveniencia de 2.699 personas y un estudio de campo online sobre Google Ads: muestra lo poco que los consumidores entienden cómo la IA médica llega a sus conclusiones. Por ejemplo, analizamos cuánto sabían muestras representativas a nivel nacional de estadounidenses sobre la forma en que los proveedores de cuidados de la IA toman las decisiones médicas, por ejemplo, si un lunar en la piel es maligno o benigno. Los participantes no obtuvieron mejores resultados de lo que lo habrían hecho si lo hubieran adivinado; les habría ido igual de bien si hubieran elegido las respuestas al azar. Pero los participantes reconocieron su ignorancia: calificaron como baja su comprensión de la forma en que los proveedores de cuidados de la IA toman las decisiones médicas.

Por el contrario, los participantes sobreestimaron lo bien que entendían la forma en que los médicos humanos toman las decisiones médicas. A pesar de que los participantes en nuestros experimentos tenían un conocimiento fáctico similar de las decisiones que tomaban la IA y los proveedores de cuidados humanos, afirmaron entender mejor cómo funcionaba la toma de decisiones en los seres humanos.

En un experimento, pedimos a una muestra en línea representativa a nivel nacional de 297 residentes de los EE. UU. que nos dijera cuánto sabían sobre cómo un médico o un algoritmo examinaría las imágenes de su piel para identificar lesiones cutáneas cancerosas. Luego les pedimos que nos explicaran los procesos de toma de decisiones del proveedor humano o algorítmico. (Este tipo de intervención que ha sido usado antes para acabar con las creencias ilusorias sobre lo bien que se entienden los procesos causales. La mayoría de las personas, por ejemplo, creen que entienden cómo funciona un helicóptero. Solo cuando les pide que expliquen cómo funciona, se dan cuenta de que no tienen ni idea.)

Después de que los participantes trataran de dar una explicación, volvieron a calificar su comprensión del proceso de toma de decisiones médicas humanas o algorítmicas. Descubrimos que obligar a las personas a explicar los procesos de toma de decisiones del proveedor humano o algorítmico reducía la medida en que los participantes pensaban que entendían las decisiones que tomaban los proveedores humanos, pero no decisiones tomadas por los proveedores algorítmicos. Esto se debe a que su comprensión subjetiva de la forma en que los médicos toman las decisiones se había exagerado y su comprensión subjetiva de la forma en que los proveedores de IA tomaban las decisiones no se vio afectada por el hecho de tener que dar una explicación, posiblemente porque ya habían pensado que esta última era una caja negra.

En otro experimento, con una muestra representativa a nivel nacional de 803 estadounidenses, medimos qué tan bien las personas subjetivamente consideraron que entendían los procesos de toma de decisiones humanos o algorítmicos para diagnosticar el cáncer de piel y, luego, los pusieron a prueba para comprobar qué tan bien los entendían realmente. Para ello, creamos un cuestionario con la ayuda de expertos médicos: un equipo de dermatólogos de una escuela de medicina de los Países Bajos y un equipo de desarrolladores de una popular aplicación de detección del cáncer de piel en Europa. Descubrimos que, aunque los participantes declararon tener una comprensión subjetiva más deficiente de las decisiones médicas tomadas por los algoritmos que de las decisiones tomadas por los proveedores humanos, poseían una comprensión real igualmente limitada de las decisiones tomadas por los proveedores humanos y algorítmicos.

¿Qué pueden hacer los responsables políticos y las empresas para fomentar la adopción de la IA médica por parte de los consumidores?

Descubrimos dos intervenciones exitosas y ligeramente diferentes que consistían en explicar cómo los proveedores, tanto algorítmicos como humanos, toman las decisiones médicas. En un experimento, explicamos cómo ambos tipos de proveedores utilizan el marco ABCD (asimetría, borde, color y diámetro) para examinar las características de un lunar y evaluar el riesgo de malignidad. En otro experimento, explicamos cómo ambos tipos de proveedores examinan la similitud visual entre un lunar objetivo y otros lunares que se sabe que son malignos.

Estas intervenciones redujeron con éxito la diferencia en la comprensión percibida de la toma de decisiones algorítmica y humana, al aumentar la comprensión percibida de la primera. A su vez, las intervenciones aumentaron las intenciones de los participantes de utilizar proveedores de cuidados algorítmicos sin reducir sus intenciones de utilizar proveedores humanos.

La eficacia de estas intervenciones no se limita al laboratorio. En un estudio de campo sobre Google Ads, hicimos que los usuarios vieran uno de los dos anuncios diferentes de una aplicación de detección del cáncer de piel en los resultados de búsqueda. Un anuncio no ofrecía ninguna explicación y el otro explicaba brevemente cómo funciona el algoritmo. Tras una campaña de cinco días, el anuncio en el que se explicaba cómo funciona el algoritmo generó más clics y un porcentaje de clics más alto.

Los servicios de salud basados en la IA son fundamentales para la misión de brindar servicios asequibles y de alta calidad a los consumidores de países desarrollados y en desarrollo. Nuestros hallazgos muestran cómo una mayor transparencia (abrir la caja negra de la IA) puede ayudar a cumplir esta misión fundamental.