Retos éticos y legales de la inteligencia artificial en salud

Dr. Javier Cotelo

29 de diciembre de 2020

La inteligencia artificial irrumpe con fuerza en el sector de la salud, tanto en la asistencia como en la investigación. Para fomentar su implantación con seguridad desde el punto de vista ético-legal es prioritario desidentifícar o anonimizar los datos y que estas herramientas ayuden a tomar decisiones sin reemplazar al profesional, que debe continuar presidiendo la relación médico-paciente.

El Observatorio de Tendencias en la Medicina del Futuro de la Fundación Instituto Roche continúa su análisis de las áreas que serán prioritarias en los próximos años. Acaba de publicar tres nuevos informes dedicados a los retos éticos y legales de la inteligencia artificial en salud, las terapias avanzadas y el exposoma, que fueron debatidos en tres mesas formadas por miembros del observatorio y autores de los documentos durante la III Jornada Anticipando la Medicina del Futuro.[1]

La inteligencia artificial busca generar conocimiento de manera autónoma a través de algoritmos y herramientas computacionales que analizan gran cantidad de datos. En el sector sanitario se prevé que estas herramientas liberen a los profesionales sanitarios de la elevada carga de tareas rutinarias y burocráticas para disponer de mayor tiempo de dedicación asistencial, y que ayuden en gran medida a detectar la predisposición a enfermedades, identificar portadores de patologías hereditarias o predecir la respuesta individual a los tratamientos, entre otras posibilidades.

La Dra. Encarna Guillén, presidenta de la Asociación Española de Genética Humana, y miembro del Comité de Bioética de España, que participó en el informe como experta, comentó a Medscape en español: "Las aplicaciones de inteligencia artificial tienen un desarrollo muy significativo actualmente, y en mi opinión, sin percibir en este proceso un freno motivado por la potencial generación de conflictos éticos. Es incluso al contario: tenemos que hacer un esfuerzo constante para identificar y anticipar los posibles problemas éticos inherentes al desarrollo e implementación de estos sistemas para evitarlos o minimizarlos, incorporando una reflexión ética paralela".

Para trasladar estas herramientas a la práctica clínica y contribuir a la digitalización de la medicina personalizada de precisión en el futuro, profesionales sanitarios, juristas, poderes públicos y sociedad en general deberán enfrentarse y buscar de manera conjunta soluciones a los retos éticos y legales que conllevan.

Cambio radical en la actividad asistencial

Las potenciales utilidades de la inteligencia artificial en la actividad asistencial supondrán un cambio radical en la práctica de la medicina. Como ejemplo, el análisis de imágenes médicas permite compartir muchas pruebas (radiológicas, histológicas, de tumores, etc.), además de procesarlas, tratarlas, compararlas y analizarlas con herramientas basadas en redes neuronales artificiales.

Asimismo, como sistema de apoyo a la decisión clínica, los profesionales dispondrán de información en tiempo real, que les ayudará a tomar decisiones con cada paciente, diagnosticar enfermedades de baja prevalencia o detectar situaciones clínicas graves para actuar con urgencia.

En cuanto al área terapéutica, podrán predecir la respuesta al tratamiento, detectar resistencias bacterianas a antibióticos para ofrecer óptimo tratamiento personalizado. Estas herramientas serán muy útiles para elaborar perfiles de pacientes que clasifiquen en grupos o subgrupos de enfermedad.

Por otro lado, en cuanto a la gestión sanitaria y de las estrategias de salud pública, la inteligencia artificial puede establecer correlaciones que permitan cambiar o mejorar procesos y protocolos de actuación. Un tercer escenario es la investigación biomédica, donde posibilitará el aprendizaje automático, análisis probabilísticos, aprendizaje profundo (deep learning) y el análisis por capas para analizar gran cantidad de datos desde distintas perspectivas.

Finalmente, no se puede olvidar la utilidad que tiene y tendrá en el ciudadano/paciente, donde juega un papel destacado en el autocuidado, monitorización de enfermedades crónicas, detección de situaciones agudas con necesidad de atención urgente, etcétera.

Garantía jurídica de la gestión de datos

Existen dos referencias fundamentales en cuanto a la protección de estos derechos de los individuos que conforman el marco jurídico básico: el Reglamento General de Protección de Datos y la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales.Este marco básico recoge una serie de garantías que se deben atender en cuanto a la gestión de los datos para el diseño de este tipo de herramientas de inteligencia artificial, junto a los principios básicos en los que se asienta la regulación actual. Además, en estos momentos se está construyendo el marco normativo y ético con una reciente propuesta del reglamento del Parlamento Europeo sobre principios éticos para el desarrollo de inteligencia artificial.

En general, se pueden clasificar los derechos respecto a la gestión de los datos empleados en los procesos de aprendizaje de los algoritmos (derecho a la intimidad y derecho a la protección de los datos personales en relación con el Big Data, el principio de transparencia y la autonomía del paciente), y por otra parte, en derechos respecto a la toma de decisiones basada en los resultados obtenidos con estas herramientas (principio de no discriminación y estigmatización, derecho a no ser objeto de decisiones basadas únicamente en procesos automatizados, derecho a la información, derecho a la explicación al paciente y derechos decisionales del profesional: su salvaguarda ante la automatización de la práctica clínica).

Principal reto: no reidentificar a los pacientes

El Dr. Carlos Romeo, catedrático de Derecho Penal y coordinador del Grupo de Investigación de la Cátedra de Derecho y Genoma Humano de la Universidad del País Vasco, además de coordinador del informe, declaró a Medscape en español: "Esta normativa, y ninguna otra en nuestro país, se ocupa de determinados usos de la inteligencia artificial, solamente con lo que tiene que ver con los datos de carácter personal.

El principal reto para los expertos en inteligencia artificial es garantizar que no se pueda reidentificar a los individuos a partir de los datos disponibles en distintos recursos, ya que no se podría garantizar el anonimato".

"Por otro lado, los datos anonimizados no están protegidos por el Reglamento General de Protección de Datos y pueden transferirse sin restricciones desde el punto de vista jurídico, sin embargo, si estos datos son reidentificados sí están protegidos", destacó.

"Por ejemplo, en la investigación biomédica, cuando trabajan conjuntamente varios equipos nacionales e internacionales, como ha ocurrido con la pandemia, existe este peligro debido al inmenso tránsito de datos", añadió el experto.

Atención a las conclusiones y contexto en el Big Data

En la protección de la información del individuo por la posibilidad de establecer relaciones entre datos masivos a través de las tecnologías del Big Data, el Reglamento General de Protección de Datos contempla la protección reforzada de los datos de salud, cuyo acceso masivo para su uso en la medicina personalizada va en aumento.

Lo importante en el tratamiento de la información no es tanto el carácter de los datos a primera vista, sino las conclusiones que se pueden derivar y el contexto en el que se pueden tratar.

De momento, la traslación a la práctica clínica de todas las aplicaciones con estas herramientas de inteligencia artificial no es completa; se deben analizar los retos e implicaciones ético-legales en profundidad ya que, como señala la Organización Mundial de la Salud, constituyen desafíos urgentes en salud a los que se enfrentará la sociedad en la próxima década.

La tecnología avanza tan rápidamente que la regulación debe adaptarse para afrontar todas estas cuestiones y dotarlas de marcos legales que tengan en cuenta, sobre todo al paciente/usuario del sistema de salud, articulando a través del derecho las propuestas y soluciones basadas en la ética.

Evitar sesgos en la toma de decisiones

Otro reto es evitar los posibles sesgos al momento de tomar decisiones basadas exclusivamente en perfiles y en procesos de estratificación. El Parlamento Europeo señaló que esto podía dar lugar a situaciones de discriminación y sesgo algorítmico, por lo que propuso un marco ético común de máxima prudencia, en referencia a la necesidad de evaluaciones periódicas sobre la representatividad de los conjuntos de datos y de examinar la exactitud e importancia de las predicciones.

Además cabe la posibilidad de que algunas personas, ejerciendo libremente sus derechos, no quieran facilitar dicha información y, por tanto, esos datos no se incluyan para que un algoritmo aprenda de ellos, disminuyendo la representatividad de la muestra. La toma de decisiones basada en procesos automatizados o en perfiles obtenidos de pacientes supone el riesgo de que al clasificar o estratificar a los pacientes con base a los criterios que establecen los desarrolladores, podrían tomarse decisiones discriminatorias, estigmatizadoras o arbitrarias si estos criterios están sesgados o si los perfiles son el único aspecto considerado para tomar una decisión.

Una idea interesante para afrontar este reto sería extender el juramento hipocrático de los médicos a los ingenieros y desarrolladores de inteligencia artificial aplicada en salud, de manera que se aseguren los principios bioéticos de todos los profesionales que jugarán un papel relevante en la medicina del futuro, o bien elaborar códigos de conducta por sectores implicados.

El médico debe gobernar la herramienta de inteligencia artificial

Otro aspecto de capital importancia para el Dr. Romeo es la situación en que queda el profesional cuando una herramienta llega a una conclusión. "El médico es el que tiene que tomar la decisión; si toma una contraria a lo que le indica el sistema inteligente, tendrá que argumentarla muy bien, por lo que siempre deberá gobernar todas las tecnologías".

"Es un problema pendiente de resolver: que siempre sea el ser humano el que tenga la última palabra, del tal modo que no nos dejemos dominar o controlar por las tecnologías. Se puede y se debe utilizar esa automatización, pero no hasta el extremo de que la decisión esté basada exclusivamente en el proceso de la inteligencia artificial; en última instancia, el médico debe ser quien revalide todo lo hecho", puntualizó.

Asegurar la transparencia del proceso decisorio

Asegurar la transparencia sobre los elementos esenciales y sobre el proceso por el cual un sistema de inteligencia artificial llega a una conclusión decisiva. Esta opacidad conlleva el riesgo de que el profesional de la salud no pueda validar y confirmar o descartar la propuesta del sistema porque desconoce la lógica interna por la cual se ha llegado a dicho resultado.

En este sentido, dado que es responsabilidad del clínico informar al paciente de las decisiones tomadas con estos sistemas, no solo es necesario formar a los profesionales sanitarios, sino que, de cara al paciente, será necesario incorporar consentimientos informados adecuados sobre el uso de estas herramientas.

"Los datos pertenecen al individuo y sobre esos datos tiene y ejerce sus derechos; por ello debe emplearse un consentimiento. En el contexto del Reglamento General de Protección de Datos para que el consentimiento sea válido debe ser específico, informado, otorgado libremente, sin ambigüedades (para fines determinados) y revocable", indicó la Dra. Guillén.

"El consentimiento informado puede no tener la misma eficacia en sistemas complejos como los de la inteligencia artificial, ya que puede no saberse de antemano cuáles serán las conclusiones a las que llegará la herramienta o qué usos obtendrá de los datos que se le proporcionen; y esto también hay que tenerlo en cuenta", añadió.

Actualmente existen líneas de investigación dirigidas a afianzar la transparencia, como el que sea el propio sistema quien se autoexplique y pueda informar al clínico y al paciente los criterios seguidos para tomar una decisión.

Atribución y asunción de la responsabilidad

Es preciso definir a quién atribuir y quién debe asumir responsabilidades a la hora de emplear estas herramientas en salud. La Dra. Guillén indicó: "Según el sistema vigente, el médico debe asumir la responsabilidad sobre daños producidos en la salud del paciente en caso de mal uso de estas herramientas; pero no incurre en responsabilidad si el sistema funciona de manera incorrecta, en cuyo caso se traslada a quien ha diseñado el sistema o al encargado de su mantenimiento y actualización".

"Tampoco debe olvidarse la responsabilidad directa que pueden tener las administraciones públicas tras la incorporación de determinados instrumentos de inteligencia artificial para la toma de decisiones en el sistema sanitario, por lo que deberían existir validaciones y acreditaciones, nacionales/internacionales de estos procesos para preservar en la medida de lo posible la seguridad de los pacientes", añadió la experta.

"En el reglamento europeo de 2017 sobre productos sanitarios se contempló que las herramientas de inteligencia artificial concebidas como software deberían identificarse con el concepto de producto sanitario", agregó.

Sin jurisprudencia hasta el momento

Por otro lado, el catedrático refiere: "En estos momentos no hay sentencias relevantes sobre la inteligencia artificial. Puede haber fallos tanto humanos como de las herramientas, pero normalmente no es objeto de valoración negativa por parte del derecho, y no tendría por qué generar responsabilidad. Ahora bien, si ha habido un fallo que viene acompañado de un comportamiento negligente entrará el derecho".

Por otro lado, respecto de la pobre acogida por el ciudadano de la aplicación de inteligencia artificial RADAR COVID-19 en esta pandemia, la Dra. Guillén reconoció que "ha tenido bajas descargas y limitado uso (en torno a 10% de los posibles usuarios) en nuestro país (tampoco ha sido exitosa en otros países europeos). Está diseñada para proteger la privacidad, ya que no se identifican datos personales ni la geolocalización de los individuos; sin embargo, creo que el nivel de desconfianza en el tratamiento de los datos ha sido una de las claves del fracaso. La información adecuada y constante y la transparencia podrían haber compensado, en parte, esa gran limitación".

Finalmente, ante la necesidad de que los profesionales sanitarios se enfrenten a estas nuevas herramientas, el Dr. Romeo aconseja "como con cualquier otro aparato moderno tecnológico, aprenderlo bien y formarse concienzudamente en su manejo; hay que saber hasta qué punto se puede confiar o no en el sistema de inteligencia artificial".

"Un patrón exitoso que se ha habilitado en algunos países y también en España es la notificación y análisis de los efectos adversos que se puedan producir en un centro sanitario, o que pueda causar daños en el paciente o incluso para el profesional. Por tanto, invita al estudio y análisis para poder corregirlo y que no vuelva a fallar ese sistema", concluyó.

La Dra. Guillén y el Dr. Romeo han declarado no tener ningún conflicto de interés económico pertinente.

Siga al Dr. Javier Cotelo de Medscape en español en Twitter @Drjavico.

Para más contenido siga a Medscape en Facebook, Twitter, Instagram y YouTube.

Comentario

3090D553-9492-4563-8681-AD288FA52ACE
Los comentarios están sujetos a moderación. Por favor, consulte los Términos de Uso del foro

procesando....