La potencialidad de la IA en el ámbito de la salud
Esta presentación se basa en la conferencia pronunciada en italiano por el autor ante el pleno del Comitato Nazionale per la Bioetica de Italia, en su sede oficial en Roma, gracias a la amable invitación de su Presidente, Prof. Lorenzo d’Avack, con el título “Applicazione delle tecniche di intelligenza artificiale in relazione al benessere e a la salute umana”.
1. La potencialidad de la inteligencia artificial en el ámbito de la salud
Como es sabido, las posibles y reales aplicaciones de la inteligencia (IA) en diversas actividades humanas son inagotables. En el campo de la salud la utilidad de la IA se está mostrando de forma precoz, creciente y expansiva, sobre todo gracias a la capacidad de disponer y tratar ingentes cantidades de datos en un soporte informatizado (big data). Pensemos en las historias clínicas digitales, las imágenes informatizadas y otros formatos y soportes de información que pueden ser analizados de manera automatizada por algoritmos cada vez más potentes y complejos.
Las herramientas machine learning (ML) y deep learning (DL) son innovaciones tecnológicas vinculadas a la IA relevantes para el análisis ético-jurídico. La primera representa la posibilidad de autoaprendizaje y aprendizaje a partir del tratamiento masivo de datos, y no necesita reprogramación humana, pues lo hace el sistema por si mismo. La segunda (CL), derivación o especificación de la anterior (ML), está basada en redes neuronales artificiales, que son modelos matemáticos inspirados en el comportamiento biológico de las neuronas humanas.
La máquina puede mejorar su tarea programada, rutinaria y automatizada a partir de los ejemplos que se le aportan en el curso de su programación (¡no es que la máquina adquiera por si misma conocimientos o sabiduría!).
Estos modelos algorítmicos pueden manejar un número muy voluminoso de variables que no son accesibles a la programación clásica, por lo que el éxito de estos algoritmos coincide exactamente con los factores comentados anteriormente (disponibilidad de big data y capacidad de procesamiento algorítmico).
2. Los riesgos para los derechos de las personas y los retos para el Derecho
Estas herramientas configuran un paso decisivo hacia la futura y no tan remota automatización y autonomía de los sistemas inteligentes. Como se dirá más abajo, una cuestión filosófica de primera magnitud está relacionada precisamente con el control por parte del ser humano de la autonomía de estas tecnologías, lo que se prevé que habrá que debatir con el desarrollo de los llamados sistemas hiperinteligentes o autónomos.
Otra cuestión abierta e inquietante es la opacidad, al menos en la actualidad, de los elementos esenciales y del proceso mediante el cual un sistema de IA llega a una conclusión de toma de decisiones. Esta limitación de conocimiento es muy importante para la discusión sobre el futuro de la responsabilidad jurídica, y en su caso penal, así como de la pretendida responsabilidad moral de los robots y otros sistemas inteligentes.
La IA y la robótica aplicadas a la salud pueden comportar la toma de decisiones por parte de los profesionales de la salud que afectan directamente a terceros, los pacientes, con el objetivo de primario beneficiarles en relación con su bienestar y su salud. Pero, objetivamente, también pueden ser perjudicados en sus derechos si la IA no se utiliza correctamente.
La IA puede contribuir a eliminar o reducir la incertidumbre en la práctica sanitaria sobre:
- Cómo clasificar las condiciones de salud del paciente (incertidumbre diagnóstica).
- Por qué y cómo los pacientes desarrollan enfermedades (incertidumbre fisiopatológica).
- Qué tratamiento será el más adecuado para ellos, tanto en lo que se refiere al preferible por su eficiencia individual como por la ausencia o reducción de efectos secundarios (incertidumbre terapéutica).
- Si se recuperarán con o sin un tratamiento específico (incertidumbre pronóstica).
Y así sucesivamente.
¿Cuáles son entonces los aspectos problemáticos para el Derecho? Son varios y de naturaleza y alcance diferente:
- El elevado riesgo de que los datos anónimos o que han sido anonimizados o seudonimizados (éstos se hallan protegidos por la ley), como pertenecientes a una persona determinada o determinable, pueden ser identificados o reidentificados con relativa facilidad. En efecto, estas tecnologías, en particular las asociadas al big data y a la llamada minería de datos, permiten establecer relaciones con datos masivos y obtener los datos de identificación del interesado, así como información no explícita, ni siquiera conocida por el interesado (metadatos).
- La toma de decisiones basada únicamente en procesos automatizados o en los perfiles de los pacientes, una vez que son clasificados o estratificados en grupos o subgrupos, basándose así más en los perfiles del grupo al que ha sido adscrito que en su propia individualidad. Sin perjuicio de la evidente utilidad de estos perfiles en la elaboración de protocolos y otras formas de actuación sobre los pacientes de acuerdo con ellos, pueden afectar a la autonomía del paciente, disminuyéndola o vaciándola de contenido, así como un aspecto del derecho a la información: el derecho a la explicación, un derecho nuevo que, como veremos más abajo, aporta el Reglamento General sobre Protección de Datos 2016/679 (RGPD) de la Unión Europea. Este enfoque no deja de constituir una contradicción, al menos aparente, ya que se parte de asumir una opacidad de base tecnológica, pero a continuación se impone la obligación de explicar la lógica por la que un sistema de IA conduce a determinados resultados.
- La tendencia a la automatización en la toma de decisiones vinculada exclusivamente a propuestas algorítmicas del sistema de inteligencia artificial puede anular y sustituir la iniciativa y la independencia de decisión del profesional, automatización que a veces es aceptada por él sin justificación suficiente.
- El riesgo de que, al clasificar o estratificar a los pacientes en grupos o subgrupos a partir de los perfiles personales obtenidos de ellos en función de diversos criterios u objetivos, se adopten o acepten decisiones discriminatorias, estigmatizantes o arbitrarias tomadas únicamente sobre la base de dichos perfiles.
- La opacidad sobre los elementos esenciales y el proceso por el cual un sistema de IA llegó a una conclusión decisional (declara su propuesta, pero no proporciona información significativa sobre los elementos o factores causales en los que se basó la misma), comporta el riesgo de que el profesional sanitario no pueda validar y confirmar, o descartar razonablemente la propuesta del sistema al intentar tomar su propia decisión.
3. Las respuestas que puede o que debe aportar el Derecho
¿Cuál es entonces el potencial del big data y del tratamiento de datos sanitarios y que respuestas jurídicas requieren?
Como ya se ha señalado anteriormente el big data facilita la recopilación masiva de datos personales, que pueden ser procesados con potentes herramientas tecnológicas. De este tratamiento hemos visto cómo se puede obtener información que aparentemente no está implícita en los datos o que no pueden derivarse o inferirse directamente de ellos: el big data implica una alteración cuantitativa y cualitativa sobre los datos.
De acuerdo con el RGPD están protegidos como datos que merecen especial protección (art. 9.1):
- Datos de salud, que son los datos personales relativos a la salud física o mental de una persona física, incluida la prestación de servicios sanitarios, que revelen información sobre su estado de salud (art. 4.15).
- Datos genéticos, que son los datos personales relativos a las características genéticas heredadas o adquiridas de una persona física que proporcionan información única sobre su fisiología o su salud, obtenida en particular mediante el análisis de una muestra biológica de esa misma persona (art. 4.13).
Se discute si la definición legal de datos relativos a la salud permite entender incluidos los datos que en determinadas circunstancias o indirectamente pueden proporcionar información sobre la salud de una persona (lugar de residencia habitual, actividad laboral o profesional, estilo de vida, dieta alimentaria, etc.).
En conclusión, puede sostenerse que estos datos, al menos cuando son tratados en el marco asistencial, en el investigador es diferente, gozan de protección tanto en el marco europeo (RGPD) como en el interno, en este caso conforme a la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LO 3/2018 del 5 de diciembre, LOPDGDD).
Pero, ¿qué respuestas jurídicas más específicas tenemos frente a los riesgos señalados más arriba?
Respecto al elevado riesgo de reidentificación, es decir, de datos que siendo inicialmente anónimos o han sido anonimizados y, por consiguiente, no pueden ser atribuidos a una persona determinada o determinable, pueden llegar a ser atribuibles.
Se plantea la cuestión de si la legislación actual es un medio legal de protección suficiente. La respuesta ha de ser, indudablemente, afirmativa, puesto que, aparte de las infracciones sancionables a que pudiera dar lugar esta reversión de personalización de los datos, éstos volverían a gozar del pleno marco protector de la ley, pues no debe olvidarse que su objeto de protección son los datos de personas –físicas- determinadas o determinables, sin importar cuáles hayan sido las circunstancias o las causas que han dado lugar a que estemos de nuevo ante datos de carácter personal. Sin perjuicio de esta conclusión, no parece que sea éste el mejor camino, pues el amparo legal puede llegar demasiado tarde, una vez que se ha procedido ya a la utilización ilegítima de los datos.
En estos casos se pueden –o se deben- utilizar también medidas preventivas de seguridad, tanto estructurales como organizativas y técnicas, lo que, por lo demás, es legalmente obligatorio, con diversos niveles de seguridad, según corresponda por la clase de datos. No obstante, hay que asumir que la tecnología avanza más rápidamente en procedimientos y recurso de identificación o reidentificación de los datos que en los que aseguren y protejan el mantenimiento del anonimato.
También hay que tener en cuenta que la LOPDGDD establece un régimen más abierto y flexible para el tratamiento de datos con fines de investigación sobre la salud (p. ej., en la utilización de muestras biológicas humanas y los datos obtenidos de ellas), lo que comporta una reducción del nivel jurídico de protección de los datos, que, en principio, puede estar justificada. Por ejemplo, se exige que los investigadores se comprometan a no intentar identificar al titular de los datos que se les proporcionen o que se obtengan, pero sin prever la imposición de una sanción específica en el caso de infracción de esta obligación.
Quizás en el futuro podamos tener tarjetas personales con nuestras predisposiciones genéticas para desarrollar enfermedades, pero ¿estamos ya preparados?
Sobre la posibilidad de descubrir datos sanitarios inesperados sobre el titular de la muestra, la Ley de Investigación Biomédica de 2007 (Ley 14/2007, de 3 de julio, LIB) establece la obligación de proveer de una información anticipada sobre esta eventualidad, con el fin de que el interesado pueda tomar una decisión antes de iniciar el análisis (art. 59.1, i y j).
La automatización de la Medicina puede contribuir a reducir los accidentes y la mortalidad, pero no está exento de riesgos. Estaríamos ante una escala móvil sobre la influencia del sistema de IA en la decisión final: desde la toma de decisiones no automatizada hasta la toma de decisiones totalmente automatizada, lo que no debemos confundir con la obtención de información automatizada, como ocurre, por ejemplo, con determinadas pruebas diagnósticas (análisis de sangre y de orina, mediciones con isótopos radiactivos, etc.).
En el ámbito de la salud, será difícil encontrar decisiones totalmente automatizadas a corto plazo, en el que un sistema de IA tome decisiones directamente y sin supervisión humana, por ejemplo, qué tratamiento debe seguir un paciente. Será más común que estos sistemas se integren como "sistemas de apoyo a la decisión" (DSS), de modo que la decisión final siempre queda en manos del médico.
El Grupo Europeo de Ética en Ciencias y Nuevas Tecnologías (EGE), de la Comisión Europea, propone asegurar un "control humano significativo" (Meaningful Human Control, MHC) en la operatividad de cualquier sistema inteligente programado para la toma de decisiones (Opinion on Artificial Intelligence, Robotics and ‘Autonomous’ Systems, Brussels, 2018). Es una construcción conceptual que tiene su origen en el debate sobre la utilización de armas inteligentes (Letal Autonomous Weapons Systems, LAWS), en lo que no puedo entrar aquí, pero a lo que los juristas deberían prestar especial atención. Un documento reciente del Consejo de Europa, que es una guía sobre el uso de la IA en el ámbito de la justicia, identifica cinco principios, el último de los cuales establece de forma similar la necesidad de que el usuario controle las tecnologías.
Finalmente, hemos señalado la cuestión de la creación de perfiles a partir de datos personales y la posible clasificación de las personas en grupos o subgrupos con perfiles similares a los asociados a determinados patrones, sin tener en cuenta las variaciones que puede presentar cada individuo concreto, en nuestro caso un paciente. Debe rechazarse una decisión sobre un tratamiento basada únicamente en los perfiles de los pacientes y de forma automatizada, especialmente si conduce a la exclusión de un tratamiento sin ofrecer a cambio otro supuestamente menos eficaz, pero que se indica como alternativa frente a una posible exclusión total de otros tratamientos. Son actitudes que no permiten al paciente decidir sobre el tratamiento decidido (o el tratamiento excluido), que pueden dar lugar a prácticas arbitrarias, sin tener en cuenta otros elementos de decisión relevantes de naturaleza individual; por consiguiente, son también discriminatorias, al poder basarse en diversas consideraciones extra-sanitarias. La automatización promueve la opacidad y la falta de transparencia sobre la lógica seguida por la máquina: no proporciona información sobre el proceso causal o la lógica adoptada para llegar a una conclusión o proponer una decisión. A este respecto, el RGPD establece que todo interesado tiene derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado y en la elaboración de perfiles (art. 22.1).
4. Breve reflexión final
Para concluir, podemos asumir sin reservas que la IA está llena de promesas y ya de algunos logros para ayudar a mejorar la salud de las personas, pero hay que tener en cuenta también que no puede haber futuro para la IA en el ámbito sanitario sin seguridad y fiabilidad, ni a costa de los derechos y libertades de los pacientes que, como ciudadanos, deben seguir siendo protegidos (autonomía, privacidad y datos personales, información y explicación, igualdad de oportunidades, no discriminación o estigmatización).
El personal sanitario debe mantener su capacidad de iniciativa como expresión de su titulación reconocida por el Estado para el ejercicio exclusivo y excluyente de su profesión, sin la preponderancia absoluta de otros intereses sociales que defienden las tecnologías emergentes como la IA. Sólo así podremos prevenir el riesgo de promover tendencias hacia un estado totalitario, dominado por el determinismo tecnocrático, excluyendo cualquier espacio para la libertad y la responsabilidad personal.