¿Pueden los robots confiar en los humanos? La necesidad de consensos éticos para el uso de la IA
Hoy en día la Inteligencia Artificial forma parte de nuestras vidas de maneras que ni siquiera imaginamos.
Está presente en la selección de la información que nos llega cuando navegamos en internet, es la base de nuevos descubrimientos en el campo médico, en el marketing, en el análisis de datos de comportamiento macro a nivel social y sobre todo en los dispositivos que usamos a diario.
Sin embargo, es común escuchar acerca de la desconfianza de los humanos en torno a los avances de las nuevas tecnologías y de las inteligencias artificiales.
De esta dicotomía, entre el uso generalizado por un lado y la aprensión por el otro, surgen una serie de interrogantes en torno a la ética aplicada al campo de la IA.
¿Un controlador emocional para una máquina racional?
Imaginen la siguiente situación: se hallan al costado de los rieles de un tren, justo donde se encuentra una encrucijada que bifurca las vías en dos caminos, y ven venir la locomotora a toda máquina, pero se dan cuenta de una realidad acuciante: si el tren toma el camino previsto atropellará a cinco personas. Por suerte, ustedes se encuentran al lado de la palanca que puede desviar el curso de la máquina y salvar esas vidas. Pero desafortunadamente en las vías alternativas se encuentra otra persona, ¿deberían accionar la palanca, salvando a cinco individuos a pesar de condenar a uno? Esta es una de las tantas formulaciones de dilemas éticos propuestos por la filósofa británica Philippa Foot. En ellos se busca analizar y refutar las bases de la corriente ética llamada utilitarismo, cuyo principio para el discernimiento de las acciones correctas es el de maximizar el bienestar para la mayoría y minimizar el sufrimiento, tal como lo formuló el filósofo Jeremy Bentham.
El dilema del tren ha suscitado encuestas en diversas universidades y la gran mayoría de las personas parecen acordar en que lo correcto es accionar la palanca, pues eso evitaría una mayor cantidad de muertes. Pero, ¿cuál sería la respuesta si la persona que se encuentra sola en la vía alternativa es un familiar de quien debe accionar la palanca? Queda claro, entonces, que es difícil encontrar principios éticos que sean aplicables a todas las situaciones y contextos posibles.
El neurocientífico Antonio Damasio nos habla, en su obra El error de Descartes, de la naturaleza emocional de nuestra toma de decisiones: es el cuerpo con sus marcadores somáticos el que, a partir de las emociones, nos genera diversos estados físicos que influyen y orientan la toma conciente de decisiones acerca de aquello que consideramos bueno (correcto) o malo (incorrecto), siempre ligado a nuestras experiencias de vida y nuestra educación. Es así como causar dolor nos genera malestar, y ser generosos, sobre todo con los propios, nos genera estados emocionales placenteros, entre otros ejemplos.
¿Cómo puede una máquina adquirir la experiencia necesaria para evaluar cómo actuar en situaciones que afectan el bienestar de las personas?
Los algoritmos aprenden de la interacción con los humanos y replican sus patrones de conducta. DeepMind, la IA de Google que aprende en entornos gamificados a jugar de y con humanos, ha demostrado que este tipo de sistemas computacionales pueden aprender tanto a ser egoístas como a cooperar, dependiendo de las actitudes de los humanos con quienes interactúan.
La Inteligencia Artificial, las nuevas tecnologías basadas en el e-learning y procesamiento de datos, son herramientas muy poderosas para entender y analizar la realidad tanto social como material del mundo que nos rodea, pero carecen de los indicadores -en última instancia emocionales- para la toma de decisiones éticas. Es por esto que esa obligación recae en nosotros, los seres humanos. El filósofo francés Jean Paul Sartre ya nos alertaba acerca del peso de la libertad como responsabilidad, y parece hoy más que vigente cuando entendemos que nunca vamos a poder delegar la tarea de la construcción de los marcos morales que regulen nuestra vida en sociedad y la interacción con las nuevas inteligencias computacionales.
La necesidad de consensos y comités de ética para el uso adecuado de la IA.
Frente a estos dilemas éticos, los robots y las nuevas inteligencias artificiales nos interpelan: ¿podemos confiar en la ética humana?
Los sistemas de valores que regulan las sociedades son diversos y han surgido de la interacción de nuestra naturaleza social y nuestra historia cultural. Es por eso que la moral y las normas éticas son diferentes en distintas sociedades, incluso grupos e individuos dentro de esas sociedades. ¿Cómo puede una IA incorporar en sus decisiones esta diversidad de marcos morales?
Los actuales estudios acerca del pensamiento real o efectivo de los humanos, llevados adelante por el premio Nobel de economía Daniel Kahneman, entre otros, ponen en evidencia los sesgos y heurísticas (errores comunes) que las personas cometen a diario cuando toman decisiones o reflexionan. Uno de los más estudiados es el llamado sesgo de confirmación: la tendencia que tenemos a reafirmar creencias previas, incluso rechazando información nueva si esta contradice nuestra manera de pensar. A su vez, Hugo Mercier y Dan Sperber en su libro El enigma de la razón sostienen la hipótesis de que nuestra capacidad de razonar surge de nuestra necesidad, como especie, de comunicarnos para cooperar más y mejor, y no tanto de la intención de buscar la verdad. Es así como en debate y conversación con otros podemos corregir sesgos y mejorar nuestra cognición. Llevado al ámbito de la IA las conclusiones son elocuentes: debemos evitar que los algoritmos incorporen nuestros sesgos conscientes e inconscientes y, a su vez, debemos procurar que sus acciones estén en sintonía con valores éticos comunes, que surjan de consensos democráticos respetuosos de la diversidad humana.
Es por eso que una forma de lograr el objetivo de potenciar nuestro vínculo con la IA es el de generar comités o comunidades de debate.
Compuestos de expertos que a su vez sean receptivos de las necesidades y experiencias reales de usuarios y empresas, donde se lleven a cabo debates racionales basados en principios de argumentación y búsqueda de consensos.
Es en cooperación y constante diálogo con los otros que podremos constituirnos como modelos éticos para nuestros replicadores de silicio.