De máquinas e intenciones
Gonzalo Génova, profesor del Departamento de Informática de la Universidad Carlos III de Madrid.
De máquinas e intenciones
Reflexiones sobre la tecnología, la ciencia y la sociedad
Proyecto ELAI: Lecciones éticas de la inteligencia artificial
Sobre el autor
sábado, 10/02/2024
El uso de dilemas éticos está bastante extendido en los cursos de ética y deontología profesional. Un dilema ético es el planteamiento de una situación en la que hay un conflicto de valores entre los resultados posibles que se pueden obtener como consecuencia de que el agente actúe de una manera u otra. Uno de los más famosos es el conocido dilema del tranvía. Se trata de un experimento mental ideado originalmente por Philippa Foot en 1967 [1], en el contexto de su análisis del problema moral del aborto. Posteriormente fue analizado en profundidad, entre otros, por Judith Thomson [2].
Philippa Foot (1920–2010)
Ciertamente, los dilemas pueden servir para estimular la reflexión ética sobre los bienes y valores en juego. No obstante, existe también el peligro de transmitir inadvertidamente la idea de que la ética es un conjunto de técnicas de resolución de dilemas, y este peligro es aún mayor para los estudiantes de ingeniería, que están muy acostumbrados a aprender técnicas para resolver problemas de todo tipo. A esto debemos responder que la ética no consiste principalmente en la resolución de dilemas, como si fueran problemas de geometría.
¿Se pueden resolver los problemas éticos como si fueran problemas de geometría?
Por otra parte, se han vuelto también muy populares los experimentos en los que se analizan las decisiones de las personas ante determinados dilemas éticos, tomando como modelo el mencionado dilema del tranvía. Ciertamente, así podemos conocer tendencias, es decir, en qué proporción los sujetos de una determinada muestra tienden a tomar una decisión u otra (mover o no mover la palanca que desvía el tranvía, y así salvar o condenar a unas u otras víctimas potenciales); podemos conocer una regularidad psicológica, quizás incluso con base biológica; pero de ninguna manera podemos conocer así la norma ética, porque la norma no se conoce empíricamente a partir de la regularidad, de la reacción mayoritaria de la gente. Sería descabellado, por ejemplo, programar el comportamiento de un vehículo autónomo para que se ajuste a la más frecuente de las acciones elegidas por humanos ante dilemas semejantes al del tranvía. El referente ético, por muy difícil que sea de conocer, no se limita a reflejar la «moda», el comportamiento dominante [3].
Sin embargo, esto es lo que se propone, aparentemente, en el ya famoso experimento The Moral Machine del MIT (Massachusetts Institute of Technology), aunque hay interpretaciones diversas acerca de lo que realmente se busca con este experimento. En este proyecto se han analizado los resultados de un número impresionante de encuestados: 40 millones de respuestas de personas de 233 países en diez idiomas diferentes [4]. En un trabajo anterior [5], los mismos autores han demostrado que los sujetos de la encuesta tienden a preferir los algoritmos utilitaristas para los vehículos autónomos (maximización del número de vidas salvadas, incluso a costa de los pasajeros); pero, contradictoriamente, desaprueban la aplicación de regulaciones utilitaristas (ellos mismos preferirían montar en vehículos que protejan a sus pasajeros a toda costa).
La Máquina Moral del MIT: ¿A quién atropello?
Así pues, en mi opinión, sería un error enseñar una ética geométrica (técnica de resolución de problemas) o una ética sociológica (imitación del comportamiento mayoritario). Ahora bien, sí es posible reflexionar y hacer reflexionar sobre la experiencia vital de enfrentarse a un dilema, es decir, reflexionar sobre qué nos dicen los dilemas a cada una y cada uno de nosotros en tanto que experiencia cotidiana y universal. ¿Por qué nos enfrentamos a dilemas éticos?
Comentarios
Publicar un comentario