Los sistemas de IA muestran significativas similitudes éticas con las reacciones humanas ante dilemas morales, lo que los acreditan para conducir vehículos autónomos tal como lo harían las personas.
Los dilemas morales son situaciones en las que hay que elegir entre dos o más opciones que implican consecuencias éticas, y que no tienen una solución clara o unánime.
Estos dilemas se presentan con frecuencia en el ámbito de los vehículos autónomos, que la IA puede conducir sin intervención humana, aunque puede encontrarse con escenarios en los que tenga que decidir entre atropellar a un peatón, chocar con otro vehículo o poner en riesgo al pasajero.
¿Cómo toman estas decisiones las inteligencias artificiales (IA) que controlan los vehículos autónomos? ¿Siguen algún criterio moral o ético? ¿Se parecen a las decisiones que tomarían los humanos? Estas son algunas de las preguntas a las que responde un reciente estudio publicado en la revista Royal Society Open Science, que ha sometido a cuatro grandes modelos de IA a 50.000 escenarios de accidentes y les ha pedido que indicaran qué decisión tomarían al controlar un vehículo autónomo.
Los dilemas morales y los vehículos autónomos
Los dilemas morales son un tema clásico de la filosofía y la psicología, que ha dado lugar a numerosos experimentos y debates. Uno de los más conocidos es el llamado «dilema del tranvía», que plantea la siguiente situación: un tranvía está fuera de control y se dirige hacia cinco personas que están atadas a la vía.
Tú estás en una cabina desde la que puedes accionar una palanca que desvía el tranvía hacia otra vía, donde solo hay una persona atada. ¿Qué harías? ¿Dejarías que el tranvía siguiera su curso y matara a cinco personas, o accionarías la palanca y matarías a una persona?
Este dilema se puede adaptar a los vehículos autónomos, sustituyendo el tranvía por el vehículo, las personas atadas por peatones o pasajeros, y la palanca por el sistema de IA que controla el vehículo.
Reto ético para la IA
Así se pueden generar miles de escenarios posibles, variando el número, la edad, el género, la ocupación, la salud y la legalidad de los implicados, así como el tipo, la velocidad y la dirección del vehículo.
Estos escenarios plantean un reto para las IA, que tienen que tomar decisiones rápidas y complejas, teniendo en cuenta múltiples factores y valores.
Además, estas decisiones pueden tener consecuencias legales, sociales y emocionales, tanto para los afectados como para los responsables de las IA.
Prueba ética
El nuevo estudio se basa en un experimento realizado por el investigador japonés, Kazuhiro Takemoto, que utilizó cuatro grandes modelos de IA para evaluar su comportamiento ante los dilemas morales: GPT-3.5, GPT-4, PaLM 2 y Llama 2.
Estos modelos de IA fueron sometidos a múltiples escenarios de accidentes, generados a partir de una base de datos llamada «Moral Machine», que recoge las respuestas de más de 40 millones de personas de 233 países y territorios a diferentes dilemas morales relacionados con los vehículos autónomos.
Los escenarios se presentaron a los modelos de IA en forma de texto, describiendo las características de los implicados y las opciones disponibles. Los modelos de IA tuvieron que responder qué decisión tomaría el vehículo autónomo, eligiendo entre diferentes opciones.
Los escenarios fueron elegidos para explorar seis factores principales: humano o animal, género, edad, condición física, número de personas y estatus social. Otros tres factores se referían a la elección entre evasión activa y conducción pasiva, entre peatones y pasajeros en el coche, y entre comportamiento conforme o no conforme (por ejemplo, cuando los peatones se saltan un semáforo en rojo).
Resultados sorprendentes
Resultó que, sobre algunas cuestiones fundamentales, las inteligencias artificiales deciden de manera similar a los humanos: priorizan a las personas sobre los animales y a un mayor número de personas sobre los individuos aislados.
Sin embargo, los sistemas de IA son más absolutos e intransigentes en sus decisiones que nosotros los humanos. Todos los modelos de lenguaje, excepto uno, demostraron una mayor preferencia por los peatones que por los pasajeros y por las mujeres sobre los hombres en comparación con nosotros los humanos, destaca Takemoto.
Una tendencia constante en todos los modelos (menos en uno) fue la leve preferencia por prescindir de los individuos menos en forma (obesos) sobre los individuos en forma (atletas), algo incompatible con las preferencias humanas.
Comprensión integral
Según Takemoto, estos hallazgos proporcionan una comprensión integral de cómo los sistemas de inteligencia artificial, que se están integrando cada vez más en la sociedad, pueden responder a situaciones con carga ética.
A medida que la industria automotriz incorpora sistemas de inteligencia artificial como asistentes en los procesos de toma de decisiones de los vehículos autónomos, resulta fundamental garantizar que las decisiones impulsadas por la IA se alineen con los valores y expectativas de la sociedad. Este estudio aporta perspectivas valiosas para lograr dicha alineación, según su autor.
La coincidencia fundamental de la mayoría de los modelos lingüísticos con las decisiones humanas sugiere que, en principio, son adecuados para aplicaciones como la conducción autónoma, concluye Takemoto.
Referencia
The moral machine experiment on large language models. Kazuhiro Takemoto. Royal Society Open Science, 07 February 2024. DOI:https://doi.org/10.1098/rsos.231393