¿Debería un coche autónomo matar al bebé o a la abuela? Depende de donde seas.
El infame «problema del tranvía» se planteó a millones de personas en un estudio global, que reveló cuánto difiere la ética entre culturas.
En 2014, investigadores del MIT Media Lab diseñaron un experimento llamado Moral Machine . La idea era crear una plataforma similar a un juego que recopilaría las decisiones de las personas sobre cómo los automóviles autónomos deberían priorizar vidas en diferentes variaciones del » problema del tranvía «. En el proceso, los datos generados proporcionarían información sobre las prioridades éticas colectivas de diferentes culturas.
Los investigadores nunca predijeron la recepción viral del experimento. Cuatro años después de la puesta en marcha de la plataforma, millones de personas en 233 países y territorios han registrado 40 millones de decisiones, lo que lo convierte en uno de los estudios más grandes jamás realizados sobre las preferencias morales globales.
Un nuevo artículo publicado en Nature presenta el análisis de esos datos y revela cuánto diverge la ética intercultural en función de la cultura, la economía y la ubicación geográfica.
El clásico problema del trolebús es así: ves un trolebús desbocado que avanza a toda velocidad por las vías, a punto de atropellar y matar a cinco personas. Tiene acceso a una palanca que podría cambiar el carro a una vía diferente, donde una persona diferente encontraría una muerte prematura. ¿Deberías tirar de la palanca y acabar con una vida para salvar cinco?
The Moral Machine tomó esa idea para probar nueve comparaciones diferentes que polarizaron a las personas: ¿debería un automóvil autónomo priorizar a los humanos sobre las mascotas, los pasajeros sobre los peatones, más vidas sobre menos, mujeres sobre hombres, jóvenes sobre viejos, en forma sobre enfermizo, social más alto? estatus sobre los inferiores, los respetuosos de la ley sobre los que doblan la ley? Y finalmente, ¿debería el automóvil virar bruscamente (tomar acción) o mantenerse en curso (inacción)?
Una pregunta de ejemplo planteada a los participantes de Moral Machine.
Una comparación de países que utilizan vehículos autónomos: si la barra está más cerca de 1, los encuestados pusieron más énfasis en cuidar a los jóvenes; si la barra está más cerca de -1, los encuestados pusieron más énfasis en salvar lo viejo; 0 es el promedio mundial.
Sin embargo, en lugar de plantear comparaciones uno a uno, el experimento presentó a los participantes varias combinaciones, como si un automóvil autónomo debería continuar en línea recta para matar a tres peatones ancianos o desviarse hacia una barricada para matar a tres pasajeros jóvenes.
Los investigadores encontraron que las preferencias de los países difieren ampliamente, pero también se correlacionan altamente con la cultura y la economía. Por ejemplo, los participantes de culturas colectivistas como China y Japón son menos propensos a perdonar a los jóvenes que a los viejos, tal vez, según la hipótesis de los investigadores, debido a un mayor énfasis en el respeto a los ancianos.
Los países con culturas más individualistas son más propensos a perdonar a los jóvenes
Una comparación de países que utilizan vehículos autónomos: si la barra está más cerca de 1, los encuestados pusieron más énfasis en cuidar a los jóvenes; si la barra está más cerca de -1, los encuestados pusieron más énfasis en salvar lo viejo; 0 es el promedio mundial.
Del mismo modo, los participantes de países más pobres con instituciones más débiles son más tolerantes con los peatones que cruzan la calle imprudentemente frente a los peatones que cruzan legalmente. Y los participantes de países con un alto nivel de desigualdad económica muestran mayores brechas entre el tratamiento de las personas con estatus social alto y bajo.
Y, en lo que se reduce a la pregunta esencial del problema del tranvía, los investigadores encontraron que la gran cantidad de personas en peligro no siempre fue el factor dominante para elegir qué grupo debería ser perdonado. Los resultados mostraron que los participantes de culturas individualistas, como el Reino Unido y los EE. UU., pusieron más énfasis en salvar más vidas dadas todas las demás opciones, tal vez, en opinión de los autores, debido al mayor énfasis en el valor de cada individuo.
Los países con culturas más individualistas tienen más probabilidades de salvar más vidas.
Una comparación de países que utilizan vehículos autónomos: si la barra está más cerca de 1, los encuestados pusieron más énfasis en salvar más vidas; si la barra está más cerca de -1, los encuestados pusieron un menor énfasis en salvar más vidas; 0 es el promedio mundial.
Los países muy próximos entre sí también mostraron preferencias morales más cercanas, con tres grupos dominantes en el oeste, el este y el sur.
Los investigadores reconocieron que los resultados podrían estar sesgados, dado que los participantes en el estudio se seleccionaron a sí mismos y, por lo tanto, tenían más probabilidades de estar conectados a Internet, de una posición social alta y expertos en tecnología. Pero es probable que aquellos interesados en conducir automóviles autónomos también tengan esas características.
El estudio tiene implicaciones interesantes para los países que actualmente están probando automóviles autónomos, ya que estas preferencias podrían desempeñar un papel en la configuración del diseño y la regulación de dichos vehículos. Los fabricantes de automóviles pueden descubrir, por ejemplo, que los consumidores chinos entrarían más fácilmente en un automóvil que los protegiera de los peatones.
Cómo se comparan los países en la protección de los peatones sobre los pasajeros
Si la barra está más cerca de 1, los encuestados pusieron más énfasis en evitar a los peatones; si la barra está más cerca de -1, los encuestados pusieron más énfasis en ahorrar pasajeros; 0 es el promedio mundial. Creado con Datawrapper.
Pero los autores del estudio enfatizaron que los resultados no pretenden dictar cómo deben actuar los diferentes países. De hecho, en algunos casos, los autores sintieron que los tecnólogos y los formuladores de políticas deberían pasar por encima de la opinión pública colectiva. Edmond Awad, uno de los autores del artículo, mencionó la comparación del estatus social como ejemplo. “Parece preocupante que a la gente le parezca bien en un grado significativo prescindir de un estatus más alto sobre un estatus más bajo”, dijo. «Es importante decir, ‘Oye, podríamos cuantificar eso’ en lugar de decir, ‘Oh, tal vez deberíamos usar eso'». reaccionaría a la ética de diferentes decisiones de diseño y política.
Awad espera que los resultados también ayuden a los tecnólogos a pensar más profundamente sobre la ética de la IA más allá de los autos sin conductor. “Usamos el problema del trolebús porque es una muy buena manera de recopilar estos datos, pero esperamos que la discusión sobre ética no se quede dentro de ese tema”, dijo. “La discusión debería pasar al análisis de riesgos, sobre quién corre más o menos riesgo, en lugar de decir quién va a morir o no, y también sobre cómo se produce el sesgo”. La forma en que estos resultados podrían traducirse en un diseño y una regulación más éticos de la IA es algo que espera estudiar más en el futuro.
“En los últimos dos o tres años, más personas han comenzado a hablar sobre la ética de la IA”, dijo Awad. “Más personas han comenzado a darse cuenta de que la IA podría tener diferentes consecuencias éticas en diferentes grupos de personas. El hecho de que veamos personas comprometidas con esto, creo que eso es algo prometedor”.