dilema moral 6

dilema moral 6

Omicrono

¿Qué prioridades morales debería tener un coche autónomo? Decídelo con este test

Con este test podrás saber qué es lo más importante en las decisiones de los coches autónomos. ¿Quién debe morir y vivir?

26 agosto, 2016 12:01

Noticias relacionadas

Con este test podrás opinar sobre las decisiones de los coches autónomos cuando se le presenten situaciones complicadas.

¿Vale una vida más que la otra? Si un tranvía fuese a matar a cinco personas, pero pudieses accionar una palanca para que cambiase de vía y matase sólo a una, ¿lo harías? Es un dilema moral muy popular que incluso se ha convertido en meme en Internet, por que nos obliga a tomar una decisión muy difícil.

No es difícil en el sentido de que no sepamos la solución; para la mayoría de la gente, accionar la palanca y matar sólo a una persona es la decisión lógica, pero eso no le contenta. Lo ideal, al fin y al cabo, es salvar a todo el mundo incluso aunque no sea posible.

Las difíciles decisiones de los coches autónomos

Es importante reflexionar sobre esto, no sólo porque es importante para nosotros como personas humanas, sino también porque los robots pronto tendrán que tomar este tipo de decisiones. Conforme los sistemas automatizados cubren más funciones, y las IA trabajan más para mejorar nuestra vida diaria, es inevitable que se encuentren en situaciones en las que tienen que valorar la vida humana.

dilema moral 4

dilema moral 4

El caso tal vez más evidente es el de los coches autónomos. Se ha hablado mucho sobre si son seguros y si nos podemos montar en uno sin miedo, hasta el punto de que ahora que Uber está probando sus primeros modelos tiene que regalar viajes para fomentar que la gente se monte en ellos.

dilema moral 3

dilema moral 3

Pero esa es sólo una parte de la historia; un coche autónomo no tiene que preocuparse sólo de la seguridad de sus ocupantes, eso es fácil, sino también de la de otros vehículos, ciclistas y peatones que comparten la vía. Y todo eso suponiendo que todo va a salir bien y que no va a aparecer un problema. Por ejemplo, si los frenos no funcionan, ¿qué debería hacer un coche autónomo?

Esta “Máquina Moral” creada por el MIT es una demostración de los dilemas a los que se tendrán que enfrentar estos sistemas. Ha sido desarrollado con el objetivo de obtener una perspectiva más clara de lo que las personas normales consideran una decisión acertada moralmente hablando; en otras palabras, para enseñar moralidad a las máquinas, antes hay que saber qué es lo que la humanidad considera moral.

dilema moral 5

dilema moral 5

Las pruebas son muy sencillas y fáciles de comprender; sólo tenemos que elegir la opción que consideremos “menos mala”, y el sistema llegará a una conclusión de lo que consideramos más importante y lo comparará con los resultados en general.

Crea tus propios escenarios y plantea dilemas a tus amigos

dilema moral 1

dilema moral 1

Además, también podemos crear nuestros propios escenarios, en los que podemos colocar diferentes tipos de personas (desde médicos a criminales) e incluso animales. También podemos decidir si la luz de peatones está en verde o en rojo, y si las personas morirán, sufrirán heridas o no se sabe lo que pasará con ellas.

dilema moral 2

dilema moral 2

¿Quién merece más vivir, una embarazada que cruza en rojo o dos médicos que van en el coche? ¿Un criminal que está huyendo con el semáforo en verde o un perro y un gato que están en el coche? Son decisiones que dicen mucho de nosotros mismos.

La cantidad de escenarios diferentes que puedes crear de esta manera es enorme, y si complicas mucho las cosas seguro que te costará decidir incluso si normalmente eres de las que responde al momento. ¿Qué decisión tomarán los coches autónomos?

Moral Machine del MIT