Mientras la inteligencia artificial continúa su rápido avance, hay cada vez más preocupaciones sobre la forma en que ciertas máquinas, como los automóviles autónomos, tomarán decisiones de carácter moral, particularmente aquellas en las que esté en riesgo la vida de un ser humano.
Para arrojar luz sobre este tema, investigadores del MIT llevaron a cabo una amplia encuesta mundial con la esperanza de averiguar lo que las personas piensan sobre la manera en que los vehículos autónomos deberían comportarse en tales situaciones.
Esta encuesta en línea, en la que participaron más de 2 millones de personas de 233 países y territorios, se centró en un experimento clásico del pensamiento ético conocido como “El dilema del tranvía”, una situación donde es imposible evitar un accidente en el que participa un vehículo autónomo, y la máquina debe decidir entre dos opciones potencialmente fatales.
Por ejemplo, un automóvil sin conductor podría enfrentar la decisión de virar bruscamente para atropellar a uno o dos peatones imprudentes, o a un grupo grande de transeúntes.
“El estudio intenta, básicamente, comprender el tipo de decisiones morales a las que los automóviles autónomos podrían tener que recurrir”, señaló en una declaración Edmond Awad, autor principal del estudio del Laboratorio de Medios del MIT. “Aún no sabemos cómo deberían hacerlo”.
En su experimento, los investigadores crearon un juego en línea multilenguaje, llamado “Máquina moral”, en el que los participantes debían manifestar cuál era el resultado que preferían en una serie de dilemas que podrían enfrentar los vehículos autónomos.
En total, la Máquina moral recolectó casi 40 millones de decisiones individuales, las cuales fueron analizadas por los investigadores en conjunto o en grupos definidos según la edad, la educación, el género, el nivel de ingresos y los puntos de vista políticos o religiosos de los participantes.
En los resultados de la encuesta, que fueron publicados en la revista Nature, se descubrieron tres elementos en los que las personas de todo el mundo parecen estar más de acuerdo. En primer lugar, las vidas humanas deben salvarse por encima de las de los animales, es preferible salvar a muchas personas que a unas cuantas, y se debe proteger más a los jóvenes que a los ancianos.
“Las principales preferencias fueron compartidas universalmente en cierta medida”, señaló Awad. “Sin embargo, el grado en el que las personas están de acuerdo con ellas o no varía entre distintos grupos o países”.
Estas diferencias regionales se manifestaron en distintas formas. Por ejemplo, en un grupo de países “orientales”, que comprendía a varios países asiáticos, los investigadores encontraron una tendencia menos pronunciada a favorecer a los jóvenes por encima de los ancianos, en comparación con los grupos de países del sur.
Los investigadores afirman que el hecho de reconocer las preferencias morales de las personas podría aportar información a la manera en que se diseña el software que controla a los vehículos autónomos. Además, teniendo en cuenta la gran cantidad de interés público en el estudio, los investigadores recomiendan que quienes encabezan las innovaciones tecnológicas busquen los puntos de vista de las personas ordinarias en los casos en que la seguridad pública podría verse afectada.
“Lo que he tratado de hacer en este proyecto, y lo que esperaría que se vuelva más común, es hacer que el público participe en la toma de este tipo de decisiones”, dijo Awad.
Toby Walsh, catedrático de inteligencia artificial de la Universidad de New South Wales en Australia, y que no participó en la investigación, afirma que los resultados del estudio son “interesantes” y “provocativos”, pero advierte que, aunque los resultados revelan mucho sobre las expectativas de las personas sobre la forma en que los sistemas autónomos deberían funcionar, dichas expectativas no deberían guiar necesariamente su comportamiento.
“Los valores que damos a las máquinas no deberían ser algún promedio impreciso de un país o países en particular”, dijo en una declaración. “De hecho, deberíamos someter a las máquinas a estándares más altos que los humanos por distintas razones: porque podemos, porque es la única forma en que los humanos confiarían en ellas, porque no tienen ninguna de nuestras debilidades humanas, y porque percibirán el mundo de manera más precisa y responderán más rápidamente de lo que podemos hacerlo los seres humanos”.
El estudio plantea importantes preguntas sobre a quiénes debemos proteger en las situaciones de vida o muerte en las que participan vehículos autónomos, de acuerdo con Iain MacGill, otro investigador, también de la Universidad de New South Wales, y que tampoco participó en el estudio.
“Sin embargo, aún con un consenso social suficiente sobre lo que nos gustaría que esos vehículos hicieran en el caso de respuestas inevitables, todavía enfrentamos el desafío de codificar esa ‘ética’ en los vehículos autónomos”, dijo. “Y luego, persuadir a las personas de que adquieran vehículos que darán a la seguridad de otros usuarios de los caminos una prioridad igual o incluso mayor que la que les dan a ellos mismos”.
“No ayuda el hecho de que las empresas compitan entre sí para llevar esos vehículos al mercado con lo que parece ser una consideración insuficiente de los riesgos sociales que se relacionan invariablemente con el despliegue de una nueva tecnología”, dijo MacGill. “¿Y podemos confiar en que las compañías que impulsan esto, algunas de ellas con importantes cuestionamientos sobre su propia ética en la que ‘el ganador se lo lleva todo’, programen apropiadamente en sus productos una ética acordada socialmente?”
Colin Gavaghan, catedrático de la Universidad de Otago Nueva Zelanda, dijo que este tipo de Enigmas del tranvía son filosóficamente fascinantes, pero hasta ahora, pocas veces han tenido en cuenta la ley.
“La ley tiende a ser bastante indulgente con las personas que reaccionan instintivamente a emergencias repentinas. Sin embargo, la posibilidad de programar temas éticos en un automóvil autónomo lleva este asunto a otro nivel”, dijo. “Siendo así las cosas, ¿qué ética deberíamos programar? ¿Y en qué medida debería ser dictada por puntos de vista de la mayoría? Algunas de las preferencias expresadas en esta investigación serían difíciles de encajar en nuestros enfoques de la discriminación y la igualdad: por ejemplo, el hecho de favorecer la vida de ciertas personas con base en su género o en su nivel de ingresos realmente quedaría fuera de toda consideración.
“Una de las preferencias que podrían ser más fáciles de comprender y de aceptar es que el automóvil salve tantas vidas como sea posible”, continuó. “En ocasiones, ello podría significar estrellarse contra un camión lleno de troncos que virar violentamente hacia un grupo de ciclistas. La mayoría de nosotros reconocería que esto último es ‘lo correcto’, pero ¿compraríamos un automóvil que sacrifique nuestra propia vida, o la de nuestros seres queridos, por el bien de la mayoría?”.
—
Publicado en cooperación con Newsweek / Published in cooperation with Newsweek