¿Cómo manejaría un automóvil autónomo el problema del tranvía?

¿Cómo manejaría un automóvil autónomo el problema del tranvía?

Un coche autónomo de Google

Foto: justin sullivan (imágenes falsas)

¿Qué harías si vieras que un auto sin conductor atropella a una persona?

En Ética de los robotsMark Coeckelbergh, profesor de Filosofía de los Medios y la Tecnología en la Universidad de Viena, plantea un problema con los tranvías para 2022: ¿Debe el automóvil continuar su curso y matar a cinco peatones, o desviarse y matar a uno?

En el capítulo presentado aquí, Coeckelbergh examina cómo los humanos han conceptualizado a los robots como un marco más amplio y sondea cómo los autos autónomos manejarían situaciones de tráfico letales, y si esa es una pregunta que vale la pena.

En la película de ciencia ficción estadounidense de 2004 Yo robot, los robots humanoides sirven a la humanidad. Sin embargo, no todo va bien. Después de un accidente, un robot rescata a un hombre del automóvil que se hunde, pero una niña de doce años no se salva. El robot calculó que el hombre tenía más posibilidades de sobrevivir; los humanos pueden haber tomado otra decisión. Más adelante en la película, los robots intentan arrebatarle el poder a los humanos. Los robots están controlados por una inteligencia artificial (IA), VIKI, que decidió que restringir el comportamiento humano y matar a algunos humanos asegurará la supervivencia de la humanidad. La película ilustra el temor de que los robots humanoides y la IA se apoderen del mundo. También apunta a dilemas éticos hipotéticos en caso de que los robots y la IA alcancen la inteligencia general. Pero, ¿es esto de lo que se trata y debería tratarse la ética de los robots?

¿Vienen los robots? o ya están aquí?

Por lo general, cuando las personas piensan en robots, la primera imagen que les viene a la mente es un robot muy inteligente, parecido a un humano. A menudo, esa imagen se deriva de la ciencia ficción, donde encontramos robots que se ven y se comportan más o menos como humanos. Muchas narraciones advierten sobre los robots. que toman el control; el temor es que ya no sean nuestros sirvientes sino que nos conviertan en sus esclavos. El mismo término “robot” significa “trabajo forzado” en checo y aparece en la obra de teatro de Karel Čapek. RUR

, representada en Praga en 1921, hace poco más de cien años. La obra se encuentra en una larga historia de historias sobre máquinas rebeldes parecidas a humanos, desde Mary Shelley’s frankenstein a películas como 2001: una odisea del espacioterminador, Cazarecompensasy Yo robot. En la imaginación del público, los robots son frecuentemente objeto de miedo y fascinación al mismo tiempo. Tenemos miedo de que tomen el relevo, pero al mismo tiempo es emocionante pensar en crear un ser artificial que sea como nosotros. Parte de nuestra herencia romántica, los robots son proyecciones de nuestros sueños y pesadillas sobre la creación de un otro artificial.

Primero, estos robots son principalmente aterradores; son monstruos y extraños. Pero a principios del siglo XXI surge en Occidente una imagen diferente de los robots: el robot como compañero, amigo y quizás incluso socio. La idea ahora es que los robots no deben estar confinados a fábricas industriales o planetas remotos en el espacio. En la imaginación contemporánea, se liberan de su sucio trabajo de esclavos y entran en el hogar como compañeros sociales agradables, serviciales y, a veces, sexys con los que puedes hablar. En algunas películas, todavía se rebelan en última instancia: piense en ex machina, por ejemplo, pero generalmente se convierten en lo que los diseñadores de robots llaman “robots sociales”. Están diseñados para Interacción “natural” entre humanos y robots, es decir, interacción en la forma en que estamos acostumbrados a interactuar con otros humanos o mascotas. Están diseñados para que no den miedo ni sean monstruosos, sino lindos, útiles, entretenidos, divertidos y seductores.

Esto nos lleva a la vida real. Los robots no vienen; ya están aquí. Pero no son como los robots que conocemos en la ciencia ficción. No son como el monstruo de Frankenstein o Terminator. Son robots industriales y, en ocasiones, “robots sociales”. Sin embargo, estos últimos no son tan inteligentes como los humanos o sus parientes de ciencia ficción y, a menudo, no tienen forma humana. Incluso los robots sexuales no son tan inteligentes o capaces de conversar como el robot representado en ex machina

. A pesar de los desarrollos recientes en IA, la mayoría de los robots no se parecen a los humanos en ningún sentido. Dicho esto, los robots están aquí y están aquí para quedarse. Son más inteligentes y más capaces de funcionar de forma autónoma que antes. Y hay más aplicaciones del mundo real. Los robots no solo se utilizan en la industria, sino también en el cuidado de la salud, el transporte y la asistencia en el hogar.

A menudo, esto facilita la vida de los humanos. Sin embargo, también hay problemas. Algunos robots pueden ser realmente peligrosos, no porque intenten matarte o seducirte (algo más).aunque los “drones asesinos” y los robots sexuales también están en el menú de la ética de los robots), pero generalmente por razones más mundanas, como porque pueden quitarle el trabajo, pueden engañarlo para que piense que son una persona y pueden causar accidentes cuando usted usarlos como un taxi. Esos miedos no son ciencia ficción; se refieren al futuro próximo. De manera más general, desde el impacto de las tecnologías nucleares, digitales y de otro tipo en nuestras vidas y el planeta, existe una conciencia y un reconocimiento cada vez mayores de que las tecnologías están provocando cambios fundamentales en nuestras vidas, sociedades y medio ambiente, y por lo tanto es mejor que pensemos más y más críticamente, sobre su uso y desarrollo. Hay un sentido de urgencia: comprendamos y evalúemos mejor las tecnologías ahora, antes de que sea demasiado tarde, es decir, antes de que tengan impactos que nadie quiere. Este argumento también se puede hacer para el desarrollo y uso de la robótica: consideremos las cuestiones éticas planteadas por los robots y su uso en la etapa de desarrollo y no después del hecho.

Autos sin conductor, agencia moral y responsabilidad

Imagine un automóvil autónomo que circula a gran velocidad por un carril angosto. Los niños están jugando en la calle. El automóvil tiene dos opciones: o evita a los niños y choca contra una pared, probablemente matando al único pasajero humano, o continúa su camino y frena, pero probablemente demasiado tarde para salvar la vida de los niños. ¿Qué debe hacer el coche? ¿Qué harán los autos? ¿Cómo se debe programar el coche?

Este experimento mental es un ejemplo del llamado dilema del tranvía. Un tranvía de pista está a punto de arrollar a cinco personas atadas a una vía. Está parado junto a la vía y puede tirar de una palanca que redirige el carro a otra vía, donde una persona está atada. ¿Tiras de la palanca? Si no haces nada, cinco personas morirán. Si tiras de la palanca, una persona morirá. Este tipo de dilema se utiliza a menudo para hacer que la gente piense en lo que se percibe como los dilemas morales que plantean los coches autónomos. La idea es que esos datos puedan ayudar a las máquinas a decidir.

Por ejemplo, la plataforma en línea Moral Machine ha recopilado millones de decisiones de usuarios de todo el mundo sobre sus preferencias morales en los casos en que un conductor debe elegir “el menor de dos males”. Se preguntó a las personas si un automóvil autónomo debería priorizar a los humanos sobre las mascotas, a los pasajeros sobre los peatones, a las mujeres sobre los hombres, etc. Curiosamente, existen diferencias interculturales con respecto a las elecciones realizadas. Algunas culturas, como Japón y China, por ejemplo, tenían menos probabilidades de perdonar a los jóvenes que a los viejos, mientras que otras culturas, como el Reino Unido y los Estados Unidos, tenían más probabilidades de perdonar a los jóvenes. Por lo tanto, este experimento no solo ofrece una forma de abordar la ética de las máquinas, sino que también plantea la cuestión más general de cómo tener en cuenta las diferencias culturales en robótica y automatización.

Fig. 3

Fig. 3
Imagen: Prensa del MIT/Mark Coeckelbergh

La figura 3 muestra un ejemplo de una situación de dilema del trolebús: ¿Debería el automóvil continuar su curso y matar a cinco peatones, o desviarse de su curso y matar a uno? Aplicar el dilema del trolebús al caso de los automóviles autónomos puede no ser la mejor forma de pensar. sobre la ética de los coches autónomos; Afortunadamente, rara vez nos encontramos con este tipo de situaciones en el tráfico, o los desafíos pueden ser más complicados.plicado y no involucra opciones binarias, y esta definición de problema refleja un enfoque normativo específico de la ética (consecuencialismo, y en particular utilitarismo). Existe una discusión en la literatura sobre hasta qué punto los dilemas del trolebús representan los desafíos éticos reales. Sin embargo, los dilemas del trolebús se utilizan a menudo como una ilustración de la idea de que cuando los robots se vuelvan más autónomos, tenemos que pensar en la cuestión de si darles o no algún tipo de moralidad (si es que eso se puede evitar), y si Entonces, qué clase de moralidad. Además, los robots autónomos plantean interrogantes sobreresponsabilidad moral. Considere el auto-conducir coche de nuevo.

En marzo de 2018, un auto autónomo de Uber mató a un peatón en Tempe, Arizona. Había un operador en el coche, pero en el momento del accidente el coche estaba en autónomo modo. El peatón caminaba fuera del cruce de peatones. El SUV Volvo no disminuyó la velocidad cuando se acercó al mujer. Este no es el único accidente fatal reportado. En 2016, por ejemplo, un automóvil Tesla Model S en modo de piloto automático no pudo detectar un camión grande y un remolque cruzando la carretera, y golpeó el remolque, matando al conductor de Tesla. Para muchos observadores, tales accidentes muestran no solo las limitaciones del desarrollo tecnológico actual (actualmente no parece como si los autos estuvieran listos para participar en el tráfico) y la necesidad para regulación; plantean desafíos con respecto a la attributación de la responsabilidad. Considere el caso de Uber. Quién es responsable del accidente? El coche no puede tomar responsibilidad Pero las partes humanas involucradas pueden potencialmente ser responsable: la empresa Uber, que emplea un carro sombrero aún no está listo para el camino; el fabricante de automóviles Volvo, que no logró desarrollar un automóvil seguro; el operador en el coche que no reaccionó a tiempo para detener el vehículo; el peatón que no caminaba dentro del cruce de peatones; y los reguladores (por ejemplo, el estado de Arizona) que permitieron esto coche para ser probado en la carretera. ¿Cómo vamos a atribuir y repartir la responsabilidad dado que el coche conducía de manera autónoma y tantas partes involucradas? Cómo ¿Debemos atribuir responsabilidad en todo tipo de autonomía?¿Cuáles son los casos de robots más conocidos y cómo vamos a abordar este problema como profesión (p. ej., ingenieros), empresa y sociedad, preferiblemente de manera proactiva antes de que ocurran accidentes?

Algunas Preguntas CSobre los Robots Autónomos

Como ilustra el accidente de Uber, los coches autónomos no son enteramente ciencia fición elEstán siendo probados en el camino, y los fabricantes de automóviles los están desarrollando. Por ejemplo,Tesla, BMW y Mercedes ya prueban vehículos autónomoscles. Muchos de estos coches aún no son totalmente autónomos, pero las cosas se están moviendo en esa dirección. Y los coches no son los solo robots autónomos e inteligentes alrededor. Considerar de nuevo robots autónomos en domicilios y hospitales.

Y si hacen daño a la gente? ¿Cómo puede esto ser evitado? y debería protegen activamente a los humanos del daño? ¿Qué pasa si ellos tiene que tomar decisiones éticas? ¿Tienen la capacidad para hacer tales elecciones? Además, algunos robots son develOped para matar (ver capítulo 7 sobre robots militares). Si eligen su objetivo de forma autónoma, ¿podrían hacerlo en una forma ética (asumiendo, por el bien del argumento, que permitimos que tales robots maten)? ¿Qué tipo de ética deben usar? ¿Pueden los robots tener una ética? Con En cuanto a los robots autónomos en general, la pregunta es si necesitan algún tipo de moralidad, y si esto es posible (si podemos y debemos tener “máquinas morales”). pueden tener agencia moral? ¿Qué es la agencia moral? ¿Y pueden ser los robots ¿responsable? Quién o qué es y debe ser responsable si ¿Algo va mal?

Adaptado de Ética de los robots por Mark Coeckelbergh. Copyright 2022. Usado con permiso de The MIT Press.

Ética de los robots

Imagen: Prensa del MIT/Mark Coeckelbergh

Leave a Reply

Your email address will not be published. Required fields are marked *