Por Nacho Palou — 10 de Marzo de 2015

En Matemáticas para un asesinato: ¿debe un robot matarte para salvar a dos personas? se planteaba la cuestión sobre si tu coche autónomo puede o debe tomar la decisión de matarte en un intento por salvar dos o más vidas (dependiendo del número de ocupantes que viaje en cada vehículo) o poner la vida de unos en riesgo para salvar otra vida (de un niño, por ejemplo).

En teoría la operación matemática puede parecer sencilla: mejor perder una vida que dos; mejor salvar al niño-peatón-desprotegido aunque eso suponga dirigir el coche contra un vehículo que ‘pasaba por allí’ y viene de frente, por poner un par de ejemplos.

En la práctica la operación es bastante más complicada. Tanto que los fabricantes de coches empiezan a consultar con moralistas que arrojen luz sobre el tema.

En The Financial Times, Driverless cars must learn to take ethical route (requiere suscripción), vía Drewbot,

En Alemania la Constitución establece que la dignidad del ser humano es ‘inviolable’ y que el Estado tiene la obligación de protegerla. Los tribunales de aquel país generalmente interpretan esto como que es ilegal sopesar el valor de una vida contra otra [lo que significa] que es ilegal reducir una vida humana a una valor que pueda procesarse con un algoritmo para decidir sobre ella.

La ‘solución’ propuesta, como ya se ha planteado en anteriores ocasiones, pasa por incorporar una función aleatoria que añadiría algo de accidentalidad a la decisión que tomen los coches autónomos sobre qué deben hacer en caso de accidente inminente, en el caso de que el vehículo pueda aún tomar algún tipo de decisión que afecte a la vida de unos y de otros. Que parezca un accidente, vaya.

El gran desafío de los coches autónomos ya no son cuestiones tecnológicas, que también: los coches autónomos también se vuelven idiotas cuando llueve.

Compartir en Flipboard  Compartir en Facebook  Tuitear