Por Nacho Palou — 4 de Enero de 2016

La charla TED del profesor Patrick Lin, The ethical dilemma of self-driving cars (con subtítulos en castellano), plantea algunas consideraciones éticas relacionadas con la conducción autónoma y el comportamiento que seguirán los vehículos programados en caso de accidente,

Si condujéramos el automóvil en modo manual, de cualquier forma que quisiéramos reaccionar [en caso de un choque inminente, con posible escapatoria hacia derecha o izquierda] se entendería sólo como eso, una reacción y no una decisión deliberada. Sería un movimiento de pánico instintivo sin premeditación o malicia.

Pero si un programador tuviera que asignar al auto hacer un movimiento, dadas las condiciones que pueden presentarse en el futuro, bueno, eso se parece más a homicidio premeditado (porque) los accidentes pueden suceder y sucederán, y cuando sucedan, los resultados pueden determinarse con meses o años de antelación por programadores.

El vídeo plantea casos parecidos a los que ya han pasado alguna vez por aquí, incluyendo el experimento mental del dilema del tranvía y además un caso muy concreto sobre lo difícil que sería establecer o predeterminar un comportamiento programado en caso de accidente,

Con la misma configuración inicial [un choque inminente, con posible escapatoria hacia derecha o izquierda] pero a la izquierda hay un motociclista con casco y a la derecha un motociclista sin casco. ¿Con quién debería chocar el automóvil robótico? Si dices con el motociclista con casco por tener más posibilidades de sobrevivir, entonces, ¿no penalizas al motociclista responsable? Si, en cambio, decides ir contra al motociclista sin casco argumentando que él actúa de manera irresponsable, entonces has ido mucho más allá del principio de diseño inicial de minimizar los daños y el automóvil robótico está ahora impartiendo justicia callejera.

Probablemente alguien tendría que controlar cómo se programa eso, que es por lo que tal vez el software de los coches debería ser código abierto.

Sería relativamente fácil, técnicamente, que un fabricante configurase sus coches para que se ocupasen de salvar la vida de sus ocupantes por encima de la vida de cualquier otra persona o personas. De ese modo el fabricante se ganaría al público, que se sentiría más seguro circulando en sus coches que en otros coches que estuvieran programados para matarte si fuera «necesario».

Este tipo de cuestiones —entre otras— llevan a algunos expertos a considerar la posibilidad de de que los coches autónomos nunca lleguen a ser plenamente autónomos —donde nunca se refiere más bien a nosotros, a las generaciones que han conocido la conducción manual y por tanto este dilema.

El planteamiento se ha visto recientemente apoyado por la primera regulación a los coches autónomos aprobada hace pocas semanas en California. La ley de aquel estado determina, precisamente, que los coches autónomos no pueden ser autónomos «del todo» y que el vehículo autónomo debe disponer de volante y de pedal de freno para que sea legal... y además llevar a un conductor con permiso de conducir en el puesto del «no conductor».

Relacionado,

Compartir en Flipboard  Compartir en Facebook  Tuitear