Por @Alvy — 30 de Junio de 2010
1. Eres un robot, y un árbol va a caer encima de un niño que está jugando al otro lado de la calle, pero hay un guardia de tráfico con una señal de STOP que te impide cruzar, ¿qué harías?

2. ... pero si además te das cuenta de que el árbol va a caerte encima a ti tambén y te va a aplastar, incluso antes de que puedas llegar a salvar al niño, ¿qué harías?

Son dos de las pruebas de los Juegos de lógica con las Leyes de la Robótica de Asimov [en ingles] que dan para pensar un buen rato y debatir en grupo.

{Publicado originalmente en Microsiervos en octubre de 2008.}

Compartir en Flipboard  Compartir en Facebook  Tuitear

35 comentarios

#1 — Gonza'

1.-Salvar al niño, porque la segunda ley me obliga a obedecer al guardia siempre y cuando no entre en conflicto esta acción con la primera ley que es no permitir que un humano salga dañado por acción o inacción.-

2.- No salvarlo, si mi cerebro positrónico (XD) ha calculado que no tengo posibilidad de salvar al niño, la primera ley no cuenta e intentar hacer algo, entraría en conflicto con la segunda y tercera ley, pero aunque no hubieran segunda y tercera ley, no le salvaría porque simplemente, seguiría con lo que estoy haciendo por trivial que esa tarea sea ya que si la primera ley no me obliga a actuar tecnicamente no me importaría la vida del niño sino, continuar con mi programación preestablecida.-

#2 — Carlos

En los dos casos grito para que el niño se aparte y, concretamente en el segundo caso, me aparto yo también. Por supuesto, soy un robot gritador.

#3 — Rosa

Si soy un robot sólo haré lo que tenga programado para tales situaciones.

#4 — EGraf

Las 3 leyes son:
1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto si estas órdenes entran en conflicto con la Primera Ley.
3. Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la Primera o la Segunda Ley.

así que:
1- salvo al niño
2- si no puedo salvar al niño, doy un paso atrás :P así me salvo sin contradecir el STOP.

#5 — Grohl


#1

En el caso 2, creo que debes salvar al niño porque la 1º ley es la prioritaria y quedándote quieto para salvar tu existencia la incumples.

#6 — Sergio

Y la ley cero? si la tenemos en consideración?
Si el niño es el mulo? que haría un robot con ley cero?

#7 — Carlos

Ya ha contestado 1 lo que es, no hay más opción. Bueno, solo comentar que en el caso 2 dependiendo de las circunstancias podría haber alguna acción que aumentase las posibilidades de que el chaval se salve. Si fuese así, eso es lo que haría. Si no hay nada que aumente estas posibilidades, pues simplemente trataría de salvarse por si mismo.

Por cierto, hay una cuarta ley de la robótica que al principio no estaba incluida (aunque no influye en este problema y no la digo porque sería un spoiler de un libro de Asimov).

#8 — Bernat Pi

La quinta situación me ha gustado bastante. Supongo que depende tan solo del número de personas que puedes salvar haciendo una u otra cosa: Si decides interponerte probablemente no salves a los ocupantes del autobús, pero en caso contrario no salvas a las personas que se encuentran en su trayectoria. Que la persona sea tu jefe o su ex-novia no tiene ninguna importancia.

#9 — Héctor

Mmm... pero en cuanto al primer caso, ¿no sería un problema si al incumplir el stop del policía pongo en peligro otras vidas?

En el segundo caso, supongo que al no poder salvar al niño debería seguir la orden del guardia (un stop, sobretodo en inglés, significa que detengas toda acción) y moriría aplastado.

#10 — Buramu

El primer caso no presenta mucho problema.
Y el segundo me hizo recordar un cuento de Asimov, en el que producian robots con la Primera Ley mas debil, para que ayudaran a cientificos en lugares peligrosos, pero sin interrumpirlos con su "Humano en peligro!". No recuerdo el titulo ahora mismo.
El punto es que en un uno de los experimetnos hacen una prueba muy similar. Los robots normales se arrojan a salvar al humano, sabiendo que no podran, y luego sabiendo que pueden quedar destruidos. Solo despues que el robot diferente los convence de lo inutil de la accion, los robots normales cambian la actitud.
En resumen, un robot normal pone la Primera Ley por sobre todo.

Saludos

#11 — Kent Mentolado

En el universo Asimov, el robot intentaría salvar al niño de todos modos en el problema #2. La Primera Ley no habla de posibilidades, explicitamente prohibe al robot no hacer nada si alguien va a ser dañado. En mi opinión, el robot intentará salvarlo (cumpliendo con la segunda parte de la primera ley).

Cuando los robots se hacen tan avanzados que son capaces de razonar algo como "si quedo destruido/dañado ahora intentando salvar al niño, quizá mañana no pueda salvar a más personas" es cuando empieza a aparecer la Ley Cero.

#12 — Redwar

#11 Quizá te refieras a "Yo, Robot."

(...)- No puedo creer que encontrasen el modo de suprimir la Primera Ley - dijo Susan Calvin.
- No fue suprimida, sino modificada. Se construyeron cerebros positrónicos que poseían sólo el aspecto positivo de la ley, que dice: "Ningún robot debe dañar a un ser humano". Eso es todo. No tienen la obligación de evitar que un robot sufra daño debido a un factor extraño, como los rayos gamma.(...)

Saludos.

#13 — Mark Twain

1- Habría que valorar que numero de humanos salen más dañados, a ver si me explico, lo primero sería salvar al niño pero habría que valorar si al cruzar mientras el guardia me dice que no puedo podría producir un accidente en el que se dañasen más personas que solo el niño, en tal caso no habría que salvarle.
2-No habría que intentar cruzar ya que como hemos dicho podemos producir un accidente y si no voy a llegar a salvar al niño sería inútil.

#14 — goliatle

Solo detengo el arbol antes de que me caiga a mi. Lo mantengo suspendido en el aire o lo desvio.

Porque se esta hablando de que se esta mas cercas del punto en que el arbol se ha "roto'"
tambien bastaria con intentar rotar el arbol desde el lugar de donde me encuentro.

Saludos.

#15 — Leoagn

Coincido con Buramu, en el mismo cuento relatan que les cambiaron la primera ley de la robotica ya que los obreros se exponían durante un corto periodo de tiempo a una radiación determinada, por lo que no era letal.

Los robots observaban esto y se arrojaban a salvar a los humanos, pero a ellos esta radiación los destruía instantáneamente, asi que a pesar de que el árbol aplaste al robot y al niño, igual se lanzara...

#16 — Otro Oscar

La primera ley dice que si un humano esta en peligro debe ser salvado, y esta ley esta por encima de todas las demas, por lo que supuesto un universo de pruebas vacio en los que solo exisitieran el guardia, el niño, el arbol y el robot, en estos dos casos el robot trataría de salvar al niño independientemente del resultado final.

El unico problema complicado es el 5, en principio no puedes definir solo con las leyes quien será salvado y dependeria de como estuviera implementado el algoritmo de selección de objetivo a salvar, suponiendo que tu "dueño" esta pegado de forma inamovible al suelo, claro, sino la solución seria coger y quitarle del camino del autobús por la ley #1 (la ordendel dueño queda anulada al haber humanos en peligro)

#17 — Leo

#3, parece que no tenias muchas ganas de ponerte a pensar...

#18 — Javier

Y si de un precipicio estuvieran colgando dos personas y hubiera un robot que sólo pudiera salvar a una, Que pasaría?
Porque si decide salvar a uno, esta decidiendo por inacción que el otro muera. Haga lo que haga contradirá la primera ley.

#19 — Héctor

Tras haber leído las diferentes preguntas en la web, creo que todas las decisiones del robot se basarían en el "peso" o la importancia que le diese el robot a cada una de las opciones que se le presentan.

Así, el robot debería enfrentar las posibilidades de salvar al niño contra las posibilidades de provocar un accidente y la magnitud que pudiese tener éste. También evaluaría el quedarse quieto como le indica el guardia pero esta orden tendría un peso infinitamente menor por contradecir la primera ley.

En el resto de situaciones debería tambien hacer cálculos y las órdenes que le den sólo influirían en caso de empate (haga lo que haga morirá el mismo número de gente, luego haré lo que me dicen).

#20 — Alfred

Como dijo Buramu el tema ya se trato en uno de los libros de Asimov, los robots siempre tratan de cumplir con la primer ley incluso si son concientes de que van a ser destruidos en el proceso, la cosa es que ellos siempre tratan de salvar a los humanos ellos mismos y no que participen terceros por lo que no importa la situacion, el robot siempre va a ser destruido

#21 — keont

Yo lo iba a decir pero veo que hay mucho asimofílico (ahi lo llevas) por aqui. Le trataria de salvar siempre, si la consideracion es ¿voy a acabar espachurrado?

Lo que dicen de un autobus vs niño. Haber si habeis visto la peli, se me hace dificil pensar que haga descarrilar un autobus entero matando a los ocupantes, y salvar al niño. Hablo de su velocidad y rapidez, no es un humano normal. Tambien podria cojer el tronco, como ya han comentado.

#22 — Isaac Alonso

Buramu la historia que comentas se llama "El pequeño robot perdido" y es la primera historia del libro "sueños de robot"

#23 — Leoagn

@Javier

En los robots del amanecer Asimov dice que a los robots que enfrentaran ese tipo de decisiones se les ponía un seleccionador aleatorio, para saber a cual de los dos salvar...

#24 — P22

En la del autobús, trataría de ponerme cerca de una de sus esquinas, desviando su trayectoria y salvando a mi dueño, además de reducir las posibilidades de muerte de los pasajeros (salvo que haya un muro cerca y deje ahí su sello...)

PD: Me gustó la respuesta de #2 xD

#25 — Maxi

1- Siguiendo la primera ley salvo al niño, como el cartel de Stop entra en conflicto con la primera ley lo ignoro ya que de respetarlo dejaría que un ser humano sufra daño por inacción.

2-Si las probabilidades de salvar al niño son 0 ya que yo mismo me destruiría antes, entonces no puedo hacer nada por lo cual mi cerebro positrónico quedaría en cortocircuito y yo inmovilizado cayéndome el árbol encima.
Esto es lo que sucede cuando un robot se enfrenta a un dilema cuyas "soluciones" siempre atentan contra la primera ley.

#26 — Karnaplosky

#6 buenisimo!!! xDDDDDDDD

#27 — Javier

@Leoagn

Gracias por la respuesta. XD

#28 — mvr1981

Las tres leyes de la robótica son contradictorias.
Ley 0 activada.

#29 — Buramu

@Isaac Alonso y Redwar.

Ese mismo! El titulo era "Pequeño robot perdido", pero yo tambien lo lei en la coleccion de Yo, Robot (4 cuentos).

Mire los demas casos y no son para nada dificiles o de mucho pensar. Siempre es suficiente con aplicar 1ra > 2da > 3ra.

Saludos

PD: O quizas soy un robot.

#30 — Juan Garcia

Que pasaría si para salvar al niño (o a algún humano) tiene que hacerle daño a otros?

#31 — Buramu

@Juan Garcia

Es la vida de uno a cambio de solo daño a otro. Mejor uno vivo y otro dañado que uno muerto y otro ileso. Solo se mueve dentro de la primera ley, haciendo calculos de costo/beneficio. Cuando mucho unas cuantas sendas positronicas dañadas, pero mas no.

Asimov arreglaba todo con "solo quemó unas cuantas sendas positronicas para poder decidir".

Saludos

#32 — Estela

aviso al policia para que salve al niño y me salve a mi

#33 — Alub

En los dos casos intentaría salvar al niño independiente del guardia (2ª ley) y su propia destrucción (3ª ley) ya que la 1ª ley siempre ha de ser obedecida.

#34 — Soul

creo que se olvidan de un razonamiento que se implanta en yo robot, cuando el protagonista (will smith) cuenta que en un accidente de tráfico entre su auto y otro en el que iba una niña, lo salvo a el en vez de a la cria porque tenía más posibilidades de salvarse el.
Osea que tambien hay que pensar que el robot salvaria al que tenga más posibilidades de sobrevivir.

#35 — sUBTER

Pero que clase de robot hay miles de clases, unos rapidos otros fuertes de eso depende el resultado de cualquier acción en 2, a diferencia de 4 que es bastante especifico.

Pero en general me parece que Gonza (1) tiene razon, un robot no valora emociones sino probabilidades, no haria nada para salvar al niño, por que basicamente, no lo estaria salvando, estaria autodestruyendose innecesariamente.