25-03-2017, 12:16
(25-03-2017, 10:12)DILINGER escribió: Exactamente, hay problemas más complejos de resolver que los tecnológicos y son los éticos y morales respecto al comportamiento del coche. Si el coche para evitar un accidente puede ir contra un vehículo pesado a 50 por hora o escapar por la acera atropellando varias personas, ¿qué hará?. ¿Poner en riesgo la única vida del conductor o la de un número indeterminado de otras?. ¿Lo hacemos en términos de mera contabilidad o que el vehículo intente preservar la vida de sus ocupantes?. Y en el primer caso, ¿si viaja un niño debería tenerse más consideración que si viaja un adulto?. No va a ser suficiente con las leyes de la robótica que planteó Isaac Asimov.
De todas formas, los humanos fallamos en nuestras decisiones con mucha frecuencia, actuando movidos por nuestros sesgos o falta de criterio o simplemente por inacción, que no siempre tienen como consecuencia una solución acertada para un problema. Una cosa que no podría hacer un coche autónomo, es lo del atentado de Londres por ejemplo. Y sin irnos a atentados, las conductas de algún conductor afectado mentalmente o bajo los efectos de sustancias que le han hecho perder el juicio y lanzarse contra un grupo de personas.
Al final, las máquinas salvarán muchas vidas que se hubieran perdido de estar las personas implicadas, a nivel contable va a salir a cuenta. Y luego realmente no se podría achacar a la máquina que opta por una decisión que cuesta una vida para salvar dos. Es evidente que de haber un humano la probabilidad era del 50% y estando la máquina la probabilidad de morir de esa persona era del 100%, pero no es culpa de la máquina ni del programador.
Son cuestiones complicadas que dilucidar. Imagino que por eso en Europa el tema va algo más lento y la regulación va avanzando con cuentagotas, además de por querer asegurar bien la fiabilidad del sistema y que no se produzcan fallos que desencadenen accidentes.
Los humanos tomamos decisiones erróneas, sí, pero las máquinas no serán responsables (y con esto no me refiero a la carcel o multas) cuando en una toma de decisión en vez de matar a 2 abuelos cruzando un paso de peatones, atropelle un carro de bebé por no haberlo identificado como "persona"...
Yo le veo muchísimas lagunas a día de hoy, insalvables hasta que la conducción autónoma no se realice en un entorno controlable y controlado, que es por lo que yo abogo.
Hablando de vidas no se puede escoger y menos dejarlo en manos de un ordenador y que todo el mundo se lave las manos: unos alegando que el conductor debería haber estado atento y otros que la máquina debería haber actuado de otra manera...
Yo desde luego no lo veo y los ejemplos que ahora mismo ruedan son tan pequeños en relación al parque, que no se pueden tener en cuenta a nivel ni estadístico ni en términos absolutos (ni para bien ni para mal), porque si atendemos a las noticias de accidentes que salen a la luz (seguro que una parte pequeña) el futuro es muy negro: hay 4 contados y cada poco tiempo sale una noticia.