El coche
autónomo que logran circular por las carreteras sin un ser humano al
volante es una de las grandes promesas de un futuro cada vez más
cercano.
Aunque estos vehículos
están orientados a reducir la tasa de accidentes, su programación podría tener
un efecto singular ante situaciones peligrosas en las que estén en juego muchas
vidas, podrían decidir que nosotros nos llevemos la peor parte para
salvar a los demás.
En situaciones en las
que estos vehículos tengan que decidir con qué impactar para minimizar los
daños, no solo tendrán en cuenta tu seguridad, sino probablemente la del resto
de elementos implicados. La física se convierte en algo en un segundo plano, y llega
el debate moral y ético.
Las situaciones de
peligro por ahora eran bastante manejables para estos vehículos, que se
limitaban a circular en autopistas y carreteras sin apenas viandantes. Su
introducción en las ciudades cambia las reglas del juego, y hay muchos más
factores a tener en cuenta.
Evitar un posible
atropello de varias personas que por despiste crucen sin mirar podría implicar que el software tomará
una decisión trágica para nosotros: la de hacer que impactemos con algo
para evitar ese atropello, y que ese impacto nos cause graves daños...o la
muerte. ¿Cómo se toma en cuenta esa programación moral y ética?