El coche
autónomo que logran circular por las carreteras sin un ser humano al
volante es una de las grandes promesas de un futuro cada vez más
cercano.
Aunque estos vehículos
están orientados a reducir la tasa de accidentes, su programación podría tener
un efecto singular ante situaciones peligrosas en las que estén en juego muchas
vidas, podrían decidir que nosotros nos llevemos la peor parte para
salvar a los demás.
En situaciones en las
que estos vehículos tengan que decidir con qué impactar para minimizar los
daños, no solo tendrán en cuenta tu seguridad, sino probablemente la del resto
de elementos implicados. La física se convierte en algo en un segundo plano, y llega
el debate moral y ético.
Las situaciones de
peligro por ahora eran bastante manejables para estos vehículos, que se
limitaban a circular en autopistas y carreteras sin apenas viandantes. Su
introducción en las ciudades cambia las reglas del juego, y hay muchos más
factores a tener en cuenta.
Evitar un posible
atropello de varias personas que por despiste crucen sin mirar podría implicar que el software tomará
una decisión trágica para nosotros: la de hacer que impactemos con algo
para evitar ese atropello, y que ese impacto nos cause graves daños...o la
muerte. ¿Cómo se toma en cuenta esa programación moral y ética?
esto es complicado... la idea del piloto automático la veo bien para viajes largos (por autovias) pero viajes cortos como pueden ser el que hay por una ciudad.. lo veo una tontería, demasiados obstáculos como para dejar el 100% de nuestra vida en una máquina
ResponderEliminarTal y como se dice en el texto, me parece muy peligroso que un coche circule automáticamente por una ciudad, pero me parece una buena iniciativa el desarrollo del piloto automático, ya que serviría, por ejemplo en autopistas, para acabar con los excesos de velocidad de algunos conductores. Si todo estuviese programado y automatizado, nadie podría saltarse las reglas.
ResponderEliminar