Contenidos contratados por la marca que se menciona

+info

El dilema moral de los coches autónomos: ¿a quién salvar en caso de accidente?

El dilema moral de los coches autónomos: ¿a quién salvar en caso de accidente?
3 comentarios


A lo mejor entramos de lleno en el terreno de la ciencia ficción (ahora mismo), aunque me ha fascinado completamente con una visión serena hacia el futuro: el coche autónomo será realidad en las calles en algún momento del futuro cercano, podrá circular perfectamente pero, ¿qué pasa con las decisiones que tienen que ver con la moral?

Es decir, para centrarnos: cuando el coche autónomo se vea en la tesitura de no poder evitar un accidente, y tenga que decidir si salvar al conductor o a cualquier otra víctima potencial, ¿cómo tomará esa decisión? ¿Salvar al conductor siempre, o salvar la vida de “20 personas a bordo de un autobús”? Para darnos cuenta de lo complejo de esta situación, pensemos en qué decisión tomaríamos nosotros en ese caso.

El coche autónomo será más seguro que cualquier conductor humano

Esa es la teoría: el coche no se cansa, no tiene problemas (de esos que no salen de tu cabeza cuando vas conduciendo), no discute, no se altera, no toma drogas ni bebe alcohol, tiene unos reflejos que nunca se resienten y es capaz de “computar” decisiones en milésimas de segundo, mucho antes de que un humano siquiera reaccione ante un estímulo.

Coches autónomos

Entonces, ¿cuál es el problema? Más que problema en sentido negativo, es un problema en el sentido más apasionante.

Las tres leyes de la robótica de Isaac Asimov son un acso claro de ficción, pero desde un punto de vista moral son muy interesantes. Significa que, pase lo que pase, un robot jamás dañará a un humano por acción o por omisión. en algunos casos esa lógica puede llevar a caminos sin salida (siempre hablando desde la ciencia ficción). Si no las conoces, estas son:

  1. Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Entonces, ¿qué pasa si el coche se encuentra con una situación en la que hay que decidir desde el punto de vista moral? Hoy no parece haber solución buena. Me refiero a problemas como el siguiente:

vas a demasiada velocidad por una carretera comarcal y de repente te encuentras con un grupo de peatones cruzando tranquilamente. La colisión es muy probable, y hay que tomar la decisión de salirse de la carretera (con el consiguiente peligro para el conductor y los ocupantes) o seguir sin variaciones (con el consiguiente peligro para los peatones inocentes)

¿Damos demasiada importancia a un problema tan etéreo?

¿Cuál es la solución? Existe, pero es bastante menos emocionante que la de pensar en cerebros robóticos sujetos a las normas morales. E incluso, sujetos a normas morales podría haber una solución muy sencilla si tenemos en cuenta que casi todas las situaciones peligrosas que incluyen decisiones basadas en la moral se pueden prevenir.

Toyota Prii

Con esto eliminamos de un plumazo cualquier duda que pueda surgir. Un cerebro robótico que razone con unos límites morales (que vienen a ser reglas de comportamiento) probablemente no permita circular a velocidad excesiva, puesto que incrementa varias veces las probabilidades de encontrarse con un imprevisto o una situación delicada.

Quizás nos dejamos llevar demasiado por las películas y relatos de ciencia ficción, pero igual que una cadena de montaje jamás se sale de los límites programados, no inventa, no experimenta,... un cerebro robótico de un coche autónomo tampoco debería hacerlo. Simplemente el sistema tendría que mantenerse lo más simple dentro de lo complejo que es.

Si partimos de la base de que el coche autónomo será un herramienta valiosa para la movilidad futura, podremos pensar que no es necesario dejar sobre su responsabilidad las decisiones morales. No infringirán las normas y los límites de velocidad, no sobrepasarán límites de riesgo potencial bajo ningún concepto (porque rebasarlos infringiría probablemente una de las leyes de la robótica, si se aplicasen), y posiblemente sería muy raro que tuviesen que tomar una decisión entre salvar al conductor o salvar a 40 escolares.

En Espacio Toyota:

También te puede gustar

Comentarios cerrados