Como todos recordaréis, hace un par de días un Volvo XC90 de Uber dotado de un sistema de conducción autónoma estuvo implicado en un atropello con víctima mortal en Arizona. Las investigaciones han ido poco a poco esclareciendo algunos detalles del caso y la policía ha decidido difundir un vídeo con imágenes de qué fue lo que ocurrió exactamente en este lamentable suceso.
En TestCoches no nos gusta el amarillismo y por ello hemos decidido no incrustar el vídeo. Simplemente y para aquellos que quieran verlo, les dejamos el enlace a la propia cuenta de Twitter de la policía de Tempe donde se ha publicado el vídeo. Avisamos que las imágenes, aunque finalizan justo un instante antes del fatal desenlace, pueden herir la sensibilidad de algunas personas.
Un cúmulo de errores que desencadenan en un atropello mortal
Como suele ocurrir, un sólo error o fallo no suele tener consecuencias fatales. Normalmente se suceden una concatenación de hechos, fortuitos o no, que derivan en el percance. Este caso no es diferente y tras visionar el vídeo podemos observar como hay muchos factores que se han sucedido para que, por desgracia, hayamos tenido que llegar a tener el primer atropello llevado a cabo por un vehículo autónomo.
Para empezar y como se había dicho en un principio, la víctima Elaine Herzberg cruzaba una carretera de cuatro carriles, dos para cada sentido, en una zona prohibida, con escasa iluminación pues eran las 22:00 horas(noche cerrada) y en la proximidades de una intersección. Además, carecía de prendas reflectantes o luces que delataran su posición en la vía.
Por otro lado, el vehículo de Uber no fue capaz de detectar a la víctima. Se especula que su LIDAR, el radar láser que monta en el techo, no estaba operativo o no fue capaz de detectarla hasta que ya fue demasiado tarde. Recordemos que estos sistemas son capaces de ver independientemente de las condiciones lumínicas y pueden llegar a detectar objetos hasta una distancia de 200 metros. ¿No fue capaz el LIDAR de detectar a la víctima? ¿Fue el software quien no reconoció las formas de un peatón? La investigación deberá esclarecer este punto.
El tercer punto que debemos analizar es el comportamiento de la persona encargada de supervisar el funcionamiento del vehículo en modo autónomo. Como podemos ver en la segunda parte del vídeo, no parece estar atento a lo que ocurre delante mientras circula. En repetidas ocasiones baja la vista, no sabemos si supervisando el vehículo o por el contrario distrayéndose con, por ejemplo, un móvil (no se ha confirmado, es únicamente una conjetura). Pero lo cierto es que no se da cuenta hasta que ya es demasiado tarde, y no le da tiempo a reaccionar.
Curiosamente aunque el vehículo y sus sistemas de cámaras y láser no necesitan luz para ver en la oscuridad, lo cierto es que el supervisor que va en el interior sí la necesita. Y aunque las imágenes captadas por la cámara no se corresponden con lo que es capaz de ver el ojo humano en las mismas condiciones, de circular con luz de carretera en vez de cruce casi con toda seguridad habría visto a la víctima con suficiente margen para evitar o, al menos, minimizar las posibles consecuencias del accidente.
Queda por analizar en última instancia un detalle, y es la capacidad de reacción del vehículo autónomo. En el vídeo observamos que desde que aparece la víctima hasta que la imagen se detiene, no se aprecia ni que el vehículo haga una frenada de emergencia ni tampoco una maniobra de esquiva. Si no detectó a la víctima, es algo completamente normal pues para el cerebro electrónico no existía nada delante de él.
Sin embargo, ¿un conductor humano instintivamente habría frenado y/o realizado una maniobra de esquiva hacia la izquierda? Muy posiblemente entramos en el terreno de la conjetura y, como dijimos el otro día, una máquina es tan perfecta como perfecto ha sido la programación que han realizado los humanos. Es por ello que resulta casi utópico pensar en que una máquina nunca puede fallar.
¿Se podría conseguir una eficacia del 99,99%? Estamos seguros de que sí pero, eso significaría que en un millón de decisiones que tome la máquina, 100 podría ser erróneas. Estamos seguros que los humanos, enfrentados a casos similares, tendrían un porcentaje de error mucho más alto pero por desgracia, el factor riesgo 0 será casi incapaz de cumplirse.