Otro accidente de un Tesla con Autopilot en EEUU se explica por imprudencia del conductor

El principal problema del sistema Autopilot de Tesla sigue encontrándose detrás del volante. Cuando un conductor delega en el sistema y se desentiende de la conducción, corre el riesgo de sufrir un accidente, ya que el sistema ni es perfecto ni es 100% autónomo.

5 min. lectura

Publicado: 05/09/2019 22:00

La Junta Nacional de Seguridad en el Transporte (NTSB) de Estados Unidos ya ha publicado las conclusiones sobre un accidente de un Tesla Model S ocurrido en la Interstate 405 cerca de Culver City (California) en enero de 2018. El coche se empotró contra un camión de bomberos que estaba atendiendo a otros accidentados.

El sistema Autopilot estaba en marcha en el momento de la colisión. Los dos ocupantes del Model S sobrevivieron, es un modelo muy seguro, pero fallaron dos cosas. Primero, el conductor no estaba pendiente de la conducción. Segundo, el sistema Autopilot se vio sobrepasado por las circunstancias.

De acuerdo al informe publicado por el ente público, durante los últimos 14 minutos el conductor apenas puso las manos en el volante, habiendo delegado en el coche la responsabilidad de conducir. El NTSB acusa al fabricante por permitir la falta de atención y exceso de confianza del conductor

Calcula ahora el precio de tu seguro de coche

Calcula tu precio online

La función Autopilot de los Tesla permite que el conductor quite puntualmente las manos del volante, es un sistema semiautónomo, pero debe mantener los ojos en la carretera y, de vez en cuando, demostrar al sistema que agarra el volante. Esto se hizo así para evitar abusos de los usuarios, que lo tomaban por un sistema autónomo.

Hay conductores que han pagado muy caro el desentenderse de la conducción por confiar en el sistema, que no está diseñado para eso. El primero fue un hombre que murió en 2016 al empotrarse su Model S contra un camión que los sensores no detectaron en una intersección. El sistema es para autovías y autopistas. El conductor iba viendo una película de Harry Potter.

Pese a los esfuerzos de Tesla por hacer pedagogía entre sus clientes, y aunque ya hay algunos fallecidos por confiar excesivamente en el sistema Autopilot, sigue habiendo abusos. Un caso bastante notorio fue el de conductores de Tesla sorprendidos ¡durmiendo! en tráfico denso. Afortunadamente, la cosa no fue a mayores.

Pero volvamos a los detalles del accidente en Culver City. El conductor declaró estar tomándose un café y un bollo industrial -similar a un donut- en una situación de tráfico denso. Su Model S iba detrás de otro vehículo que iba despacio, unos 34 km/h, hasta que este último se cambió de carril.

Por defecto, el control de crucero restablece la velocidad programada una vez que detecta que hay vía libre. El Model S intentó recuperar su ritmo anterior, 80 millas por hora, es decir, unos 128 km/h. En ninguna carretera de California es legal pasar de 70 mph, es decir, 112 km/h.

Mientras el coche aceleraba, el camión de bomberos estaba delante realizando un servicio. La colisión se produjo a unos 50 km/h. Afortunadamente para el conductor y su acompañante, las pruebas de colisión se hacen a una velocidad más alta, por lo que no resultaron heridos de gravedad a pesar la potencia del golpe. Ningún bombero salió herido.

El NTSB cree que el fabricante es responsable por permitir la dejadez de los conductores. Aún ha de pronunciarse sobre otros dos accidentes mortales ocurridos en marzo de 2018, en uno se vio implicado un Model 3, en otro un Model X. El patrón parece repetirse una vez tras otra.

El conductor llevaba 51 segundos sin agarrar el volante, iba tomándose algo

Si los conductores de estos Tesla no hubiesen abandonado su responsabilidad de conducir, ya que sigue siendo suya, seguramente permanecerían ilesos. Algunos propietarios de coches de alta gama se creen que ya tienen coches autónomos, y no, un coche autónomo no necesita conductor, ni atento ni a secas.

El sistema Autopilot sigue sin ser capaz de reaccionar ante cualquier situación de circulación, los sensores o el sistema de guiado no son infalibles, por lo que estas cosas pueden ocurrir. Recuérdalo bien, el sistema Autopilot no reemplaza al conductor, es una asistencia para ser utilizada con responsabilidad.

Voces en EEUU, como la del Center for Auto Safety, ya están pidiendo a la NHTSA (responsable de la seguridad vial) que ordene a Tesla una llamada a revisión. Lo de asumir responsabilidades individuales a los conductores, ya para otro día.

Pixel