Home » El exceso de confianza en el piloto automtico de Tesla provoc accidentes mortales

El exceso de confianza en el piloto automtico de Tesla provoc accidentes mortales

by Marko Florentino
0 comments


Actualizado

Una investigacin de las autoridades estadounidenses de 467 choques de vehculos de Tesla determin que una ‘carencia crtica de seguridad’, que llevaba a los conductores a crearse falsas expectativas, provoc el mal uso del sistema Autopilot y accidentes prevenibles en los que murieron al menos 13 personas y decenas resultaron heridas.

Un informe de la Administracin Nacional de Seguridad del Trfico en la Carretera de EE.UU. (NHTSA, en ingls) publicado este viernes en su web tras tres aos de investigaciones concluy que ‘el endeble sistema’ de Tesla para asegurar que los conductores controlan el funcionamiento de los vehculos con Autopilot ‘no era apropiado’.

‘Este desequilibrio result en una carencia crtica de seguridad entre las expectativas de los conductores de las capacidades del sistema L2 y las verdades capacidades del sistema’, seal NHTSA.

‘El sistema de controles y avisos de Autopilot fueron insuficientes para un sistema de ayuda a la conduccin que requiere la constante supervisin de un conductor humano’, aadi el organismo federal.

La publicacin del informe se produce das despus de que el consejero delegado de Tesla, Elon Musk, asegurase que la compaa va a conseguir pronto que sus vehculos funcionen de forma autnoma.

Musk lleg a afirmar el martes durante una teleconferencia tras la publicacin de los resultados econmicos del primer trimestre del ao que ‘si alguien no cree que Tesla va a resolver la conduccin autnoma, creo que no deberan invertir en la compaa’.

Musk lleva aos vendiendo Tesla como una compaa de vehculos autnomos, lo que ha provocado problemas al fabricante.

En 2017 la firma de abogados Hagens Berman anunci una demanda colectiva contra Tesla por supuestamente engaar a los consumidores con respecto a las caractersticas de su sistema Autopilot.

Y en 2021, varios senadores solicitaron a la Comisin Federal de Comercio (FTC por sus siglas en ingls) una investigacin sobre la publicidad de Tesla del Autopilot, que calificaron de «engaosa» y «peligrosa».

A pesar de su nombre, Autopilot, el sistema de ayuda a la conduccin de Tesla, es slo un sistema con un nivel 2 (L2) de autoconduccin, en una escala en el que L5 es el mximo posible, cuando el vehculo puede transitar en cualquier condicin sin la necesidad de la intervencin del conductor.

Otros fabricantes han dotado sus vehculos con sistemas de ayuda a la conduccin L2. NHTSA record que los automviles con L2 «deben emplear sistema de interaccin con los conductores y controles de uso que son apropiados y suficientes para el diseo del sistema L2 y las expectativas de los conductores».

En el caso de Tesla, NHTSA concluy que «los controles de Autopilot no aseguraron la suficiente atencin de los conductores y el uso apropiado» al mismo tiempo que «invitaron a una mayor confianza de los conductores».

NHTSA dijo que sus conclusiones son similares a las que lleg Tesla, que en diciembre de 2023 actualiz el software de alrededor de sus 2 millones de vehculos en Estados Unidos para mejorar el sistema de supervisin.

El organismo federal aadi que ha abierto una investigacin para determinar si el nuevo software soluciona los problemas detectados aunque la agencia seal que tras la actualizacin se han producido nuevos accidentes en vehculos que tenan activado el Autopilot.





Source link

You may also like

Leave a Comment

NEWS CONEXION puts at your disposal the widest variety of global information with the main media and international information networks that publish all universal events: news, scientific, financial, technological, sports, academic, cultural, artistic, radio TV. In addition, civic citizen journalism, connections for social inclusion, international tourism, agriculture; and beyond what your imagination wants to know

RESIENT

FEATURED

                                                                                                                                                                        2024 Copyright All Right Reserved.  @markoflorentino