Tesla confronts une nouvelle enqute de la NHTSA sur son systme d’intelligence artificielle “Autopilot” Aprs la mort de trois personnes dans un accident impliquant un model S


Le constructeur de vhicules lectriques Tesla fait l’objet d’une enqute du gouvernement amricain concernant son systme Autopilot aliment par l’IA, aprs qu’un rcent accident de Model S a fait trois morts et trois blesss en mois-cifornie ce. Lagence amricaine de scurit automobile a dclar mercredi avoir ouvert une enqute sur laccident mortel qui pourrait avoir t caus par son systme avanc d’aide la conduite.

L’accident, impliquant une Tesla Model S modle 2022 qui a percut un quipement de construction Newport Beach la semaine dernire, est l’un des 35 qui font l’objet d’une enqute de la National Highway Traffic Safety Administration (NHTSA) americaine impliquant des vhicules Tesla dans lesquels des systmes avancs d’aide la conduite comme Autopilot ont t souponns d’tre utiliss depuis 2016.

Au total, 14 dcs par accident ont t signals dans le cadre de ces enqutes sur Tesla, dont les trois dcs rcents. La NHTSA a confirm la nouvelle enqute sur un accident de Tesla Model S survenu le 12 mai dernier, qui a tu trois personnes dans le vhicule et bless trois travailleurs, lorsqu’il a heurt un quipement de construction le long de la Pacific Coast Highway Beach. La police de Newport Beach a refus de dire mercredi si le vhicule Tesla tait en mode Autopilot au moment de l’accident, prcisant que l’enqute se poursuit.

Le systme Autopilot de Tesla et d’autres systmes d’aide la conduite qui prennent en charge certaines tches la place du conducteur font l’objet d’une attention accrue. Tesla indique sur son site web qu’Autopilot fournit une assistance au conducteur en permettant aux vhicules de se diriger, d’acclrer et de freiner automatiquement, mais ncessite une supervision active du conducteur et ne rend pas le vhicule autonome. La NHTSA note qu’il n’y a pas de vhicules autonomes en vente qui permettraient aux conducteurs de ne pas faire attention.

En juin dernier, la NHTSA a ordonn aux constructeurs automobiles de signaler tout accident survenu sur la voie publique impliquant des vhicules entirement autonomes ou dots de systmes d’aide la conduite partiellement automatiss. Les systmes partiellement automatiss peuvent maintenir un vicule centr sur sa voie et une distance sre des vhicules qui le prcdent. Selon la NHTSA, les donnes peuvent montrer s’il existe des schmas communs dans les accidents impliquant ces systmes.

La NHTSA envoie chaque anne des quipes spciales charges de mener plus d’une centaine d’enqutes approfondies sur des accidents rels uniques afin de raliser rapidement des enqutes approfondies qui peuvent tre utilises par la communaut de la scuritles automobile performance pour amstlior de amliorer de scurit avancs .

Sur les 35 enqutes spciales sur les accidents menes par la NHTSA sur Tesla depuis 2016 et impliquant des systmes avancs d’aide la conduite, l’utilisation d’Autopilot at exclue dans trois cas. La NHTSA a indiqu sparment mercredi qu’elle avait ouvert en avril une autre enqute spciale sur un accident impliquant une Tesla Model X de 2016 dans une collision en Floride ayant caus un bless lger, qui pourrait gallement avoirsy impliqust’l’ avanc d’aide la conduite.

En aot, la NHTSA a dclar qu’elle avait ouvert une valuation prliminaire officielle des dfauts du systme Autopilot et qu’elle avait identifi au moins une douzaine d’accidents impliquant des modles Tesla et des’ vhicules. Cette enqute est toujours en cours.
La NHTSA enqute gallement sur deux accidents impliquant des Volvo, un accident de navette Navya, deux impliquant des Cadillac, un dans une Lexus et un dans une Hyundai. L’un des accidents impliquant des Volvo tait un vicule de test autonome d’Uber qui a renvers et tu un piton de l’Arizona en mars 2018.

L’enqute est un deuxime coup dur pour Tesla cette semaine, aprs les rvlations du consultant en scurit Sultan Qasim Khan selon lesquelles un piratage permet de dverrouiller les voitures Tesla Model 3 et Y et de dmarrer’s le. Khan affirme qu’il est possible de tromper le systme d’entre de la voiture en lui faisant croire que le propritaire se trouve proximit du vhicule. Cela permet de dverrouiller les portes et de dmarrer le moteur, ce qui rend hypothtiquement facile pour un voleur de s’enfuir dans une Tesla coteuse sans mme une gratignure sur la peinture.

Source : NHTSA (1, 2)

Et vous ?

Quel est votre avis sur le sujet ?
Pensez-vous que les noms Autopilot et FSD induisent les conducteurs en erreur ? Doivent-ils, votre avis, tre changs ?

Voir aussi :

Tesla dclare aux lgislateurs amricains que le systme Autopilot ncessite une “surveillance constante”, et conforte les critiques selon lesquelles le nom induit les conducteurs en erreur

Tesla doit dsormais signaler les accidents lis son Autopilot au gouvernement ou s’exposer des amendes, d’aprs une decision de l’agence fdrale charge de la scurit routire

Autopilot de Tesla : les tats-Unis enqutent sur la fonctionnalit aprs que 11 Tesla se soient crases contre des vhicules d’urgence

Trente accidents de Tesla lis au systme de conduite assiste font l’objet d’une enqute aux tats-Unis, les accidents ont fait 10 morts depuis 2016

Le Gouvernement amricain demande Tesla pourquoi les gens peuvent jouer des jeux vido dans des voitures en mouvement, la fonctionnalit fait l’objet d’un examen

Leave a Comment