Je ne sais pas combien de fois je dois le dire, mais les Tesla ne sont pas autonomes.
Oui, l'entreprise commercialise son logiciel de régulateur de vitesse adaptatif sous les noms de « Pilote automatique » et « Conduite entièrement autonome », mais ces technologies nécessitent que le conducteur garde le contrôle de la voiture électrique de 2 260 à 4 500 kg à tout moment. Vous ne pouvez pas simplement dormir sur le siège arrière, faire défiler votre téléphone ou faire… d'autres choses. Vous devez être conscient et continuer à conduire la voiture.
Mais les gens ont pris les pensées, les opinions et les remarques improvisées du PDG de Tesla, Elon Musk, comme signifiant que le pilote automatique est aussi bon qu'un conducteur humain. Ce n'est pas le cas. Et tout le test que Tesla a montré il y a quelques années pour prouver que le pilote automatique pouvait, en fait, se conduire tout seul, a été inventé.
Il n'est donc pas étonnant que les propriétaires de Tesla continuent de tuer des motards innocents parce qu'ils croient à l'hyper et à la glorification du système par le PT Barnum de notre génération. Mais la famille d'un motard demande maintenant des comptes à Tesla et poursuit l'entreprise en justice en raison de la mort de leur fils.
Bien, j'en ai marre d'écrire des histoires sur des Tesla et des conducteurs de Tesla qui tuent des motards.
Selon ReutersLandon Embry conduisait sa moto Harley-Davidson en 2022 lorsqu'une Tesla Model 3 a heurté le motard à 70-80 mph, le projetant hors de sa moto. Le conducteur de la Tesla utilisait le pilote automatique au moment de l'accident, car la poursuite affirme que le conducteur était « fatigué » au moment de l'accident, ainsi que « pas en état de conduire comme un conducteur normalement prudent ».
La plainte de la famille d'Embry contre Tesla affirme que le logiciel Autopilot de la société est inadéquat pour identifier les motos et les motocyclistes et qu'une « conduite raisonnablement prudente » conducteurou un système de freinage automatique adéquat, aurait pu, et aurait pu, ralentir ou s'arrêter sans entrer en collision avec la moto.
C'est moi qui souligne.
Je voulais insister sur le conducteur, car nous disposons d'une masse de données sur le logiciel Autopilot de Tesla, ainsi que sur son système Full Self Drive, et il n'est pas aussi sûr qu'un humain. On ne sait pas non plus qui est en faute lorsque le système ne parvient pas à reconnaître quelque chose sur son chemin. Dans le cas présent, Landon Embry. Le conducteur est-il responsable ? Tesla ? Le conducteur a initié l'utilisation du système, mais c'est en fin de compte le système de sécurité de Tesla.
Ce n’est pas différent du problème d’accélération fantôme de Toyota.
J'espère que le procès d'Embry se poursuivra et qu'une forme de pénalité sera infligée à Tesla, car l'entreprise a joué trop vite et trop librement avec la sécurité de son système pendant trop longtemps. Je me souviens d'un cas où une Model 3 en mode Autopilot a failli entrer en collision avec la Volkswagen de notre famille il y a quelques années avec ma petite fille dans la voiture.
Il existe de nombreuses autres enquêtes, poursuites judiciaires et autres sur le système de pilotage automatique de Tesla, le FSD, ainsi que sur les déclarations et le marketing d'Elon Musk et de la société Tesla. Les autorités fédérales et l'État de Californie enquêtent sur les fausses promesses publicitaires, tandis que la NHTSA a publié son propre rapport sur les accidents, les blessures et les décès liés aux véhicules Tesla.
Et c'est bien beau tout ça, mais il est temps de faire quelque chose. Parce que je suis désolé, le monde n'est pas ton terrain de jeu pour les bêta-testeurs, Elon. Je n'ai pas signé tes conditions générales, et Landon Embry, ma fille, ni personne d'autre autour de ton logiciel roulant de 2 260 kg non plus.