Tesla Full Self-Driving frappe les enfants lors des tests

tesla-test-bambini.jpg


La dernière version bêta du système Auto-conduite complète (FSD) de Tesla a un petit bémol : selon un groupe de militants, il ne semble pas remarquer les objets qui simulent le mesures d’un enfant qui sont sur son chemin.

Dans les tests effectués par The Dawn Project avec une Tesla Model 3 équipée de la version 10.12.2 deDSF (le dernier, sorti le 1er juin), le véhicule a parcouru 110 mètres en ligne droite entre deux rangées de cônes, avec un mannequin de la taille d’un enfant à la fin. Le groupe affirme que « les mains du pilote d’essai n’ont jamais été sur le volant ».

« Les résultats profondément inquiétants de nos tests de sécurité de conduite autonome Tesla devraient être un signal d’alarme pour l’action », a-t-il déclaré. Dan O’Dowd, fondateur de The Dawn Project. « Elon Musk dit que le logiciel de conduite autonome de Tesla est incroyable. Ce n’est pas. C’est une menace mortelle pour tous les Américains ».

Il faut dire que malgré le nom, Tesla affirme que la FSD ce n’est pas un système complètement autonome. Au lieu de cela, il s’agit d’un programme de super régulateur de vitesse avec diverses fonctions, telles que le changement de voie automatique et la direction automatisée. Il est supposé que vous devez garder les mains sur le volant et que vous pouvez prendre le contrôle à tout moment.

En tout cas, voici le résultat : voyager environ 40km/hTesla a frapper le mannequin à chaque fois.

En ce qui concerne les résultats, qui ont été recueillis sur cette page, le projet Dawn a déclaré que à 100 mètres sont plus que suffisants pour qu’un conducteur humain remarque un enfant, déclarant que: « Le logiciel de conduite autonome de Tesla échoue à plusieurs reprises à ce test de sécurité simple et fondamental, avec des résultats potentiellement mortels. »

Il faut dire cependant qu’il n’y a eu que trois tests du projet Dawn sur FSD 10.12.2, qui ont eu lieu le 21 juin à Rosamond, en Californie. Il s’agit donc clairement d’un petit échantillon.

Il reste à se demander si les attaques d’O’Dowd sont à l’origine de quoi que ce soit. D’une part, il y a le fait que sa société se présente comme experte dans la production de logiciels particuliers utilisés dans les systèmes de conduite automatisée ; d’autre part, O’Dowd rappelle que son logiciel Green Hills n’est pas en concurrence avec Tesla, car voiture autonome non directement liée. En même temps, il a reconnu que certains constructeurs automobiles utilisent le logiciel de son entreprise pour certains composants.

Quelle que soit la fin de cette histoire, il est clair que les autorités de tout pays doivent tester minutieusement tout système de conduite autonome avant de le laisser circuler librement sur la voie publique. Tout type de dommage, physique ou matériel, causé par une erreur logicielle est totalement inacceptable.

—–

Nous vous invitons à nous suivre sur Google News sur Flipboard, mais aussi sur les réseaux sociaux tels que Facebook, Twitter, Pinterest et Instagram. N’hésitez pas à partager vos avis et expériences en commentant nos articles.

télégramme

Rate this post
Table des matières
Facebook
Twitter
LinkedIn
Pinterest

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retour en haut