Tesla

Smart Summon de Tesla : malgré des accrochages, les États-Unis valident la fonction

Smart Summon de Tesla : malgré des accrochages, les États-Unis valident la fonction

La fonction de déplacement à distance de Tesla, appelée « Actually Smart Summon », vient d’être blanchie par les autorités américaines. Malgré près d’une centaine d’accidents recensés, l’agence de sécurité routière a estimé que leur faible gravité ne justifiait pas de mesures supplémentaires. Derrière cette décision se dessine une évolution plus large : un seuil de tolérance qui change face aux technologies automatisées, alors même que d’autres systèmes du constructeur restent sous surveillance.

Les États-Unis clôturent l’enquête sur le Smart Summon de Tesla malgré des accidents
Les États-Unis ferment le dossier Smart Summon malgré des incidents : un signal sur la manière d’évaluer ces aides automatisées.

Tesla peut tourner la page sur ce point précis. L’autorité américaine en charge de la sécurité routière, la National Highway Traffic Safety Administration (NHTSA), a officiellement clos son enquête sur la fonction « Actually Smart Summon », qui permet de déplacer un véhicule à distance via une application. L’investigation, ouverte après plusieurs signalements d’accidents, portait sur environ 2,6 millions de véhicules équipés.

Concrètement, l’idée est simple : vous laissez la voiture devant un lieu comme un supermarché, elle va se garer seule, puis vous la « rappelez » via l’application et elle revient vers vous en s’appuyant sur votre localisation GPS. Spectaculaire sur le papier, mais pas totalement sans ratés dans la vraie vie.

Des incidents nombreux sur le papier, mais sans blessés

Smart Summon est lié au système Full Self-Driving (FSD), toujours surveillé
Smart Summon s’inscrit dans l’écosystème de conduite automatisée de Tesla, mais le dossier FSD, lui, reste sous enquête.

Dans le détail, les autorités évoquent une centaine d’incidents, dont près de 100 collisions recensées. Pris seuls, ces chiffres peuvent faire tiquer. Mais la lecture change quand on les remet dans leur contexte d’usage : sur des millions d’utilisations, seule une fraction de 1 % a donné lieu à un incident. Et surtout, aucun blessé n’a été signalé : uniquement des dégâts matériels.

La grande majorité des cas concerne des chocs à faible vitesse avec des obstacles fixes : voitures stationnées, portails, bornes… souvent au début de la manœuvre. Dans ses conclusions, la NHTSA indique que ces situations viennent généralement d’un mélange de facteurs : une détection imparfaite de l’environnement par le système, mais aussi une absence de réaction de l’utilisateur, qui est censé superviser la manœuvre.

Entre-temps, Tesla a déployé plusieurs mises à jour logicielles pour améliorer la détection des obstacles, la gestion des caméras obstruées et la réaction face à des éléments mobiles comme des barrières.

Un nouveau « standard » : le risque zéro n’est plus l’objectif

Clore l’enquête ne veut pas dire que la fonction est parfaite, ni que les incidents vont disparaître. En revanche, la décision entérine une idée : certains incidents deviennent acceptables dès lors qu’ils restent rares et, surtout, sans gravité. Autrement dit, on ne cherche plus forcément le risque zéro pour ce type de technologie.

Ce point marque une évolution dans la manière dont les autorités approchent les aides à la conduite. Le système n’est pas jugé comme un bloc autonome : l’utilisateur fait partie de la chaîne de responsabilité. Dans le cas de Smart Summon, la supervision via smartphone est un élément normal du fonctionnement. Les accidents observés ne sont donc pas interprétés comme des pannes totales, mais comme des situations où l’interaction entre l’humain et la machine n’a pas fonctionné comme prévu.

Pourquoi le Full Self-Driving reste, lui, dans le viseur

Des constructeurs allemands reculent sur la conduite autonome de niveau 3
Pendant que certains acteurs temporisent sur l’autonomie de niveau 3, la question réglementaire continue d’évoluer.

Cette indulgence relative sur Smart Summon contraste avec d’autres dossiers. Aux États-Unis, les systèmes de conduite plus avancés de Tesla, regroupés sous l’appellation Full Self-Driving (FSD), font toujours l’objet d’une enquête approfondie. L’analyse technique a même été renforcée, et porte sur plusieurs millions de véhicules.

La différence, c’est la nature des comportements jugés plus problématiques : en circulation réelle, avec des infractions ou des réactions inadaptées dans des situations complexes. Le sujet a aussi été illustré par le déploiement des robotaxis.

Et en Europe ? Un débat encore théorique… mais pas pour longtemps

Pour l’instant, ce débat reste surtout américain. En Europe, les fonctions les plus avancées de Tesla ne sont pas autorisées en usage client faute d’homologation. Le FSD, malgré son nom, reste classé comme une assistance de niveau 2, qui exige une supervision constante.

Il existe des démonstrations, régulièrement organisées par la marque, mais dans un cadre strictement encadré. Et même si plusieurs constructeurs premium allemands font marche arrière sur la conduite autonome de niveau 3 — BMW et Mercedes notamment — la situation pourrait bouger chez Tesla. Les autorités néerlandaises ont déjà évoqué une possible ouverture réglementaire, qui pourrait servir de point d’entrée à une diffusion plus large sur le continent.

À terme, les utilisateurs européens pourraient donc se retrouver face aux mêmes usages que les Américains… et aux mêmes limites.

Conclusion

En validant Smart Summon malgré des accrochages à faible vitesse, les autorités américaines envoient un message : l’évaluation de ces technologies repose de plus en plus sur la gravité réelle des incidents et sur le rôle de l’utilisateur. Reste à voir jusqu’où cette logique ira, à mesure que les systèmes gagnent en ambition — et que la route, elle, ne pardonne toujours pas l’à-peu-près.

Foire aux Questions

Combien de véhicules étaient concernés par l’enquête de la NHTSA sur « Actually Smart Summon » de Tesla ?

Environ 2,6 millions de véhicules équipés.

Quels types d’accidents sont surtout remontés avec « Actually Smart Summon » de Tesla ?

Des chocs à faible vitesse avec des obstacles fixes comme des voitures stationnées, des portails ou des bornes, souvent au début de la manœuvre.

Le système Full Self-Driving (FSD) de Tesla est-il encore sous enquête aux États-Unis ?

Oui, le Full Self-Driving (FSD) fait toujours l’objet d’une enquête approfondie, récemment renforcée, avec une analyse technique portant sur plusieurs millions de véhicules.

Partager :
Abonnez-vous à notre newsletter

Recevez nos conseils d'expert pour choisir votre prochaine voiture !

De l'achat, à la revente, au financement, en passant par les derniers projets de loi automobile, Voiture Malin est la référence de l'info automobile

Thank you! Your submission has been received!
Oops! Something went wrong while submitting the form.
Mobile
Webflow IconBadge Text