
La fonction de déplacement à distance de Tesla, appelée « Actually Smart Summon », vient d’être blanchie par les autorités américaines. Malgré près d’une centaine d’accidents recensés, l’agence de sécurité routière a estimé que leur faible gravité ne justifiait pas de mesures supplémentaires. Derrière cette décision se dessine une évolution plus large : un seuil de tolérance qui change face aux technologies automatisées, alors même que d’autres systèmes du constructeur restent sous surveillance.
Tesla peut tourner la page sur ce point précis. L’autorité américaine en charge de la sécurité routière, la National Highway Traffic Safety Administration (NHTSA), a officiellement clos son enquête sur la fonction « Actually Smart Summon », qui permet de déplacer un véhicule à distance via une application. L’investigation, ouverte après plusieurs signalements d’accidents, portait sur environ 2,6 millions de véhicules équipés.
Concrètement, l’idée est simple : vous laissez la voiture devant un lieu comme un supermarché, elle va se garer seule, puis vous la « rappelez » via l’application et elle revient vers vous en s’appuyant sur votre localisation GPS. Spectaculaire sur le papier, mais pas totalement sans ratés dans la vraie vie.
Dans le détail, les autorités évoquent une centaine d’incidents, dont près de 100 collisions recensées. Pris seuls, ces chiffres peuvent faire tiquer. Mais la lecture change quand on les remet dans leur contexte d’usage : sur des millions d’utilisations, seule une fraction de 1 % a donné lieu à un incident. Et surtout, aucun blessé n’a été signalé : uniquement des dégâts matériels.
La grande majorité des cas concerne des chocs à faible vitesse avec des obstacles fixes : voitures stationnées, portails, bornes… souvent au début de la manœuvre. Dans ses conclusions, la NHTSA indique que ces situations viennent généralement d’un mélange de facteurs : une détection imparfaite de l’environnement par le système, mais aussi une absence de réaction de l’utilisateur, qui est censé superviser la manœuvre.
Entre-temps, Tesla a déployé plusieurs mises à jour logicielles pour améliorer la détection des obstacles, la gestion des caméras obstruées et la réaction face à des éléments mobiles comme des barrières.
Clore l’enquête ne veut pas dire que la fonction est parfaite, ni que les incidents vont disparaître. En revanche, la décision entérine une idée : certains incidents deviennent acceptables dès lors qu’ils restent rares et, surtout, sans gravité. Autrement dit, on ne cherche plus forcément le risque zéro pour ce type de technologie.
Ce point marque une évolution dans la manière dont les autorités approchent les aides à la conduite. Le système n’est pas jugé comme un bloc autonome : l’utilisateur fait partie de la chaîne de responsabilité. Dans le cas de Smart Summon, la supervision via smartphone est un élément normal du fonctionnement. Les accidents observés ne sont donc pas interprétés comme des pannes totales, mais comme des situations où l’interaction entre l’humain et la machine n’a pas fonctionné comme prévu.
Cette indulgence relative sur Smart Summon contraste avec d’autres dossiers. Aux États-Unis, les systèmes de conduite plus avancés de Tesla, regroupés sous l’appellation Full Self-Driving (FSD), font toujours l’objet d’une enquête approfondie. L’analyse technique a même été renforcée, et porte sur plusieurs millions de véhicules.
La différence, c’est la nature des comportements jugés plus problématiques : en circulation réelle, avec des infractions ou des réactions inadaptées dans des situations complexes. Le sujet a aussi été illustré par le déploiement des robotaxis.
Pour l’instant, ce débat reste surtout américain. En Europe, les fonctions les plus avancées de Tesla ne sont pas autorisées en usage client faute d’homologation. Le FSD, malgré son nom, reste classé comme une assistance de niveau 2, qui exige une supervision constante.
Il existe des démonstrations, régulièrement organisées par la marque, mais dans un cadre strictement encadré. Et même si plusieurs constructeurs premium allemands font marche arrière sur la conduite autonome de niveau 3 — BMW et Mercedes notamment — la situation pourrait bouger chez Tesla. Les autorités néerlandaises ont déjà évoqué une possible ouverture réglementaire, qui pourrait servir de point d’entrée à une diffusion plus large sur le continent.
À terme, les utilisateurs européens pourraient donc se retrouver face aux mêmes usages que les Américains… et aux mêmes limites.
En validant Smart Summon malgré des accrochages à faible vitesse, les autorités américaines envoient un message : l’évaluation de ces technologies repose de plus en plus sur la gravité réelle des incidents et sur le rôle de l’utilisateur. Reste à voir jusqu’où cette logique ira, à mesure que les systèmes gagnent en ambition — et que la route, elle, ne pardonne toujours pas l’à-peu-près.
Environ 2,6 millions de véhicules équipés.
Des chocs à faible vitesse avec des obstacles fixes comme des voitures stationnées, des portails ou des bornes, souvent au début de la manœuvre.
Oui, le Full Self-Driving (FSD) fait toujours l’objet d’une enquête approfondie, récemment renforcée, avec une analyse technique portant sur plusieurs millions de véhicules.

De l'achat, à la revente, au financement, en passant par les derniers projets de loi automobile, Voiture Malin est la référence de l'info automobile
