Quand l’assistance au stationnement vire au cauchemar : la Xiaomi SU7 termine sa manœuvre… dans un étang
Les images sont parlantes et, hélas, symptomatiques d’un problème plus vaste : une Xiaomi SU7, en mode parking assisté, a poursuivi une manœuvre jusqu’à plonger dans un plan d’eau. Le phénomène a été filmé et partagé sur Weibo, déclenchant une série d’interrogations sur la fiabilité des systèmes d’aide à la conduite actuels et sur la maturité des mises à jour logicielles qui animent ces voitures « intelligentes ». En tant qu’automobiliste qui parcourt régulièrement les routes d’Occitanie, j’ai vu évoluer les assistants de stationnement depuis des capteurs basiques jusqu’à des systèmes logiques complexes — et cet incident rappelle brutalement qu’il ne faut jamais déléguer totalement le jugement au véhicule.
Récit factuel des incidents récents
Sur une courte période, plusieurs épisodes impliquant la SU7 ont été rapportés : outre la mésaventure dans l’eau, une autre SU7 Max aurait pris un chemin descendant lors d’une manœuvre autonome et a dévalé un talus avant d’heurter une base en pierre d’un pavillon de camping. Ces cas soulignent des lacunes communes : détection imprécise d’obstacles atypiques (eau, pente), réactions tardives des sécurités et, dans certains cas, activation des protections après le contact physique — soit potentiellement trop tard pour éviter un dommage.
Origine technique probable : limites capteurs & algorithmes
Les systèmes d’aide modernes combinent lidars, radars, ultrasons et caméras, le tout orchestré par des algorithmes de vision par ordinateur. Pourtant, certains scénarios surprenants demeurent difficiles :
Dans le cas de la SU7, tout porte à croire que l’algorithme de conduite assistée n’a pas correctement interprété la scène, ou que les seuils de sécurité (arrêt avant contact) sont trop permissifs.
La mise à jour HyperOS 1.11.0 : omniprésente et remise en question
L’incident survient peu après le déploiement de l’update HyperOS 1.11.0. Les constructeurs et équipes logicielles poussent régulièrement des correctifs pour améliorer capacités et performances ; toutefois, chaque update modifie l’équilibre entre détection, prise de décision et comportements par défaut. Lorsque des comportements émergents et dangereux apparaissent après une mise à jour, cela pose des questions de validation en production et de tests en conditions réelles.
Conséquences juridiques et réputationnelles
Au-delà du risque matériel et humain, ces incidents entrainent désormais des procédures juridiques : un propriétaire a lancé une action pour publicité trompeuse concernant la SU7 Ultra, arguant que la voiture a été présentée comme « autonome » alors que la conduite autonome demeure incomplète. Cela ouvre un dossier sensible : responsabilité du fabricant, du logiciel, et du conducteur qui a laissé le système gérer la manœuvre.
Sur le plan réputationnel, les problèmes répétés fragilisent la confiance dans la marque et rappellent aux consommateurs qu’un assistanat mal communiqué peut être perçu comme dangereux plutôt que révolutionnaire.
Recommandations pratiques pour les conducteurs
Que doivent faire les constructeurs et éditeurs logiciels ?
Les constructeurs ne peuvent plus se contenter de correctifs réactifs. Il faut :
Perspective et prudence
La route vers une assistance réellement autonome est encore longue. Les technologies progressent vite, mais ces épisodes rappellent que l’intégration robuste entre hardware, software et validation terrain est indispensable. En attendant, la prudence du conducteur reste la variable la plus fiable pour éviter que des manœuvres automatisées ne se transforment en mésaventures coûteuses — et parfois dangereuses.



