Aller au contenu
Kratos

Freinage fantôme (Phantom Braking) - AVEC autopilote et/ou régulateur

Message ajouté par Fly,

Vous pourriez être intéressés par un topic "similaire" qui concerne: le "freinage d'urgence - SANS autopilote"

Messages recommandés

Le 21/09/2025 à 22:27, Thierry.P a dit :

N'oublions pas que les systèmes de sécurité ne prennent aucun risque: Ils voient un danger potentiel, ils réagissent instantanément selon des seuils préfixés. 

C'est pour ça que la tesla ralentit quand une voiture change de voie, par exemple les voies de sorties d'autoroute : est-ce la route que doit prendre la tesla, y a-t-il une erreur de trajet actuel ? 

Pour en revenir à MON expérience (apparemment, je dois le répéter à chaque fois), j'ai moi aussi été surpris de voir des piétons juste après avoir dépassé le véhicule. Ils n'avançaient pas, mais dans les dixième seconde, la Tesla a décidé qu'il y avait un risque. Et un risque suppose un freinage. Un humain prends le risque, le système expert , non, et c'est une bonne chose. 

Non non non: on ne parle pas d'un système qui est excessivement prudent (surtout pas chez Tesla ! 🙃), mais une mauvaise appréciation et/ou un système qui est mal conçu. Ca m'est déjà arrivé que la Tesla mette un coup de frein pour un véhicule qui déboite brutalement juste derrière moi sur l'autoroute alors que sa voie d'insertion était vide. C'est juste la réaction la plus débile est la plus dangereuse qu'il pouvait prendre (c'est également mon expérience personnelle, mais si j'en crois le rapport, c'est un cas assez proche de l'accident du taxi).

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 21/09/2025 à 22:27, Thierry.P a dit :

N'oublions pas que les systèmes de sécurité ne prennent aucun risque: Ils voient un danger potentiel, ils réagissent instantanément selon des seuils préfixés. 

C'est pour ça que la tesla ralentit quand une voiture change de voie, par exemple les voies de sorties d'autoroute : est-ce la route que doit prendre la tesla, y a-t-il une erreur de trajet actuel ? 

C'est impossible de ne "prendre aucun risque" sur une voie publique, entre autres parce que tu ne peux pas anticiper les actions des autres véhicules. C'est même le thème principal du sujet, et la cause de l'appel à témoins récent: freiner brutalement c'est prendre le risque de se faire harponner par l'arrière.

 

Le 21/09/2025 à 22:27, Thierry.P a dit :

Pour en revenir à MON expérience (apparemment, je dois le répéter à chaque fois), j'ai moi aussi été surpris de voir des piétons juste après avoir dépassé le véhicule. Ils n'avançaient pas, mais dans les dixième seconde, la Tesla a décidé qu'il y avait un risque. Et un risque suppose un freinage. Un humain prends le risque, le système expert , non, et c'est une bonne chose. 

Tu le répètes mais le rapport avec la choucroute n'est pas du tout clair: si la voiture freine après le dépassement des piétons, c'est pas de la prudence, c'est une erreur. Dans le cas du taxi c'est ce qui s'est passé. Les piétons ne sont pas apparu brusquement devant la voiture en étant masqués avant.

Si tu as eu des expériences différentes c'est normal, personne ne dit que le système se trompe à chaque fois.

Il faut faire attention aussi au vocabulaire "système expert", "seuil prédéfinis", "règles", etc

Ça sous-entend une programmation procédurale qui n'est plus le mode opératoire de ces systèmes basés sur des réseaux neuronaux entraînés et pas programmés. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 22/09/2025 à 22:56, MrFurieux a dit :

 

 

Tu le répètes mais le rapport avec la choucroute n'est pas du tout clair: si la voiture freine après le dépassement des piétons, c'est pas de la prudence, c'est une erreur. Dans le cas du taxi c'est ce qui s'est passé. Les piétons ne sont pas apparu brusquement devant la voiture en étant masqués avant.

Si tu as eu des expériences différentes c'est normal, personne ne dit que le système se trompe à chaque fois.

Il faut faire attention aussi au vocabulaire "système expert", "seuil prédéfinis", "règles", etc

Ça sous-entend une programmation procédurale qui n'est plus le mode opératoire de ces systèmes basés sur des réseaux neuronaux entraînés et pas programmés. 

C'est difficile de décrire sans dessin le contexte. Mais les piétons n'ont pas été dépassés avant le freinage: Ils sont cachés par un véhicule, la tesla avance, dépasse le véhicule, voit les piétons, freine. Et dans ce cas là, je trouve que le freinage d'urgence s'imposait au système, par mesure de sécurité. 

 

 

Peut être que le mot seuil n'est pas le bon, mais je pense qu'il y a des seuils de sécurité dans tous les programmes, même ceux basés sur des réseaux neuronaux. Le réseau neuronal va servir à l'évaluation du risque et un seuil permet d'identifier si la valeur de risque entraine un freinage léger ou un freinage d'urgence.  Ayant codé des réseaux neuronaux couplés à des systèmes experts, c'est comme cela que l'on a procédé. 

Mais il y en a probablement d'autre. 

Les réponses d'une  IA classique peut par exemple dépendre du seuil de confiance qu'on lui met

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 21/09/2025 à 22:54, MrFurieux a dit :

Ah bon, quand tu écris "Il n'était pas justifié, mais compréhensible: des piétons cachés par une voiture (quine traversent pas)" tu ne parlais pas de l'accident du taxi ? Si c'est pas les piétons sur le côté la cause du déclenchement de l'AEBS, ce serait quoi d'après toi ?

Et encore une fois, si c'est les piétons la cause, le système s'est trompé dans son évaluation car les piétons n'étaient déjà plus atteignables par la voiture au début du freinage. Ou si c'est pas les piétons, alors c'est une hallucination complète.

 

Je te confirme, relis mes interventions, je parlais de mon expérience de freinage d'urgence. 

Et quand je dis que le comprends la réaction du système, il n'en reste pas moins qu'elle était erronée. 

Pour le taxi, personne ne remet en cause que le système s'est trompé. 

Moi, je remets en cause la surréaction qui a suivi, et celle-ci n'est lié à aucun système informatique

Partager ce message


Lien à poster
Partager sur d’autres sites

@MrFurieux quand tu parles d’appel à témoins tu parles bien des autres marques ? Car quand tu lis les commentaires sur les RS un paquet de gens d’autres marques que tesla ont des soucis de freinage fantôme. (Rapport à l’affaire récente qui évoquait des plaintes très nombreuses en france de freinages fantômes ) 

 

tesla en a eu pas mal au début de la transition vers tesla vision mais ils se sont largement améliorés. Les autres marques n’ont pas cette capacité d’amélioration 

Modifié par stagu825

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 23/09/2025 à 11:05, Thierry.P a dit :

C'est difficile de décrire sans dessin le contexte. Mais les piétons n'ont pas été dépassés avant le freinage: Ils sont cachés par un véhicule, la tesla avance, dépasse le véhicule, voit les piétons, freine. Et dans ce cas là, je trouve que le freinage d'urgence s'imposait au système, par mesure de sécurité. 

C'est précisé dans le rapport qui se base à la fois sur les caméras internes et les caméras de la rue. Quand l'AEBS se déclenche, les piétons sont déjà sortis du champ de vision des caméras avant et sont à la hauteur de la voiture. Freiner à ce moment, au mieux c'est inutile, au pire ça laisse une fraction de seconde supplémentaire à un piéton suicidaire pour se jeter sous tes roues...

image.thumb.png.6d359398503a7d5f03fac919b5edf85b.png

 

 

Le 23/09/2025 à 11:05, Thierry.P a dit :

Peut être que le mot seuil n'est pas le bon, mais je pense qu'il y a des seuils de sécurité dans tous les programmes, même ceux basés sur des réseaux neuronaux. Le réseau neuronal va servir à l'évaluation du risque et un seuil permet d'identifier si la valeur de risque entraine un freinage léger ou un freinage d'urgence.  Ayant codé des réseaux neuronaux couplés à des systèmes experts, c'est comme cela que l'on a procédé. 

Mais il y en a probablement d'autre. 

Ici il n'y a plus de système expert, le RN actionne directement les commandes (d'après Tesla). Il peut avoir des seuils internes de réaction mais on ne les connait pas et rien ne dit qu'ils ne dépendant pas de micro-détails du contexte. En pratique la prise de décision est une boîte noire, il n'y a pas explicitement de notion de risque programmée dans le système. C'est directement "capteurs => réaction" et pas "capteurs => valeur de risque => réaction".

 

Le 23/09/2025 à 11:09, Thierry.P a dit :

Je te confirme, relis mes interventions, je parlais de mon expérience de freinage d'urgence. 

Et quand je dis que le comprends la réaction du système, il n'en reste pas moins qu'elle était erronée. 

Pour le taxi, personne ne remet en cause que le système s'est trompé. 

Moi, je remets en cause la surréaction qui a suivi, et celle-ci n'est lié à aucun système informatique

Le conducteur a paniqué, le rapport le dit, le conducteur lui-même le dit aussi. Il n'y a pas de débat sur ce point, dont le seul intérêt AMA est de rappeler que ça peut arriver à tout le monde, vu que c'est arrivé à un professionnel avec 25 ans d'expérience. Mais on peut aussi lui jeter la pierre, chacun fait comme il veut.

Plus intéressant, le rapport dit aussi qu'il y a des problèmes avec l'AEBS et recommande plusieurs actions correctives à Tesla. Perso ce qui m'intéresserait serait de savoir ce que Tesla a fait de ces recommandations. 

Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 23/09/2025 à 11:34, stagu825 a dit :

@MrFurieux quand tu parles d’appel à témoins tu parles bien des autres marques ? Car quand tu lis les commentaires sur les RS un paquet de gens d’autres marques que tesla ont des soucis de freinage fantôme. (Rapport à l’affaire récente qui évoquait des plaintes très nombreuses en france de freinages fantômes ) 

Oui les autres marques

 

Le 23/09/2025 à 11:34, stagu825 a dit :

tesla en a eu pas mal au début de la transition vers tesla vision mais ils se sont largement améliorés. Les autres marques n’ont pas cette capacité d’amélioration 

Les problèmes de transition ont surtout touché les USA à l'été 2021, en Europe la transition a eu lieu en octobre 2021 (de mémoire) au moment où les plus gros problèmes étaient déjà corrigés.

Reste que cette mise à jour de désactivation du radar a dégradé les performances de l'AP qui ne sont jamais revenues au niveau de la version radar pour les temps de réaction (distance mini et vitesse max). Je ne mettrais pas ça dans les points positifs des mises à jour OTA, l'ayant vécu  à l'époque ça m'a bien énervé.

Partager ce message


Lien à poster
Partager sur d’autres sites







×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.