Aller au contenu
Kratos

Freinage fantôme (Phantom Braking) - AVEC autopilote et/ou régulateur

Message ajouté par Fly,

Vous pourriez être intéressés par un topic "similaire" qui concerne: le "freinage d'urgence - SANS autopilote"

Messages recommandés

Le 21/09/2025 à 22:27, Thierry.P a dit :

N'oublions pas que les systèmes de sécurité ne prennent aucun risque: Ils voient un danger potentiel, ils réagissent instantanément selon des seuils préfixés. 

C'est pour ça que la tesla ralentit quand une voiture change de voie, par exemple les voies de sorties d'autoroute : est-ce la route que doit prendre la tesla, y a-t-il une erreur de trajet actuel ? 

Pour en revenir à MON expérience (apparemment, je dois le répéter à chaque fois), j'ai moi aussi été surpris de voir des piétons juste après avoir dépassé le véhicule. Ils n'avançaient pas, mais dans les dixième seconde, la Tesla a décidé qu'il y avait un risque. Et un risque suppose un freinage. Un humain prends le risque, le système expert , non, et c'est une bonne chose. 

Non non non: on ne parle pas d'un système qui est excessivement prudent (surtout pas chez Tesla ! 🙃), mais une mauvaise appréciation et/ou un système qui est mal conçu. Ca m'est déjà arrivé que la Tesla mette un coup de frein pour un véhicule qui déboite brutalement juste derrière moi sur l'autoroute alors que sa voie d'insertion était vide. C'est juste la réaction la plus débile est la plus dangereuse qu'il pouvait prendre (c'est également mon expérience personnelle, mais si j'en crois le rapport, c'est un cas assez proche de l'accident du taxi).

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 21/09/2025 à 22:27, Thierry.P a dit :

N'oublions pas que les systèmes de sécurité ne prennent aucun risque: Ils voient un danger potentiel, ils réagissent instantanément selon des seuils préfixés. 

C'est pour ça que la tesla ralentit quand une voiture change de voie, par exemple les voies de sorties d'autoroute : est-ce la route que doit prendre la tesla, y a-t-il une erreur de trajet actuel ? 

C'est impossible de ne "prendre aucun risque" sur une voie publique, entre autres parce que tu ne peux pas anticiper les actions des autres véhicules. C'est même le thème principal du sujet, et la cause de l'appel à témoins récent: freiner brutalement c'est prendre le risque de se faire harponner par l'arrière.

 

Le 21/09/2025 à 22:27, Thierry.P a dit :

Pour en revenir à MON expérience (apparemment, je dois le répéter à chaque fois), j'ai moi aussi été surpris de voir des piétons juste après avoir dépassé le véhicule. Ils n'avançaient pas, mais dans les dixième seconde, la Tesla a décidé qu'il y avait un risque. Et un risque suppose un freinage. Un humain prends le risque, le système expert , non, et c'est une bonne chose. 

Tu le répètes mais le rapport avec la choucroute n'est pas du tout clair: si la voiture freine après le dépassement des piétons, c'est pas de la prudence, c'est une erreur. Dans le cas du taxi c'est ce qui s'est passé. Les piétons ne sont pas apparu brusquement devant la voiture en étant masqués avant.

Si tu as eu des expériences différentes c'est normal, personne ne dit que le système se trompe à chaque fois.

Il faut faire attention aussi au vocabulaire "système expert", "seuil prédéfinis", "règles", etc

Ça sous-entend une programmation procédurale qui n'est plus le mode opératoire de ces systèmes basés sur des réseaux neuronaux entraînés et pas programmés. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 22/09/2025 à 22:56, MrFurieux a dit :

 

 

Tu le répètes mais le rapport avec la choucroute n'est pas du tout clair: si la voiture freine après le dépassement des piétons, c'est pas de la prudence, c'est une erreur. Dans le cas du taxi c'est ce qui s'est passé. Les piétons ne sont pas apparu brusquement devant la voiture en étant masqués avant.

Si tu as eu des expériences différentes c'est normal, personne ne dit que le système se trompe à chaque fois.

Il faut faire attention aussi au vocabulaire "système expert", "seuil prédéfinis", "règles", etc

Ça sous-entend une programmation procédurale qui n'est plus le mode opératoire de ces systèmes basés sur des réseaux neuronaux entraînés et pas programmés. 

C'est difficile de décrire sans dessin le contexte. Mais les piétons n'ont pas été dépassés avant le freinage: Ils sont cachés par un véhicule, la tesla avance, dépasse le véhicule, voit les piétons, freine. Et dans ce cas là, je trouve que le freinage d'urgence s'imposait au système, par mesure de sécurité. 

 

 

Peut être que le mot seuil n'est pas le bon, mais je pense qu'il y a des seuils de sécurité dans tous les programmes, même ceux basés sur des réseaux neuronaux. Le réseau neuronal va servir à l'évaluation du risque et un seuil permet d'identifier si la valeur de risque entraine un freinage léger ou un freinage d'urgence.  Ayant codé des réseaux neuronaux couplés à des systèmes experts, c'est comme cela que l'on a procédé. 

Mais il y en a probablement d'autre. 

Les réponses d'une  IA classique peut par exemple dépendre du seuil de confiance qu'on lui met

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 21/09/2025 à 22:54, MrFurieux a dit :

Ah bon, quand tu écris "Il n'était pas justifié, mais compréhensible: des piétons cachés par une voiture (quine traversent pas)" tu ne parlais pas de l'accident du taxi ? Si c'est pas les piétons sur le côté la cause du déclenchement de l'AEBS, ce serait quoi d'après toi ?

Et encore une fois, si c'est les piétons la cause, le système s'est trompé dans son évaluation car les piétons n'étaient déjà plus atteignables par la voiture au début du freinage. Ou si c'est pas les piétons, alors c'est une hallucination complète.

 

Je te confirme, relis mes interventions, je parlais de mon expérience de freinage d'urgence. 

Et quand je dis que le comprends la réaction du système, il n'en reste pas moins qu'elle était erronée. 

Pour le taxi, personne ne remet en cause que le système s'est trompé. 

Moi, je remets en cause la surréaction qui a suivi, et celle-ci n'est lié à aucun système informatique

Partager ce message


Lien à poster
Partager sur d’autres sites

@MrFurieux quand tu parles d’appel à témoins tu parles bien des autres marques ? Car quand tu lis les commentaires sur les RS un paquet de gens d’autres marques que tesla ont des soucis de freinage fantôme. (Rapport à l’affaire récente qui évoquait des plaintes très nombreuses en france de freinages fantômes ) 

 

tesla en a eu pas mal au début de la transition vers tesla vision mais ils se sont largement améliorés. Les autres marques n’ont pas cette capacité d’amélioration 

Modifié par stagu825

Partager ce message


Lien à poster
Partager sur d’autres sites







×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.