Aller au contenu
J0kers

Évolution de l'autopilot et de la conduite autonome (MàJ 10/2020 avec FSD Beta)

Messages recommandés

Le 10/06/2022 à 16:58, Naboo a dit :

N'étant pas totalement à l'aise avec des textes assez techniques en anglais, je n'ai pas trouvé d’informations allant dans ce sens. De ton côté, oui ?

Non pour l'instant c'est juste des spéculations (entre temps qqun a créé un sujet pour spéculer en groupe ici). Le radar en question devrait arriver prochainement dans un véhicule Tesla, mais lequel on ne sait pas. Il est nettement plus performant que le radar actuel (qui est un vieux machin conçu en 2014), mais nettement plus gros aussi.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 10/06/2022 à 21:16, MrFurieux a dit :

Non pour l'instant c'est juste des spéculations (entre temps qqun a créé un sujet pour spéculer en groupe ici). Le radar en question devrait arriver prochainement dans un véhicule Tesla, mais lequel on ne sait pas. Il est nettement plus performant que le radar actuel (qui est un vieux machin conçu en 2014), mais nettement plus gros aussi.

@Naboo article de Frandroid sur le sujet, la journaliste appelle le document un brevet mais c'est complètement autre chose, c'est une demande d'autorisation de mise sur le marché (en gros)

Partager ce message


Lien à poster
Partager sur d’autres sites

Après 3000 kms d'autoroute et voies rapides ces derniers temps, le constat est imparable: depuis la maj 2022.12.3.2 sur ma SR + de juin 2021:

- enclencher l'autopilot et tenir nonchalamment le volant, position main gauche à 12h40 ou bien main droite à 12h20, ou bien les 2, et du coup  fini les rappels intempestifs et pénibles pour dire de tenir le volant. Une demi heure sur autoroute peu fréquentée et we sans camion sans la moindre alerte. Impossible auparavant. Plus rien à voir, même avec un serrage très léger d'une seule main. 

- aucun freinage fantôme, même dans les conditions "idéales" pour qu'il se produise, et même pas à certains endroits où ils aimaient se manifester (rarement quand même).

 

 Donc suis ravi de cette mise à jour et je peux enfin utiliser une fonction qui me semblait bien perfectible jusqu'ici. Ces mises à jour logicielles sont quand même un sacré atout de cette marque (du moins quand elles apportent un réel progrès, qui me semble considérable en ce cas précis). 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/06/2022 à 01:57, Dinky a dit :

Après 3000 kms d'autoroute et voies rapides ces derniers temps, le constat est imparable: depuis la maj 2022.12.3.2 sur ma SR + de juin 2021:

- enclencher l'autopilot et tenir nonchalamment le volant, position main gauche à 12h40 ou bien main droite à 12h20, ou bien les 2, et du coup  fini les rappels intempestifs et pénibles pour dire de tenir le volant. Une demi heure sur autoroute peu fréquentée et we sans camion sans la moindre alerte. Impossible auparavant. Plus rien à voir, même avec un serrage très léger d'une seule main. 

- aucun freinage fantôme, même dans les conditions "idéales" pour qu'il se produise, et même pas à certains endroits où ils aimaient se manifester (rarement quand même).

 

 Donc suis ravi de cette mise à jour et je peux enfin utiliser une fonction qui me semblait bien perfectible jusqu'ici. Ces mises à jour logicielles sont quand même un sacré atout de cette marque (du moins quand elles apportent un réel progrès, qui me semble considérable en ce cas précis). 

 

Pareil, en 2021, l'autopilote & l'autopilote amélioré étaient quasi inutilisables. Aujourd'hui, c'est le top : les dépassements sont propres, les sorties d'autoroute ne freinent plus bcp trop tôt avant la sortie notamment. 

Le point problématique reste les freinage sur un virage serré mais ça c'est la réglementation européenne..

Partager ce message


Lien à poster
Partager sur d’autres sites

Euh je n’ai jamais eu d’alertes depuis le début, l’astuce avec la position de la main marchait déjà avant, je ne sais pas depuis combien de temps vous avez votre model 3 mais l’autopilot de base fonctionnait bien mieux avant (mon point de vue) pour information il y a déjà un topic sur les mises à jour et l’autopilot 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/06/2022 à 12:24, jimbo1980 a dit :

Euh je n’ai jamais eu d’alertes depuis le début, l’astuce avec la position de la main marchait déjà avant, je ne sais pas depuis combien de temps vous avez votre model 3 mais l’autopilot de base fonctionnait bien mieux avant (mon point de vue) pour information il y a déjà un topic sur les mises à jour et l’autopilot 

Bonjour, la voiture est de juin 21 comme je l'ai indiqué. Je poste en nouveau sujet car je l'ai déjà fait sur celui des mises à jour mais il a semblé avoir une portée très limitée. Et j'estime de mon point de vue que c'est le changement le plus important depuis que j'ai la voiture, achetée en grande partie pour l'autopilot, et que je considérais jusque là comme quasi inutilisable, à cause des rappels incessants, alors qu'aujourd'hui ce n'est plus le cas. Et j'ai testé sur 3000 kms en beaucoup de conditions différentes. Mais bien sûr chacun son ressenti. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Idem que @jimbo1980. J'ai une Q1 2021. Jamais eu de pb avec le TACC + AS. Freinages fantômes très rares (moins de 10 depuis que j'ai la voiture). Quelques rappels intempestifs mais c'est effectivement quand j'ai la main qui n'appuie pas assez. D'autant plus tolérable que j'avais très rapidement désactivé les rappels sonores pour ne laisser que le visuel (gain très notable en confort avec réglage, l'as-tu configuré ainsi ?)

 

Il est vrai que 95% de mon utilisation de ces deux fonctions c'est de l'autoroute.

Modifié par ParkerLewis

Partager ce message


Lien à poster
Partager sur d’autres sites

Sur ma TM3 avec FSD, je trouve que l'autopilot dans ses capacités actuelles n'est même pas au niveau de ce que peuvent faire les constructeurs traditionnels avec leur Niveau 2. Mon ancienne Focus de 2019 était plus efficace en conduite autonome (niveau 2), elle lisait mieux les panneaux, sa gestion du trafic plus agile et son maintien dans la voie bien plus sécurisant que la TM3.

J'attends la fameuse update qui libèrera notre FSD, mais pour le moment c'est zéro, même sur les créneaux la Tesla est capricieuse...

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/06/2022 à 14:31, ParkerLewis a dit :

Idem que @jimbo1980. J'ai une Q1 2021. Jamais eu de pb avec le TACC + AS. Freinages fantômes très rares (moins de 10 depuis que j'ai la voiture). Quelques rappels intempestifs mais c'est effectivement quand j'ai la main qui n'appuie pas assez. D'autant plus tolérable que j'avais très rapidement désactivé les rappels sonores pour ne laisser que le visuel (gain très notable en confort avec réglage, l'as-tu configuré ainsi ?)

 

Il est vrai que 95% de mon utilisation de ces deux fonctions c'est de l'autoroute.

"Quelques rappels intempestifs mais c'est effectivement quand j'ai la main qui n'appuie pas assez".

C'est exactement ce que je veux dire: il n'y plus de rappels intempestifs quand la main n'appuie pas beaucoup. Une légère pression suffit amplement. Et ça change tout 😀

Partager ce message


Lien à poster
Partager sur d’autres sites

Je me permet de repost depuis un autre forum une info intéressante

 

Citation

ça commence a chauffer pour Tesla et son Autopilot

Comme toujours aux USA, Tesla a pu commercialiser facilement son système par auto certification : pas de test d'homologation a passer comme en Europe mais présenter un dossier de sécurité déclaratif présentant le concept de sécurité et les performances du système

C'est quand il y a des problèmes que l'enquête et l'audit du dossier en question commence
Et c'est ce qui se produit. Parmi les différents accidents, ceux qui ont retenu l'attention de l'administration sont les 16 cas ou une Tesla a embouti des véhicules de secours (ambulance , pompiers ou police) en intervention

L'enquête en cours cherche a montrer que quand l'autopilot est actif, même si la voiture "surveille" le conducteur (mains sur le volant, caméra faciale...) cela ne suffit pas a vérifier que le conducteur est vraiment attentif... et que dans la réalité il ne l'est pas
Cela ressemble a enfoncer une porte ouverte tellement c'est évident. Mais l'enquête qui est passée a l'étude d'engineering (des experts analysent les enregistrements et les software de la Tesla) a montré un fait troublant:
La voiture désactive systématiquement l'Autopilot moins d'une seconde avant le choc (donc sans laisser aucune chance au conducteur de reprendre le contrôle)
or tesla pour sa défense a chaque fois brandit des enregistrement montrant qu'au moment du choc l'Autopilot n'était pas actif et que c'est donc 100% la responsabilité du conducteur

Il s'agit clairement d'un argument de mauvaise foi caractérisée (digne du dieselgate)... La pire faute dans le système judiciaire américain.
La NHTSA menace d'un rappel général de toutes les Tesla, et cette fois pas a distance et sous le contrôle direct de l'administration

Pas de doute tesla est en train de devenir un  constructeur comme les autres


Extrait du magazine Fortune
Teslas with partially automated driving systems are a step closer to being recalled after the U.S. elevated its investigation into a series of collisions with parked emergency vehicles or trucks with warning signs.

The National Highway Traffic Safety Administration said Thursday that it is upgrading the Tesla probe to an engineering analysis, another sign of increased scrutiny of the electric vehicle maker and automated systems that perform at least some driving tasks.

An engineering analysis is the final stage of an investigation, and in most cases NHTSA decides within a year if there should be a recall or the probe should be closed.

Documents posted Thursday by the agency raise some serious issues about Tesla's Autopilot system. The agency found that it's being used in areas where its capabilities are limited, and that many drivers aren't taking action to avoid crashes despite warnings from the vehicle.

The probe now covers 830,000 vehicles, almost everything that the Austin, Texas, carmaker has sold in the U.S. since the start of the 2014 model year.

NHTSA reported that it has found 16 crashes into emergency vehicles and trucks with warning signs, causing 15 injuries and one death.

Investigators will evaluate additional data, vehicle performance and “explore the degree to which Autopilot and associated Tesla systems may exacerbate human factors or behavioral safety risks undermining the effectiveness of the driver's supervision," the agency said.

In the majority of the 16 crashes, the Teslas issued forward collision alerts to the drivers just before impact. Automatic emergency braking intervened to at least slow the cars in about half the cases. On average, Autopilot gave up control of the Teslas less than a second before the crash, NHTSA said in documents detailing the probe.

NHTSA also said it's looking into crashes involving similar patterns that did not include emergency vehicles or trucks with warning signs.

The agency found that in many cases, drivers had their hands on the steering wheel as Tesla requires, yet they failed to take action to avoid a crash. This suggests that drivers are complying with Tesla's system that makes them keep hands on the wheel, the agency wrote. Yet this doesn't necessarily make sure they're paying attention.

In crashes were video is available, drivers should have seen first responder vehicles an average of eight seconds before impact, the agency wrote.

The agency will have to decide if there is a safety defect with Autopilot before pursuing a recall.

Investigators also wrote that a driver's use or misuse of the driver monitoring system “or operation of a vehicle in an unintended manner does not necessarily preclude a system defect.”

The agency document all but says Tesla’s method of making sure drivers pay attention isn’t good enough and that it has a safety defect that should be recalled, said Bryant Walker Smith, a University of South Carolina law professor who studies automated vehicles.

“It is really easy to have a hand on the wheel and be completely disengaged from driving,” he said. Monitoring a driver's hand position is not effective because it only measures a physical position. “It is not concerned with their mental capacity, their engagement or their ability to respond."

Similar systems from other companies such as General Motors' Super Cruise use infrared cameras to watch a driver's eyes to ensure they're looking forward. But even these may still allow a driver to zone out, Walker Smith said.

“This is confirmed in study after study,” he said. “This is established fact that people can look engaged and not be engaged. You can have your hand on the wheel and you can be looking forward and not have the situational awareness that's required.”

In total, the agency looked at 191 crashes but removed 85 of them because other drivers were involved or there wasn’t enough information to do a definite assessment. Of the remaining 106, the main cause of about one-quarter of the crashes appears to be running Autopilot in areas where it has limitations, or conditions can interfere with its operations. “For example, operation on roadways other than limited access highways, or operation in low traction or visibility environments such as rain, snow or ice,” the agency wrote.

Other automakers limit use of their systems to limited-access divided highways.

The National Transportation Safety Board, which also has investigated some of the Tesla crashes dating to 2016, has recommended that NHTSA and Tesla limit Autopilot’s use to areas where it can safely operate. The NTSB also recommended that NHTSA require Tesla to have a better system to make sure drivers are paying attention. NHTSA has yet to take action on the recommendations. The NTSB has no enforcement powers and can only make recommendations to other federal agencies.

In 2020 the NTSB blamed Tesla, drivers and lax regulation by NHTSA for two collisions in which Teslas on Autopilot crashed beneath crossing tractor-trailers. The NTSB took the unusual step of accusing NHTSA of contributing to the crash for failing to make sure automakers put safeguards in place to limit use of electronic driving systems.

The NTSB made the determinations after investigating a 2019 crash in Delray Beach, Florida, in which the 50-year-old driver of a Tesla Model 3 was killed. The car was driving on Autopilot when neither the driver nor the Autopilot system braked or tried to avoid a tractor-trailer crossing in its path.

In a statement, NHTSA said there aren’t any vehicles available for purchase today that can drive themselves. “Every available vehicle requires the human driver to be in control at all times, and all state laws hold the human driver responsible for operation of their vehicles,” the agency said.

Driver-assist systems can help avoid crashes but must be used correctly and responsibly, the agency said.

Tesla did an online update of Autopilot software last fall to improve detection of emergency vehicle lights in low-light conditions. NHTSA has asked why the company didn't do a recall.

NHTSA began its inquiry in August of last year after a string of crashes since 2018 in which Teslas using the company's Autopilot or Traffic Aware Cruise Control systems hit vehicles at scenes where first responders used flashing lights, flares, an illuminated arrow board, or cones warning of hazards.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 17/06/2022 à 14:45, simK a dit :

La voiture désactive systématiquement l'Autopilot moins d'une seconde avant le choc (donc sans laisser aucune chance au conducteur de reprendre le contrôle)
or tesla pour sa défense a chaque fois brandit des enregistrement montrant qu'au moment du choc l'Autopilot n'était pas actif et que c'est donc 100% la responsabilité du conducteur

 

Le 08/06/2022 à 12:05, Busquet2 a dit :

C'est bien ambigüe cette histoire. Comment prouver que le système ne t'a pas demandé de reprendre la main sachant que le système te demandera forcément de reprendre la main en cas de problème 🤔

🙃

Partager ce message


Lien à poster
Partager sur d’autres sites

Citation

Il s'agit clairement d'un argument de mauvaise foi caractérisée (digne du dieselgate)... La pire faute dans le système judiciaire américain.

Attention quand même à ne pas sauter une étape. La source que tu cites ne parle pas de mauvaise foi. Ce serait clairement une mauvaise foi démontrée en mettant en face pour un accident donné une déclaration de Tesla comme quoi l'AP n'était pas engagé et une preuve que l'AP s'est désengagé juste avant le crash. C'est vrai qu'il arrive que Tesla dise que l'AP n'était pas engagé, mais pas "à chaque fois" comme tu dis.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

J'ai mis en citation l'entièreté d'un post issu d'un autre forum :) (c'est d'ailleurs littéralement expliqué en début de post)

Je n'ai donc pas pris la liberté d'en modifier le contenu. Ce passage ne reflète donc pas ma position personnelle.

 

Maintenant ça sera à la NHTSA de trancher (le scandale de l'auto certification Boeing étant passé par là) si il y a un réel problème de sécurité ou non.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 17/06/2022 à 15:10, simK a dit :

J'ai mis en citation l'entièreté d'un post issu d'un autre forum :) (c'est d'ailleurs littéralement expliqué en début de post)

Je n'ai donc pas pris la liberté d'en modifier le contenu. Ce passage ne reflète donc pas ma position personnelle.

 

Maintenant ça sera à la NHTSA de trancher (le scandale de l'auto certification Boeing étant passé par là) si il y a un réel problème de sécurité ou non.

Oui c'est "comme le post que tu as cité dit", pardon.

A noter qu'il n'y a pas que la NHSTA qui est impliquée mais aussi l'agence de tutelle (NTSB) qui lui a déjà publiquement tiré les oreilles l'année dernière.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 17/06/2022 à 15:04, simK a dit :

D'ailleurs cela peut aussi donner raison au chauffeur de taxi de Paris qui a porté plainte contre Tesla, qui lui avait répondu qu'il était seul responsable.

Euh, aucun rapport. Si l'autopilot est capable de faire ce qu'a fait le taxi à Paris, Tesla peut mettre l'autopilot à la poubelle, voir plus.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le plus grand danger de l'autopilot, c'est l'utilisation qu'en fait le conducteur.

Il suffit d'avoir suffisamment de jugeote pour être conscient que ce n'est qu'une aide à utiliser dans des cas précis et en gardant toute sa vigilance.

Il ne me viendrait pas à l'idée de l'activer dans une zone de travaux, une zone urbaine, une route étroite et sinueuse ou quand je vois un gros accident sur la route.

C'est juste du bon sens, il faut le prendre pour ce qu'il est et ne pas le laisser dans toutes les conditions.

Je pense que le souci est le même pour tous les systèmes équivalents, la seule différence, c'est l'échelle d'utilisation: toutes les Tesla en sont équipées et les gens l'utilisent fortement. Ca reste encore très souvent optionnel ou uniquement sur les HDG dans les marques concurrentes. Forcément, on trouvera plus de cas douteux chez Tesla.

On peut aussi rajouter le profil des usagers, Tesla attire beaucoup de geek et/ou d'amateurs de performances, autant de gens un peu plus confiants (trop) que la moyenne dans ce genre de comportements.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 17/06/2022 à 15:38, Busquet2 a dit :

Euh, aucun rapport. Si l'autopilot est capable de faire ce qu'a fait le taxi à Paris, Tesla peut mettre l'autopilot à la poubelle, voir plus.

Jusqu'à preuve du contraire un logiciel n'est pas à même de raisonner, un autopilot peut tout à fait avoir des failles et perso je suis plutôt adepte de la loi de Murphy.

 

Et encore plus en informatique, aucun bug n'est impossible, même si ils ont sans doute été corrigés depuis pour la plupart.

 

 

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 17/06/2022 à 18:52, simK a dit :

Jusqu'à preuve du contraire un logiciel n'est pas à même de raisonner, un autopilot peut tout à fait avoir des failles et perso je suis plutôt adepte de la loi de Murphy.

Dans le sens courant de "raisonner", un logiciel a tendance à mieux raisonner qu'un humain. Pour ce qui est de se tromper, tout est possible donc balle au centre - la loi de Murphy dit aussi que le conducteur peut se tromper de pédale. Ce qui fait que c'est hors sujet c'est que le taxi n'était pas en AP au moment de l'accident.

 

Le 17/06/2022 à 18:52, simK a dit :

Et encore plus en informatique, aucun bug n'est impossible, même si ils ont sans doute été corrigés depuis pour la plupart.

Oui c'est un gros problème avec les enquêtes administratives, depuis l'accident des milliers de bugs ont été corrigés et ajoutés, enquêter des années après ça a un sens seulement si les véhicules n'évoluent pas entre l'accident et la conclusion de l'enquête. Ça risque de se terminer comme dans l'aviation avec des certifications pour chaque mise à jour, et ce ne serait pas déconnant.

Partager ce message


Lien à poster
Partager sur d’autres sites

A propos du FSD, une petite déclaration en passant d'Elon Musk cette semaine

 

Transcription:

Citation

but the the but the overwhelming focus is is solving full self-driving so um yeah and that that's essential and like that's really the difference between tesla uh being worth a lot of money and being worth basically zero yeah yeah

C'est aussi pour cette capacité à faire transpirer les investisseurs qu'on l'aime...
Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 17/06/2022 à 18:52, simK a dit :

et perso je suis plutôt adepte de la loi de Murphy.

J'ai regardé ton profil après avoir vu que tu avais posté 17 messages.

Donc tu ne roules pas en VE avec une tendance anti Tesla et l'Autopilot t'intrigue , tu te méfies des aides à la conduite (sans les avoir testés), rien de plus normal que tu penses d'une certaine manière.

A+

Modifié par Busquet2

Partager ce message


Lien à poster
Partager sur d’autres sites

Encore un qui est très soucieux de la sécurité des tesla … tout en les détestant (pour une raison que tout le monde ignore)

C’est bien ce monde pleine de gens pleins d’empathie 😉

Modifié par Bart

Partager ce message


Lien à poster
Partager sur d’autres sites





×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.