Aller au contenu
J0kers

Évolution de l'autopilot et de la conduite autonome (MàJ 10/2020 avec FSD Beta)

Messages recommandés

Le 03/10/2021 à 22:35, StepB13 a dit :

Oui, il faut rester attentif. Non, l'autopilot n'est pas dangereux.

Je rajoute aussi la protection contre les collisions frontales qui est de base sur cette voiture.

Aujourd’hui encore ma pédale de frein s’est enfoncée sous mon pied parce qu’une voiture a pilé devant moi. Bien sûr, je n’aurais pas freiné autant mais c’est réconfortant pour moi d’avoir une telle assistance.

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est étonnant que certaines autos semblent plus sujet que d'autres aux freinages fantômes. J'en ai eu quelques uns au début, et depuis au moins deux mois je n'en ai pas eu. Idem, chez moi les essuie-glaces auto fonctionnent parfaitement, à la moindre gouttelette ce qui ne semble pas le cas de tous. Pourtant on tous les mêmes capteur et les mêmes logiciels (en gros)...?

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 04/10/2021 à 07:50, pistache a dit :

De nuit ?

Bonne question, j'ai pas souvenir de problèmes la nuit, mais j'ai pas non plus souvenirs de pluie la nuit... Après j'ai eu une grosse pluie l'autre jour le matin (nuit légère) et ça a fonctionné. J'y ferais attention.
Les "plein phares" auto sont plus "bizarres", elle ne me les mets quasiment jamais... Elle me les as mis hier... en ville dans un endroit bien éclairé, mais elle les as coupés avant de croiser quelqu'un...

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 03/10/2021 à 22:35, StepB13 a dit :

Franchement vous exagérez, c'est limite fake news un tel post.
Oui, il arrive quelques freinages surprenants, mais avec l'attention requise sur la route, un tout petit appui sur l'accélérateur et c'est réglé.
J'utilise l'autopilot autant que possible, autoroute comme départementales et parfois en ville, je n'ai eu aucun problème dangereux avec, en 35.000km.
Oui, il faut rester attentif. Non, l'autopilot n'est pas dangereux.
Sauf si le conducteur n'est pas attentif, mais  là, c'est le conducteur qui est dangereux. Comme dans nombre d'accidents que l'on voit sur les polémiques, si le conducteur avait freiné ou juste repris le contrôle, ces accidents ne seraient pas arrivés

Et non ce n est pas une fake news ! Juste ma propre expérience qui n engage que moi.  Je juge ce système trop dangereux pour moi. C est mon ressenti et je pense avoir le droit de m exprimer sans être cataloguer par un fan boy de relayeur de fake news ! 

Merci 

Partager ce message


Lien à poster
Partager sur d’autres sites

Ce n'est peut-être pas le bon endroit pour poster l'info... E. Musk veut vendre la technologie Autopilot aux autres constructeurs, c'est Electrek qui relève l'info :

"I think Tesla’s open to licensing autonomy because I think autonomy will be such a significant lifesaver and preventer of injuries that it is not a technology we want to keep to ourselves. So, I think it will be morally right to license it to other manufacturers if they would like to use it."

https://electrek.co/2021/10/08/tesla-share-full-self-driving-other-automakers-when-it-has-yet-to-deliver-it-people-who-paid-for-it/#more-205253

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 08/10/2021 à 21:31, mcwana a dit :

Ce n'est peut-être pas le bon endroit pour poster l'info... E. Musk veut vendre la technologie Autopilot aux autres constructeurs, c'est Electrek qui relève l'info :

"I think Tesla’s open to licensing autonomy because I think autonomy will be such a significant lifesaver and preventer of injuries that it is not a technology we want to keep to ourselves. So, I think it will be morally right to license it to other manufacturers if they would like to use it."

https://electrek.co/2021/10/08/tesla-share-full-self-driving-other-automakers-when-it-has-yet-to-deliver-it-people-who-paid-for-it/#more-205253

 

Cela fait un petit moment déjà qu'Elon envisage cela. Article de janvier 2021 :
https://www.usine-digitale.fr/article/tesla-envisagerait-de-commercialiser-autopilot-aupres-d-autres-constructeurs-automobiles.N1054519

Modifié par lesommer35

Partager ce message


Lien à poster
Partager sur d’autres sites

Un des premiers tests avec le FSD beta 10.2 ici.

Et au bout de 58 secondes de conduite la machine fonce droit sur une barricade qu'elle n'a pas "vu" (photo ci-dessous à 50 km/h au moment où l'examinateur va faire un freinage d'urgence)

 

image.png.035a147054f376dffc3922b63d710555.png

 

Et donc c'est la version qui va commencer à être plus largement déployée cette semaine. Alors que le contexte aux USA est que les régulateurs sont chauffés à blanc par les provocs continuelles d'E Musk, sans parler des concurrents et de la presse.

Au premier accident grave c'est game over pour le FSD, au point qu'on se demande si le but n'est pas que le bidule soit flingué par les autorités pour ne pas admettre une défaite technique. Les paris sont ouverts...

Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 11/10/2021 à 21:15, MrFurieux a dit :

Au premier accident grave c'est game over pour le FSD, au point qu'on se demande si le but n'est pas que le bidule soit flingué par les autorités pour ne pas admettre une défaite technique.

Direct le complot. 🙃

 

Cela dit, c’est vrai que l’exemple de cette vidéo fait peur. Faut espérer que c’est pas un bug général de cette bêta en effet. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 11/10/2021 à 21:15, MrFurieux a dit :

Un des premiers tests avec le FSD beta 10.2 ici.

Et au bout de 58 secondes de conduite la machine fonce droit sur une barricade qu'elle n'a pas "vu" (photo ci-dessous à 50 km/h au moment où l'examinateur va faire un freinage d'urgence)

Lié au passage au pure-vision ? Le radar ?

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 11/10/2021 à 21:59, nicolinux a dit :

Direct le complot. 🙃

 

Cela dit, c’est vrai que l’exemple de cette vidéo fait peur. Faut espérer que c’est pas un bug général de cette bêta en effet. 

Une autre pour la route. Là c'est l'option "je tourne à gauche mais dans la voie des voitures qui arrivent en face, oups".

Il ne s'agit pas d'un complot, c'est juste que les gens chez Tesla qui voient la même chose que nous ne sont pas stupides et envisagent forcément la possibilité d'un accident. Avec une diffusion élargie, c'est davantage une forte probabilité qu'une possibilité AMA, donc que peut-on en conclure ?

Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 11/10/2021 à 21:59, nicolinux a dit :

Cela dit, c’est vrai que l’exemple de cette vidéo fait peur. Faut espérer que c’est pas un bug général de cette bêta en effet. 

Il est clair que les situations de travaux, routes barrées, déviations …. n’ont aucune signalisation standard et ne pourront jamais faire l’objet d’un traitement automatique avec quelques senseurs que ce soit.

Nul besoin de se gausser ou de prendre peur devant de tels scénarios. Même sur des circuits fermés comme les voies ferrées, il y a des zones où les automatismes sont coupés et les conducteurs avancent en manuel.

Je pense qu’il vaut mieux juger de l’avancée d’un FSD avec une amélioration dans les situations classiques. Tout ce qui va dans le sens de renforcer la prise en compte des situations "a-normales" est pour moi contre productif. C’est d’ailleurs ce qui a produit les freinages fantômes si décriés à juste titre.

Partager ce message


Lien à poster
Partager sur d’autres sites

Il est clair que les situations de travaux, routes barrées, déviations …. n’ont aucune signalisation standard et ne pourront jamais faire l’objet d’un traitement automatique avec quelques senseurs que ce soit.


Si un humain peut gérer ces situations il n’y aucune raison que la machine ne sache pas en faire de même à terme. C’est justement le modèle défendu par Tesla qui est basé sur la vision et donc utilise les mêmes «capteurs» qu’un humain.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/10/2021 à 00:01, lithium73fr a dit :

Si un humain peut gérer ces situations il n’y aucune raison que la machine ne sache pas en faire de même à terme

Tout dépend où tu places le "terme"...

Mais la situation était si étrange et imprévue que même l'humain s'il ne connait pas l'endroit hésite s'y reprend à plusieurs fois pour finalement "découvrir" la bonne route. Une telle signalisation aussi médiocre n'est pas vraiment au niveau mais continuera à perdurer longtemps.

Alors si nous voulons des voitures qui avancent un peu nous devons tolérer (et sans doute pour longtemps) ces imperfections d'automatisation.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 11/10/2021 à 23:22, Samsaggace a dit :

Il est clair que les situations de travaux, routes barrées, déviations …. n’ont aucune signalisation standard et ne pourront jamais faire l’objet d’un traitement automatique avec quelques senseurs que ce soit.

Pourtant si, le FSD en bêta est censé gérer cette situation comme tous les autres. D’ailleurs, après la frayeur initiale sur la vidéo, la conduite autonome reprend alors qu’on est encore au milieu des travaux et sur la voie en contresens, comme l’indiquent les flèches au sol, mais l’Autopilot gère très bien… avant de rendre la main à nouveau à la fin des travaux ce qui me laisse plus penser à un gros bug dans cette version précise. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/10/2021 à 00:01, lithium73fr a dit :

 


Si un humain peut gérer ces situations il n’y aucune raison que la machine ne sache pas en faire de même à terme. C’est justement le modèle défendu par Tesla qui est basé sur la vision et donc utilise les mêmes «capteurs» qu’un humain.

 

Ton hypothèse part du principe que du machine learning peut réfléchir aussi bien qu'un humain ...

C'est loin d'être démontré. En mode nominal, on peut arriver à des résultats proches. Mais dans tous les cas tordus, bizarres, un humain va essayer de trouver une solution parfois "limite" en essayant de choisir la moins pire via une sorte d'analyse bénéfice/risque. Ce n'est pas toujours la bonne décision, mais dans des cas comme ça, une IA arrêtera la voiture au milieu de la route (au mieux) ou fera n'importe quoi.

Concrètement, on n'est pas près de s'abandonner au FSD sans plus rien superviser, il y a intérêt à être toujours prêt à reprendre la main. Ca arrivera de moins en moins souvent, probablement, mais quand ça arrivera, c'est que la situation sera scabreuse.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/10/2021 à 08:48, Bart a dit :

C'est loin d'être démontré.

Mais c'est bien l'objectif de Tesla pourtant. Et les bêtas FSD prouvent qu'il y a ce comportement dans de nombreux cas : la voiture sait gérer les travaux, anticiper les piétons qui pourraient vouloir traverser ou encore gérer l'impossibilité de respecter l'itinéraire prévu en amont pour une raison ou une autre.

 

Tout ça n'est pas encore parfait, mais quand on regarde les vidéos des bêtas publiées ces derniers mois, on voit bien que le modèle neuronal mis en place par Tesla essaie de gérer tous les cas de figure, sans exception. C'est l'objectif affiché depuis le départ, c'est ambitieux certes, mais je ne vois pas ce qui empêche techniquement de l'atteindre. Peut-être pas à court terme, mais ça c'est presque un autre sujet.

Partager ce message


Lien à poster
Partager sur d’autres sites

Au delà du machine learning, le plus grand point de blocage pour moi reste le hardware et les caméras...limitées à une vision de 150m, loin des capacités de l’œil humain.

Ils peuvent mettre tous les noms qu'ils veulent "tesla vision" / "3D", etc...tant que le hardware ne sera pas mis à jour, les évolutions vers du niveau 3 et plus, en conduite autonome, seront bloquées.

 

On parle du HW4 qui sortirait avec le Cybertruck.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/10/2021 à 08:48, Bart a dit :

une IA arrêtera la voiture au milieu de la route (au mieux) ou fera n'importe quoi.

Peut de chance qu'elle arrête. Elle choisira ce qu'elle interprétera comme le plus proche d'une situation connue.

 

C'est intéressant les premiers retours, il semble que le système est beaucoup moins prédictif que le FSD "standard" où l'on connaissait les situations pouvant poser potentiellement problème. Maintenant quand il se loupe c'est franchement !

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 12/10/2021 à 00:01, lithium73fr a dit :

Si un humain peut gérer ces situations il n’y aucune raison que la machine ne sache pas en faire de même à terme. C’est justement le modèle défendu par Tesla qui est basé sur la vision et donc utilise les mêmes «capteurs» qu’un humain.

Un humain ne gère pas les situations avec ses "capteurs" mais principalement avec son gros cerveau. On pourrait certainement entraîner un humain à conduire avec un système de capteurs alternatif (son ou ultrasons), il n'y a qu'à voir comment les chauves-souris se débrouillent dans le noir. Le problème de cette analogie caméras-oeil c'est que l'équivalent du cerveau pour le FSD se compare plutôt avec celui d'un (petit) insecte qu'avec un mammifère - et encore. C'est la "compréhension" de l'environnement le facteur limitant, pas les capteurs.

Regardez bien la visualisation, le FSD "voit" un cône à gauche (dans les phares) et un cône à droite mais pas les panneaux au milieu de la route, pour lui la voie est libre:

image.png.46f7831ad10e91aa4706e669ca42153c.png

 

Sur la l'argument des situations "anormales": imaginez un enfant qui traverse (situation normale) mais portant un gros panneau (situation anormale). Autant dire qu'on peut oublier la circulation en ville avec ce genre d'arguments.

Et pour revenir aux situations "normales", regardez la 2eme vidéo avec le virage à contresens, non seulement dans une situation "normale", mais dans une situation où le FSD a précédemment pris le virage normalement de nombreuses fois. On peut difficilement trouver pire comme scénario d'erreur.

Partager ce message


Lien à poster
Partager sur d’autres sites

Rejoignez la conversation

Vous pouvez publier maintenant et s'inscrire plus tard. Si vous avez un compte, connectez-vous pour publier un message.

Invité
Répondre à ce sujet…

×   Collé en tant que texte enrichi.   Coller en tant que texte brut à la place

  Seulement 75 émoticônes maximum sont autorisées.

×   Votre lien a été automatiquement intégré.   Afficher plutôt comme un lien

×   Votre contenu précédent a été rétabli.   Vider l’éditeur

×   Vous ne pouvez pas directement coller des images. Envoyez-les depuis votre ordinateur ou insérez-les depuis une URL.





×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.