Aller au contenu
Kratus

Suivi collaboratif des mises à jour du firmware/logiciel des voitures Tesla

Messages recommandés

Bonjour à tous,

 

je propose de regrouper dans ce sujet toutes les discussions à propos des mises à jour du logiciel des voitures Tesla.

 

Merci de ne pas ouvrir un nouveau sujet à chaque nouvelle version du firmware, car cela provoque régulièrement un fractionnement des discussions.

 

Ce sujet est épinglé afin qu'il soit toujours facilement accessible.

 

EDIT (28/04/2019):

Il existe désormais un tableau collaboratif pour le suivi des mises à jour. 

 

Lien vers le tableau administré par [mention=17589]Samsaggace[/mention]

 

EDIT : 24/08/2019:

Pour être bien clair, ce sujet parle des modifications, améliorations, bugs, etc.

 

Si vous vous demandez pourquoi votre Tesla n'a pas reçue la dernière mise à jour, ou comment faire pour la recevoir, c'est ici :

 

https://forums.automobile-propre.com/topic/pourquoi-ma-tesla-na-t-elle-pas-la-derni%C3%A8re-mise-%C3%A0-jour-comment-faire-pour-la-recevoir-plus-vite-17699/

Modifié par Kratus
Ajouté le lien vers le tableau collaboratif

Partager ce message


Lien à poster
Partager sur d’autres sites

Voici le texte intégral (en VO) du communiqué de Tesla à propos des améliorations apportées à l'autopilot par les versions 8.0 et 8.1 du logiciel, dont la mise à jour devrait arriver sur nos voitures d'ici deux semaines :

 

Tesla Version 8.0 with Improved Autopilot

 

Upgrading Autopilot: Seeing the World in Radar

 

While there are dozens of small refinements with Version 8 of our software, described in addendum below, the most significant upgrade to Autopilot will be the use of more advanced signal processing to create a picture of the world using the onboard radar. The radar was added to all Tesla vehicles in October 2014 as part of the Autopilot hardware suite, but was only meant to be a supplementary sensor to the primary camera and image processing system.

 

After careful consideration, we now believe it can be used as a primary control sensor without requiring the camera to confirm visual image recognition. This is a non-trivial and counter-intuitive problem, because of how strange the world looks in radar. Photons of that wavelength travel easily through fog, dust, rain and snow, but anything metallic looks like a mirror. The radar can see people, but they appear partially translucent. Something made of wood or painted plastic, though opaque to a person, is almost as transparent as glass to radar.

 

On the other hand, any metal surface with a dish shape is not only reflective, but also amplifies the reflected signal to many times its actual size. A discarded soda can on the road, with its concave bottom facing towards you can appear to be a large and dangerous obstacle, but you would definitely not want to slam on the brakes to avoid it.

 

Therefore, the big problem in using radar to stop the car is avoiding false alarms. Slamming on the brakes is critical if you are about to hit something large and solid, but not if you are merely about to run over a soda can. Having lots of unnecessary braking events would at best be very annoying and at worst cause injury.

 

The first part of solving that problem is having a more detailed point cloud. Software 8.0 unlocks access to six times as many radar objects with the same hardware with a lot more information per object.

 

The second part consists of assembling those radar snapshots, which take place every tenth of a second, into a 3D “picture” of the world. It is hard to tell from a single frame whether an object is moving or stationary or to distinguish spurious reflections. By comparing several contiguous frames against vehicle velocity and expected path, the car can tell if something is real and assess the probability of collision.

 

The third part is a lot more difficult. When the car is approaching an overhead highway road sign positioned on a rise in the road or a bridge where the road dips underneath, this often looks like a collision course. The navigation data and height accuracy of the GPS are not enough to know whether the car will pass under the object or not. By the time the car is close and the road pitch changes, it is too late to brake.

 

This is where fleet learning comes in handy. Initially, the vehicle fleet will take no action except to note the position of road signs, bridges and other stationary objects, mapping the world according to radar. The car computer will then silently compare when it would have braked to the driver action and upload that to the Tesla database. If several cars drive safely past a given radar object, whether Autopilot is turned on or off, then that object is added to the geocoded whitelist.

 

When the data shows that false braking events would be rare, the car will begin mild braking using radar, even if the camera doesn’t notice the object ahead. As the system confidence level rises, the braking force will gradually increase to full strength when it is approximately 99.99% certain of a collision. This may not always prevent a collision entirely, but the impact speed will be dramatically reduced to the point where there are unlikely to be serious injuries to the vehicle occupants.

 

The net effect of this, combined with the fact that radar sees through most visual obscuration, is that the car should almost always hit the brakes correctly even if a UFO were to land on the freeway in zero visibility conditions.

 

Taking this one step further, a Tesla will also be able to bounce the radar signal under a vehicle in front – using the radar pulse signature and photon time of flight to distinguish the signal – and still brake even when trailing a car that is opaque to both vision and radar. The car in front might hit the UFO in dense fog, but the Tesla will not.

 

Additional Autopilot Release Notes

 

- TACC braking max ramp rate increased and latency reduced by a factor of five

- Now controls for two cars ahead using radar echo, improving cut-out response and reaction time to otherwise-invisible heavy braking events

- Will take highway exit if indicator on (8.0) or if nav system active (8.1). Available in the United States initially

- Car offsets in lane when overtaking a slower vehicle driving close to its lane edge

- Interface alerts are much more prominent, including flashing white border on instrument panel

- Improved cut-in detection using blinker on vehicle ahead

- Reduced likelihood of overtaking in right lane in Europe

- Improved auto lane change availability

- Car will not allow reengagement of Autosteer until parked if user ignores repeated warnings

- Automatic braking will now amplify user braking in emergencies

- In manual mode, alerts driver if about to leave the road and no torque on steering wheel has been detected since Autosteer was deactivated

- With further data gathering, car will activate Autosteer to avoid collision when probability ~100%

- Curve speed adaptation now uses fleet-learned roadway curvature

- Approximately 200 small enhancements that aren’t worth a bullet point

 

Source :

https://www.tesla.com/fr_FR/blog/upgrading-autopilot-seeing-world-radar

Partager ce message


Lien à poster
Partager sur d’autres sites

A discarded soda can on the road, with its concave bottom facing towards you can appear to be a large and dangerous obstacle, but you would definitely not want to slam on the brakes to avoid it.

 

Therefore, the big problem in using radar to stop the car is avoiding false alarms.

 

 

 

 

ça commence mal ... s'ils évoquent déjà des problèmes pour reconnaitre un objet visuellement.

Partager ce message


Lien à poster
Partager sur d’autres sites

deuxième explication qui m'a fait lever (1) le sourcil :

 

The navigation data and height accuracy of the GPS are not enough to know whether the car will pass under the object or not. By the time the car is close and the road pitch changes, it is too late to brake.

 

This is where fleet learning comes in handy. Initially, the vehicle fleet will take no action except to note the position of road signs, bridges and other stationary objects, mapping the world according to radar.

 

Alors comme ça, en fait, le radar sert à rien car l'électronique embarquée ne sait toujours pas ... savoir si c'est un objet, un trombone, un poisson ou un pneu qui arrive sur la bagnole qui a éclaté d'un camion devant.

Partager ce message


Lien à poster
Partager sur d’autres sites

À noter que Elon Musk a confirmé à la presse que ces améliorations auraient évité l'accident qui a coûté la vie à Joshua Brown au début du mois de mai.

 

Ces améliorations ont été développées entièrement en interne chez Tesla, sans aucune contribution de Mobileye, avec qui le divorce semble donc consommé.

 

Un millier de bêta testeurs autour du globe ont contribué à tester cette nouvelle version, dont Elon Musk affirme qu'elle améliore la sécurité d'un facteur trois.

Partager ce message


Lien à poster
Partager sur d’autres sites

Il ne cite ce problème que pour expliquer la différence entre la vision radar et la vision humaine, et pour expliquer comment en tirer parti.

 

En l'occurrence la vision de la caméra Mais oui, j'ai compris la même chose.

Partager ce message


Lien à poster
Partager sur d’autres sites

Il ne cite ce problème que pour expliquer la différence entre la vision radar et la vision humaine, et pour expliquer comment en tirer parti.

 

En l'occurrence la vision de la caméra Mais oui, j'ai compris la même chose.

 

moi, j'ai compris :

- on avait pas encore lié la caméra au radar

- notre programme (dans la bagnole) est un truc tellement idiot

- qu'on a du construire un stockage de flotte

- pour vectoriser les objets sur la route quand le radar détecte quelque chose

 

maintenant, je veux bien que la compression et les CPU font des progrès ... mais avoir

- une base de donnée de lecture du radar couplée

- à un base de donnée d'image ...

- qui elle, donnera une réaction calculée dans une situation ...

- à calculer suivant la vitesse et le point GPS

 

Faut une connexion 4G quoi ?

 

ça fait beaucoup de choses à faire juste pour faire reconnaitre un ... truc à éviter sur la route.

heureusement que les prochaines techno. seront à LIDAR (nuage de point permettant de déterminer une masse non-transperçable) car là, ils vont vraiment pas avancer même s'ils mettent tout ce qu'ils veulent sur la caméra (les ?) et le traitement embarqué.

 

---

 

Après, elle est facile : plus ils parlent et moins on pense qu'ils font quelque chose avec leurs voitures actuelles et les actuels détecteurs en place.

 

Ils feraient mieux de donner une base avec 10 objets et les lectures associées, ça serait plus fairplay s'ils veulent faire miroiter leurs compétences à travailler sans les sous-traitant spécialisés (qui eux, voient généralement plus de chose dans leur propre domaine justement).

Partager ce message


Lien à poster
Partager sur d’autres sites

moi, j'ai compris :

- on avait pas encore lié la caméra au radar

- notre programme (dans la bagnole) est un truc tellement idiot

- qu'on a du construire un stockage de flotte

- pour vectoriser les objets sur la route quand le radar détecte quelque chose

 

maintenant, je veux bien que la compression et les CPU font des progrès ... mais avoir

- une base de donnée de lecture du radar couplée

- à un base de donnée d'image ...

- qui elle, donnera une réaction calculée dans une situation ...

- à calculer suivant la vitesse et le point GPS

 

Faut une connexion 4G quoi ?

 

Si, les données radar et caméra sont d'ores et déjà combinées ; la différence ici est que les données du radar vont prendre plus d'importance qu'auparavant.

 

Quant à la connexion... Eh ben elle est offerte avec la voiture, et à vie, qui plus est. Cependant, si la connexion tombe, le système est capable de fonctionner de façon autonome, donc pas d'inquiétude.

 

ça fait beaucoup de choses à faire juste pour faire reconnaitre un ... truc à éviter sur la route.

 

Ben oui... Pourquoi crois-tu que ce genre de technologies n'était jusque là que confinées à des terrains spécialisés ?

 

heureusement que les prochaines techno. seront à LIDAR (nuage de point permettant de déterminer une masse non-transperçable) car là, ils vont vraiment pas avancer même s'ils mettent tout ce qu'ils veulent sur la caméra (les ?) et le traitement embarqué.

 

Justement, c'est là où tu te trompes. Le LIDAR a des avantages mais aussi des désavantages ; s'il était tellement puissant, pourquoi crois-tu que la Google Car utilise _aussi_ des caméras ? Tesla croit justement que les radars peuvent reproduire à travers une interprétation des données ce que le LIDAR fait naturellement... À une fraction du coût.

 

Et il en fournit la première implémentation à ses utilisateurs.

Partager ce message


Lien à poster
Partager sur d’autres sites

Elon Musk : "We do not envisage using LIDAR... LIDAR does not penetrate occlusions, it does not penetrate rain, dust, or snow, whereas radar does. LIDAR doesn’t bounce, you can’t look at things in front of the car in front of you." Radar, on the other hand, has these inherent (and significant) advantages."

Partager ce message


Lien à poster
Partager sur d’autres sites

Invité
Ce sujet ne peut plus recevoir de nouvelles réponses.




×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.