Aller au contenu
Naboo

Transition Tesla Vision, disparition du radar et des capteurs de proximité (comparaison et avis)

Message ajouté par Pahtath,

Depuis la MAJ 2022.24.6, les voitures ayant un HW3 (après-mi 2019) ont visiblement désormais uniquement Tesla Vision avec les radars désactivés.

Si vous avez une voiture avec radars (avant avril 2022) et que vous souhaitez savoir si désormais l'Autopilot fonctionne sans, voici la procédure, au choix :

  • soit, aller voir l'historique des MAJ (Contrôles > Logiciel > Notes de mise à jour) et descendre dans les MAJ jusqu'à voir une 2020.20 avec une fonctionnalité "Mise à jour Tesla Vision"
  • sinon, autre possibilité, à l'arrêt : en position D, appuyer sur la molette de droite vers la droite pour changer la distance d'AP, et observer si le minimum est 2 ou 1. Si 2, alors les radars sont désactivés.
Message ajouté par Pahtath,

Les voitures produites à partir d'octobre 2022 n'auront plus les capteurs de proximité et des fonctionnalités seront indisponibles durant une durée indéterminée :

  • ParkAssist (la voiture avertit des collisions à moins de 5km/h)
  • Autopark* (la voiture se gare toute seule)
  • Summon* (la voiture se déplace toute seule)
  • SmartSummon** (la voiture se déplace toute seule en pouvant faire des manoeuvres)

* dispo uniquement à partir d'Autopilot Amélioré (EAP)

** non disponible en Europe

 

Plus de détails ici : https://www.tesla.com/fr_FR/support/transitioning-tesla-vision

Messages recommandés

Le 13/09/2022 à 08:53, CAC72 a dit :

En fait ils n'ont pas de capteur de pluie, tout est fait avec les caméras, c'est ça?

Oui.
 

D’ailleurs, ce n’est pas forcément un paradoxe je trouve @Mancart, c’est justement parce que Tesla est une entreprise hyper technologique que l’on n’a pas un bête capteur de pluie pour les essuie glaces. Parce que ce n’est pas l’économie qui doit être ridicule pour un truc aussi simple qui justifie ce choix, à mon sens c’est plus profond, presque philosophique. Ils veulent le moins de composants spécifiques possible et en faire le plus possible avec la Vision, c’est-à-dire l’analyse automatisée des images fournies par les caméras. 

Partager ce message


Lien à poster
Partager sur d’autres sites

C'est la limite de vouloir tout faire avec un seul outil... (même si on comprend parfaitement bien la logique derrière).

Pour mesurer la perte de pression d'un pneu, ce sera toujours mieux d'utiliser un capteur de pression que d'analyser la déformation du pneu avec une caméra  :D

 

Modifié par CAC72

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 08:53, CAC72 a dit :

En fait ils n'ont pas de capteur de pluie, tout est fait avec les caméras, c'est ça?

je sais pas comment marche un capteur de pluie mais effectivement ça m'a l'air plus efficace qu'une caméra pour détecter l'intensité de la pluie...

 

Le 13/09/2022 à 08:56, nicolinux a dit :

Oui.
 

D’ailleurs, ce n’est pas forcément un paradoxe je trouve @Mancart, c’est justement parce que Tesla est une entreprise hyper technologique que l’on n’a pas un bête capteur de pluie pour les essuie glaces. Parce que ce n’est pas l’économie qui doit être ridicule pour un truc aussi simple qui justifie ce choix, à mon sens c’est plus profond, presque philosophique. Ils veulent le moins de composants spécifiques possible et en faire le plus possible avec la Vision, c’est-à-dire l’analyse automatisée des images fournies par les caméras. 

Il y a plusieurs technologies de capteurs mais je crois que la plus répandue est la détection infrarouge qui mesure l'humidité du pare-brise par réflexion.

Le problème de la philosophie Tesla ici c'est que c'est elle qui est bête.

Comment est-ce qu'on détecte visuellement la pluie ? En voyant les gouttes sur le pare-brise, mais les caméras ne peuvent pas car elles sont collées au pare-brise. Essaie de voir des gouttes de pluie fine dans l'air à 130 km/h, c'est totalement impossible, et pourtant ta résolution visuelle est bien meilleure que celle des caméras actuelles. Tu vois le sol mouillé et les gouttes sur les vitres, mais c'est tout. Le système actuel ne marchera jamais correctement pour tous les types de pluie, sans parler des faux positifs.

Partager ce message


Lien à poster
Partager sur d’autres sites

de l'eau - ou même une bruine - sur le pare-brise vient déformer l'image, mais bon... ça peut pas être aussi fin comme détection.

(le fait que les gouttes soient "dans l'air" ne compte pas, seule compte la gêne pour la vision du conducteur donc la moindre netteté de l'image sur le pare-brise)

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 09:12, CAC72 a dit :

Pour mesurer la perte de pression d'un pneu, ce sera toujours mieux d'utiliser un capteur de pression que d'analyser la déformation du pneu avec une caméra  :D

Commence pas à leur donner des idées ! 😳 

 

Le 13/09/2022 à 09:14, MrFurieux a dit :

Le problème de la philosophie Tesla ici c'est que c'est elle qui est bête.

C'est presque un autre débat, je disais juste que c'est un choix qu'ils ont fait lors de la conception de la Model 3 et qui est central dans toutes leurs décisions. Tesla considère que tout ce qui peut être automatisé doit l'être et que ce travail doit être réalisé au maximum par l'ordinateur qui gère aussi la conduite, qui est l'élément le plus important dans la chaîne d'automatisation.

 

Sans parler du succès ou non de cette stratégie, j'imagine qu'il y a des avantages de leur point de vue à utiliser Tesla Vision au lieu d'un capteur dédié pour la pluie. Les images sont déjà là, elles sont de toute manière analysées en permanence par la voiture. Dès lors, si tu peux identifier des gouttes de pluie dessus, tu obtiens la fonction « gratuitement », sans avoir à communiquer avec un capteur totalement différent, qui pourrait par ailleurs tomber en panne ou qui pourrait être fourni par 18 entreprises différentes en ces temps de pénuries.

Partager ce message


Lien à poster
Partager sur d’autres sites

Et on reste dans la même logique, le conducteur sait qu il pleut grâce à ses yeux, donc pourquoi pas la voiture..... 

Bref c'est de la philosophie pas de l eco. 

 

Faudrait savoir ce l homme gère avec ses yeux pour voir les économies encore possible sur la voiture. Les pneus ça marche pas, moi je fais cela avec un coup de pied. :-)

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 09:24, nicolinux a dit :

Tesla considère que tout ce qui peut être automatisé doit l'être et que ce travail doit être réalisé au maximum par l'ordinateur qui gère aussi la conduite, qui est l'élément le plus important dans la chaîne d'automatisation.

 

le capteur de pluie serait commandé par ce même ordi (qui gère bien d'autres capteurs dans la voitures, qui ne sont pas des caméras).

C'est juste pour économiser un capteur de pluie à mon avis... (ce qui fait partie de la "philosophie", faut pas se leurrer...)

Modifié par CAC72

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 09:20, CAC72 a dit :

de l'eau - ou même une bruine - sur le pare-brise vient déformer l'image, mais bon... ça peut pas être aussi fin comme détection.

(le fait que les gouttes soient "dans l'air" ne compte pas, seule compte la gêne pour la vision du conducteur donc la moindre netteté de l'image sur le pare-brise)

Je parle des gouttes dans l'air parce que c'est ce que la caméra peut espérer voir. Elle n'a pas de vision nette de ce qui est sur la vitre car elle est trop près. Tu as déjà porté des lunettes ? Tu ne vois pas les gouttes sur les verres, au mieux tu as des halos si c'est des grosses gouttes, les petites gouttes tu ne les vois pas. Il peut y avoir des déformations oui mais qui varient suivant le type de pluie et qui se confondent avec d'autres perturbations (poussières par ex). En étant très malin la détection peut marcher dans une bonne proportion de cas mais jamais dans la totalité.

Je pense sincèrement que la source de ce choix de détecteur est que la bruine est un phénomène inconnu en Californie.

 

Le 13/09/2022 à 09:31, afreeman1901 a dit :

Et on reste dans la même logique, le conducteur sait qu il pleut grâce à ses yeux, donc pourquoi pas la voiture..... 

Bref c'est de la philosophie pas de l eco. :-)

ce serait un raisonnement valable si la caméra était à la même distance de la vitre que le conducteur

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 09:31, CAC72 a dit :

C'est juste pour économiser un capteur de pluie à mon avis... (ce qui fait partie de la "philosophie", faut pas se leurrer...)

Bien sûr, mais je reste persuadé que c'est un bonus sympathique et pas une fin en soi. Ces capteurs sont si généralisés désormais, ils ne doivent vraiment quasiment rien coûter à installer. Sur une voiture qui a toujours dépassé les 35 000 €, je ne crois pas que ce soit insurmontable, en tout cas ce n'est pas à mon sens l'argument majeur qui a poussé Tesla à ne pas le faire.

 

Le côté choix philosophique correspond bien aussi je trouve à Tesla, qui est encore dans un esprit de start-up avec très peu de personnes qui peuvent prendre de grosses décisions. Un capteur de pluie classique est sans doute plus rationnel et un gros constructeur historique ferait ce choix logique, mais j'imagine bien Elon Musk aimer l'idée du moteur neuronal utilisé pour détecter la pluie et toute autre suggestion est ensuite un tabou.

 

Je pense qu'il faut revenir au pari de la vision pour comprendre la logique. Tesla l'a fait contre l'avis de la majorité et l'entreprise mise tout dessus, au point de désactiver des radars pourtant installés et parfaitement fonctionnels dans leur parc. Si ce n'est pas le signe le plus évident d'un choix philosophique profond dans l'entreprise. Parce que je suis à peu près sûr que les radars et LiDAR leur permettraient d'avancer plus vite au départ, mais ils considèrent que seule la vision permettra d'atteindre l'objectif final d'une conduite vraiment entièrement autonome et ils ne veulent pas s'arrêter aux étapes intermédiaires.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 09:51, nicolinux a dit :

Bien sûr, mais je reste persuadé que c'est un bonus sympathique et pas une fin en soi. Ces capteurs sont si généralisés désormais, ils ne doivent vraiment quasiment rien coûter à installer. Sur une voiture qui a toujours dépassé les 35 000 €, je ne crois pas que ce soit insurmontable, en tout cas ce n'est pas à mon sens l'argument majeur qui a poussé Tesla à ne pas le faire.

 

Le côté choix philosophique correspond bien aussi je trouve à Tesla, qui est encore dans un esprit de start-up avec très peu de personnes qui peuvent prendre de grosses décisions. Un capteur de pluie classique est sans doute plus rationnel et un gros constructeur historique ferait ce choix logique, mais j'imagine bien Elon Musk aimer l'idée du moteur neuronal utilisé pour détecter la pluie et toute autre suggestion est ensuite un tabou.

 

Je pense qu'il faut revenir au pari de la vision pour comprendre la logique. Tesla l'a fait contre l'avis de la majorité et l'entreprise mise tout dessus, au point de désactiver des radars pourtant installés et parfaitement fonctionnels dans leur parc. Si ce n'est pas le signe le plus évident d'un choix philosophique profond dans l'entreprise. Parce que je suis à peu près sûr que les radars et LiDAR leur permettraient d'avancer plus vite au départ, mais ils considèrent que seule la vision permettra d'atteindre l'objectif final d'une conduite vraiment entièrement autonome et ils ne veulent pas s'arrêter aux étapes intermédiaires.

Le mot "philosophie" n'est pas adapté. Tesla a des objectifs, et c'est là qu'on peut parler de philosophie, mais les moyens sont très pragmatiques. Ils ont bien installés des radars au départ. La justification de la vision seule est:

1) radar très peu précis (ce n'est plus le cas en 2022)

2) coût et encombrement élevé du lidar (ce n'est plus le cas en 2022, on est passé de 5000$ à 500$ et à de petits modules)

3) on peut faire avec juste des caméras (mais ils n'ont jamais dit que radar / lidar étaient inutilisables)

 

Les deux premiers arguments ne sont plus valides et le 3eme ignore la question de la redondance. Si jamais la redondance est imposée c'est foutu.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 09:48, MrFurieux a dit :

Je parle des gouttes dans l'air parce que c'est ce que la caméra peut espérer voir.

aaaah okkkk, je comprends ce que tu veux dire. Oui la caméra ne voit peut-être pas "net" à 1 cm, mais elle a bien une image net avec des zones floues, donc elle peut analyser la présence de pluie! (elle n'a pas besoin de "voir" des gouttes à 5 mètres pour le savoir).

Et la bruine crée une autre déformation dans l'image finale, etc.

 

Le 13/09/2022 à 09:48, MrFurieux a dit :

Je pense sincèrement que la source de ce choix de détecteur est que la bruine est un phénomène inconnu en Californie.

ah non là faut pas déconner. Le mec est au courant de ce que c'est que le crachin, il est déjà à Londres avant de mettre au point sa voiture  :lol:

Et le crachin c'est pas un truc typiquement européen ou normand héhé

 

Modifié par CAC72

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 10:07, MrFurieux a dit :

Le mot "philosophie" n'est pas adapté.

Je trouve que si, car s'ils étaient uniquement pragmatiques, on aurait des radars et LiDAR. D'ailleurs, Tesla a commencé à créer son propre radar en interne pour améliorer ceux qu'ils avaient dans les voitures, mais le projet a été abandonné au profit de Tesla Vision. Et s'ils étaient purement pragmatiques, ils auraient laissé le radar actif dans les véhicules équipés. Pour moi, ça va bien au-delà.

 

Le 13/09/2022 à 10:07, MrFurieux a dit :

1) radar très peu précis (ce n'est plus le cas en 2022)

Tu as des infos là dessus ? Parce qu'une partie des défauts du radar selon eux est inhérent à la technologie.

 

Le 13/09/2022 à 10:07, MrFurieux a dit :

(mais ils n'ont jamais dit que radar / lidar étaient inutilisables)

Inutilisables, non, mais ils ont dit nuisibles. Puisque les caméras restent nécessaires pour analyser les données brutes et les faire correspondre avec des informations utiles pour la conduite autonome (typiquement, est-ce que la masse détectée est un camion en travers de la route ou un pont, c'est un des défauts évoqués pour le radar), alors autant n'utiliser que les caméras pour gagner du temps dans le processus de décision. 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 10:14, CAC72 a dit :

aaaah okkkk, je comprends ce que tu veux dire. Oui la caméra ne voit peut-être pas "net" à 1 cm, mais elle a bien une image net avec des zones floues, donc elle peut analyser la présence de pluie! (elle n'a pas besoin de "voir" des gouttes à 5 mètres pour le savoir).

Et la bruine crée une autre déformation dans l'image finale, etc.

C'est un test que tu peux faire toi-même avec un brumisateur sur des lunettes, ou encore mieux directement sur les caméras. D'ailleurs c'est une idée pour nos amis youtubeurs, ce serait une vidéo amusante

 

Le 13/09/2022 à 10:14, nicolinux a dit :

Je trouve que si, car s'ils étaient uniquement pragmatiques, on aurait des radars et LiDAR. D'ailleurs, Tesla a commencé à créer son propre radar en interne pour améliorer ceux qu'ils avaient dans les voitures, mais le projet a été abandonné au profit de Tesla Vision. Et s'ils étaient purement pragmatiques, ils auraient laissé le radar actif dans les véhicules équipés. Pour moi, ça va bien au-delà.

Ils désactivent le radar pour avoir un seul code à maintenir. Et il a été retiré aux USA en 2021 (et pas ailleurs) parce que manque de pièces, si c'était de la "philosophie" ils l'auraient retiré partout en même temps. Elon Musk a donné un tas d'interview à l'époque (2016-2019), que tu peux relire, l'argument massue c'était le prix et pas autre chose. A noter qu'au départ il disait "le lidar c'est nul, le bon combo c'est caméra + radar". Et le radar était même un argument avec "la voiture détecte les obstacles au delà du champ de vision". Le discours "le radar c'est nul" est venu après. Citation de 2016:

Citation

“Being radar it can see through rain, fog, snow, dust, and it recovers quite easily,” Musk said earlier in the call when describing radar’s advantages over the camera. “So even if there was something where you’re driving down the road and visibility was very low and there was a big multi-car pileup ahead of you, you can’t see it, but the radar worked, it would initiate braking before your car being added to the multi-car pileup.”

 

Le 13/09/2022 à 10:14, nicolinux a dit :

Inutilisables, non, mais ils ont dit nuisibles. Puisque les caméras restent nécessaires pour analyser les données brutes et les faire correspondre avec des informations utiles pour la conduite autonome (typiquement, est-ce que la masse détectée est un camion en travers de la route ou un pont, c'est un des défauts évoqués pour le radar), alors autant n'utiliser que les caméras pour gagner du temps dans le processus de décision. 

ce dont tu parles c'est la situation avec leur radar qui est une technologie de 2014

 

Le 13/09/2022 à 10:14, nicolinux a dit :

Tu as des infos là dessus ? Parce qu'une partie des défauts du radar selon eux est inhérent à la technologie.

Cherche "imaging radar" sur le web

Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Simple avis 3 jours après mon update qui a retiré le radar sur ma TM3 2021...
Trajet francilien avec mélange nationale 7 et A86, en pleine heure de pointe, la fête donc.

Bon ça marche bien! Je note une amélioration sur la gestion de la vitesse sur autoroute et une plus grande confiance du système dans son maintien de voie. La voiture devant nous accélère, on attend moins avant d'avoir le petit coup de boost pour que l'autopilot suive, c'est plus dynamique.
Et j'ai été très impressionné par la gestion des conducteurs qui mordent ou empiètent dans notre voie, avant elle réagissait tard et maintenant elle arrive limite à prévoir rien qu'au mouvement et freine avant, c'est très sécuritaire. Très bon point ici.

Par contre c'est toujours aussi brutal dans les stop and go des bouchons franciliens ou c'est nécessaire de le désactiver car ça accélère et ça pile aussi sec. J'essaierai avec d'autres distance de suivie (j'étais sur 2, le minimum) pour voir si c'est possible de fluidifier.


En conclusion très très content de cette mise à jour et pas du tout l'impression d'une régression par rapport au radar. 

Modifié par istros

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 10:42, MrFurieux a dit :

C'est un test que tu peux faire toi-même avec un brumisateur sur des lunettes, ou encore mieux directement sur les caméras. D'ailleurs c'est une idée pour nos amis youtubeurs, ce serait une vidéo amusante

 

oui, tout à fait.

Ce que je veux dire c'est qu'elle a pas besoin de "voir la goutte nette" pour comprendre qu'il y a un truc qui déconne sur l'image et que donc c'est de la pluie  :D

(en cela je pense pas que la caméra a pour mission de voir des gouttes dans l'air avant qu'elles ne touchent le pare-brise, même de grosses gouttes !)

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 11:16, CAC72 a dit :

Ce que je veux dire c'est qu'elle a pas besoin de "voir la goutte nette" pour comprendre qu'il y a un truc qui déconne sur l'image et que donc c'est de la pluie  :D

(en cela je pense pas que la caméra a pour mission de voir des gouttes dans l'air avant qu'elles ne touchent le pare-brise, même de grosses gouttes !)

Tu en parles comme si ça marchait, mais ça ne marche pas bien, c'est un constat qu'on peut faire soi-même en roulant. Et ça fait au moins 6 ans, donc on peut raisonnablement supposer que ça ne marchera jamais avec le matériel actuel.

La question c'est plutôt pourquoi ça ne marche pas, et AMA ça s'explique assez bien.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 11:16, CAC72 a dit :

 

oui, tout à fait.

Ce que je veux dire c'est qu'elle a pas besoin de "voir la goutte nette" pour comprendre qu'il y a un truc qui déconne sur l'image et que donc c'est de la pluie  :D

(en cela je pense pas que la caméra a pour mission de voir des gouttes dans l'air avant qu'elles ne touchent le pare-brise, même de grosses gouttes !)

Le but est que l'IA comprenne ce qu'il se passe avec des milliards de vidéos d'apprentissage.
Elle s'en fout de voir des goutes ou pas, elle doit juste savoir que quand il y a tel type d'image, ca correspond à X ou Y. A terme, le "capteur" de pluie devrait s'améliorer avec les datas des différents pays. J'ai bien l'impression que pour l'instant, seul les US sont pris en compte pour l'apprentissage.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 11:27, MrFurieux a dit :

Tu en parles comme si ça marchait, mais ça ne marche pas bien, c'est un constat qu'on peut faire soi-même en roulant. Et ça fait au moins 6 ans, donc on peut raisonnablement supposer que ça ne marchera jamais avec le matériel actuel.

La question c'est plutôt pourquoi ça ne marche pas, et AMA ça s'explique assez bien.

 

je remettais pas en cause le constat que ça fonctionne pas bien (j'ai pas de tesla je précise). J'essayais juste de comprendre comment pouvait travailler le logiciel.

Mais effectivement on est là aux limites du matériel et des possibilités d'interprétation d'une image...

Ce serait plus honnête de reconnaître qu'on ne fait actuellement pas mieux qu'un capteur de pluie dédié, et de l'ajouter sur les futures productions, tout simplement...

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 11:29, jackseg a dit :

Le but est que l'IA comprenne ce qu'il se passe avec des milliards de vidéos d'apprentissage.
Elle s'en fout de voir des goutes ou pas, elle doit juste savoir que quand il y a tel type d'image, ca correspond à X ou Y. A terme, le "capteur" de pluie devrait s'améliorer avec les datas des différents pays. J'ai bien l'impression que pour l'instant, seul les US sont pris en compte pour l'apprentissage.

L'IA c'est pas de la magie, elle ne peut pas inventer des informations qu'elle n'a pas.

Le but des essuie-glaces c'est d'améliorer la vision du conducteur en nettoyant le pare-brise. Si la caméra est placée à un endroit où elle ne voit pas ce que voit le conducteur mais une zone de quelques mm2 sur laquelle elle ne peut pas faire de mise au point, c'est foutu d'avance. Elle voit (mal) 0,01% de la zone à surveiller, et pour ne pas arranger les choses les essuie-glaces n'arrivent pas jusqu'aux caméras, donc elle ne peut pas contrôler l'efficacité du balayage. Et avec ça c'est pas binaire, elle doit aussi choisir la bonne vitesse de balayage !

En plus, il ne faut pas que la vision soit trop distordue en cas de fortes précipitations, sinon les balais vont se mettre en route mais l'AP va être mal. Il suffit de penser à un mélange pluie-neige repoussé par les balais en haut du pare-brise là où sont les caméras, ou n'importe quelle projection (c'est une des motivations des capteurs redondants).

Pour revenir à un cas plus simple, si l'IA pouvait déjà apprendre que "ciel 100% bleu" = pas de pluie, ça serait déjà bien. Et c'est pas différent aux USA, jusqu'à preuve du contraire.

 

image.thumb.png.8522006d9571f45142e93edea9f7f9e8.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 13:58, MrFurieux a dit :

L'IA c'est pas de la magie, elle ne peut pas inventer des informations qu'elle n'a pas.

Le but des essuie-glaces c'est d'améliorer la vision du conducteur en nettoyant le pare-brise. Si la caméra est placée à un endroit où elle ne voit pas ce que voit le conducteur mais une zone de quelques mm2 sur laquelle elle ne peut pas faire de mise au point, c'est foutu d'avance. Elle voit (mal) 0,01% de la zone à surveiller, et pour ne pas arranger les choses les essuie-glaces n'arrivent pas jusqu'aux caméras, donc elle ne peut pas contrôler l'efficacité du balayage. Et avec ça c'est pas binaire, elle doit aussi choisir la bonne vitesse de balayage !

En plus, il ne faut pas que la vision soit trop distordue en cas de fortes précipitations, sinon les balais vont se mettre en route mais l'AP va être mal. Il suffit de penser à un mélange pluie-neige repoussé par les balais en haut du pare-brise là où sont les caméras, ou n'importe quelle projection (c'est une des motivations des capteurs redondants).

Pour revenir à un cas plus simple, si l'IA pouvait déjà apprendre que "ciel 100% bleu" = pas de pluie, ça serait déjà bien. Et c'est pas différent aux USA, jusqu'à preuve du contraire.

Le but de l'IA est justement de discriminer ce qui n'est pas pertinent et il n'y a aucune raison qu'ils n'y arrivent pas avec de l'apprentissage supervisé. Que le pare-brise soit sale ou pas, il y aura tellement de cas que la catégorisation entre saleté, pluie fine, grosse pluie, grêle, ...,  qu'elle sera correcte à terme.
Ce que je veux dire par pays, c'est que les conditions ne sont pas identiques et que l'IA sélectionne des paramètres qui n'ont peut-être rien à voir avec l'eau et qui peuvent changer d'un pays à un autre, d'où l'utilité d'avoir le maximum d'infos de tout le monde pour favoriser un apprentissage par région. Ce sont les ing. de Tesla qui sauront  si c'est pertinent de séparer par région ou pas d'après les résultats qu'ils auront. Si ils arrivent à faire un système général pour tout le monde, tant mieux mais si il y a trop de disparité entre région, ils devront la spécialiser.

Après, tu connais mon avis là-dessus. Je trouve idiot de dépenser autant d'énergie (et surtout grise) pour avoir un truc qui marchera peut-être moins bien qu'un petit capteur de pluie qui ne coute pas grand chose et qui fait parfaitement son job.

Modifié par jackseg

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 14:15, jackseg a dit :

Le but de l'IA est justement de discriminer ce qui n'est pas pertinent et il n'y a aucune raison qu'ils n'y arrivent pas avec de l'apprentissage supervisé. Que le pare-brise soit sale ou pas, il y aura tellement de cas que la catégorisation entre saleté, pluie fine, grosse pluie, grêle, ...,  qu'elle sera correcte à terme.
Ce que je veux dire par pays, c'est que les conditions ne sont pas identiques et que l'IA sélectionne des paramètres qui n'ont peut-être rien à voir avec l'eau et qui peuvent changer d'un pays à un autre, d'où l'utilité d'avoir le maximum d'infos de tout le monde pour favoriser un apprentissage par région. Ce sont les ing. de Tesla qui sauront  si c'est pertinent de séparer par région ou pas d'après les résultats qu'ils auront. Si ils arrivent à faire un système général pour tout le monde, tant mieux mais si il y a trop de disparité entre région, ils devront la spécialiser.

Après, tu connais mon avis là-dessus. Je trouve idiot de dépenser autant d'énergie (et surtout grise) pour avoir un truc qui marchera peut-être moins bien qu'un petit capteur de pluie qui ne coute pas grand chose et qui fait parfaitement son job.

Mais tu imagines qu'il dépensent bcp d'énergie mais tu n'en sais rien, si ça se trouve ils ont abandonné le sujet depuis des années.

L'IA fait ce qu'elle peut avec ce qu'elle a, et là il y a deux problèmes 100% insolubles:

1) c'est pas parce que la caméra voit bien que le conducteur voit bien et inversement

2) la caméra ne voit pas l'effet du balayage

A cela il faut ajouter (et non pas soustraire) les problèmes propres à l'IA, et il y en a.

Autre exemple pour la route:

image.thumb.png.64c8ef1404d4b8b6f2213e89d751225a.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 14:31, MrFurieux a dit :

Mais tu imagines qu'il dépensent bcp d'énergie mais tu n'en sais rien, si ça se trouve ils ont abandonné le sujet depuis des années.

Effectivement, je n'en sais rien mais je ne pense pas. J'ai quand même vu de sacré progrès depuis 1 année. Au début c'était catastrophique en auto, je mettais d'ailleurs souvent en manuel. Maintenant c'est viable et je laisse en auto même si ce n'est pas encore au niveau d'un capteur.

Citation

1) c'est pas parce que la caméra voit bien que le conducteur voit bien et inversement

2) la caméra ne voit pas l'effet du balayage

C'est ce que je dis. L'IA va se baser sur des infos qui ne sont peut-être pas pertinentes pour nos yeux, d'où l'interêt d'avoir le plus de cas possible et dans des régions différentes, car oui, les orages, les conditions météos, la luminosité, les couleurs, ... ne sont pas identiques selon les régions.
Et n'oublie pas qu'il y a plusieurs traitements sur l'image assez lourd avant de faire travailler l'IA. Je me demande même si ils ne font pas des échantillons séparés pour la détection de la pluie avec des gammas adaptés.
Ce serait intéressant que Tesla communique sur ce sujet comme ils le font sur le FSD car il peut y avoir pleins de méthodes différentes pour arriver au même résultat. Je me base sur ce qu'ils font en FSD pour en déduire ce qu'ils font pour la pluie mais peut-être que c'est totalement différent.

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 11:29, jackseg a dit :

Le but est que l'IA comprenne ce qu'il se passe avec des milliards de vidéos d'apprentissage.

Le 13/09/2022 à 14:15, jackseg a dit :

Le but de l'IA est justement de discriminer ce qui n'est pas pertinent et il n'y a aucune raison qu'ils n'y arrivent pas avec de l'apprentissage supervisé. Que le pare-brise soit sale ou pas, il y aura tellement de cas que la catégorisation entre saleté, pluie fine, grosse pluie, grêle, ...,  qu'elle sera correcte à terme.

Pour faire de l'apprentissage supervisé, il faut analyser chaque image ou vidéo pour dire au réseau de neurones à l'entraînement quelle est la sortie attendue.

Donc des milliards d'images à catégoriser par des opérateurs humains pour entraîner l'IA.

 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 14:57, jackseg a dit :

Effectivement, je n'en sais rien mais je ne pense pas. J'ai quand même vu de sacré progrès depuis 1 année. Au début c'était catastrophique en auto, je mettais d'ailleurs souvent en manuel. Maintenant c'est viable et je laisse en auto même si ce n'est pas encore au niveau d'un capteur.

C'est ce que je dis. L'IA va se baser sur des infos qui ne sont peut-être pas pertinentes pour nos yeux, d'où l'interêt d'avoir le plus de cas possible et dans des régions différentes, car oui, les orages, les conditions météos, la luminosité, les couleurs, ... ne sont pas identiques selon les régions.
Et n'oublie pas qu'il y a plusieurs traitements sur l'image assez lourd avant de faire travailler l'IA. Je me demande même si ils ne font pas des échantillons séparés pour la détection de la pluie avec des gammas adaptés.
Ce serait intéressant que Tesla communique sur ce sujet comme ils le font sur le FSD car il peut y avoir pleins de méthodes différentes pour arriver au même résultat. Je me base sur ce qu'ils font en FSD pour en déduire ce qu'ils font pour la pluie mais peut-être que c'est totalement différent.

 

Je suis moins optimiste que toi car je vois les essuie-glaces se mettre en route toujours dans les mêmes entrées de tunnel depuis que je la conduit. Si ça change avec le mode Vision (que j'ai pas encore reçu), ça répondrait à la question du lien avec l'AP.

Mais c'est évident que les essuie-glaces et les phares auto sont les parents pauvre de la com Tesla, probablement parce que c'est pas très sexy, voire embarrassant si on compare à la concurrence...

Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 13/09/2022 à 15:03, Remy a dit :

Pour faire de l'apprentissage supervisé, il faut analyser chaque image ou vidéo pour dire au réseau de neurones à l'entraînement quelle est la sortie attendue.

Donc des milliards d'images à catégoriser par des opérateurs humains pour entraîner l'IA

C'était une façon de parler et on n'a jamais autant de données d'apprentissage que d'échantillons de test pour entrainer l'IA.
Je ne vais pas entrer dans un débat technique mais à partir d’une certaine taille d’échantillon d’apprentissage, le biais intrinsèque au modèle devient supérieur à la variance des estimateurs. C'est leur job de déterminer les bonnes tailles d'échantillons par rapport à toutes les données qu'ils ont.
Je pars du principe qu'ils font de l'IA supervisée pour catégoriser, mais si ils utilisent une méthodes d'apprentissage non supervisée, ils peuvent très bien profiter des milliards de données qu'ils ont.

Partager ce message


Lien à poster
Partager sur d’autres sites



  • Contenu similaire

    • Par TofTeuf
      Bonjour à tous
       
      - Préambule
      Uniquement sous Tesla vision, donc sans capteur ultrason Il ne s'agit pas de la Sortie auto intelligente Paragraphe concerné dans le manuel d'utilisation du Model Y Le Model Y fait 4,75 m de long, 2,13 m de large avec les rétros, 1,98 m rétros rabattus.  
      - Le contexte
      J'ai un box de 5,19 m de longueur et 2,53 m de largeur avec comme restriction une petite pente à l'entrée de 10 cm et 4 cm de hauteur, une largeur restreinte par le système d'ouverture de la porte de 2,20 m entre 20 et 40 cm du sol, et 2,25 m vers 1,15 m du sol à hauteur de rétro.
      Je compte acheté un model Y d'ici la fin de l'année, et donc j'aurais 6 cm de marge de chaque coté entre 20 et 40 cm du sol, et 14 cm au niveau des rétros rabattus.
       
      - La question
      Pensez vous que je pourrais rentrer la voiture en marche arrière dans mon box en utilisant la fonction Sortie auto commandée par l'application sur smartphone ?

       


×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.