Aller au contenu
J0kers

Évolution de l'autopilot et de la conduite autonome (MàJ 10/2020 avec FSD Beta)

Messages recommandés

Un commentaire intéressant 
sur les point principaux.
En résumé, la V12 serait 100% AI "boite noire" entraînée à partir de flux vidéos. Elle n'a pas de notion explicite de signaux, marquages, feux, etc, c'est de l'imitation de ce que font les conducteurs humains dans telle ou telle situation.
D'un côté, c'est un moyen crédible d'avoir un véhicule qui s'intègre bien dans la circulation. D'un autre côté, ça l'éloigne AMA de la possibilité d'une homologation. Il parlent longtemps dans la vidéo des gens qui ne marquent pas l'arrêt à 99,5%, et le FSD fait pareil.
Le problème ici est que le conducteur humain a le mode "conduite courante" où il ne s'arrête pas complètement - sauf si qqun arrive - et le mode "je passe le permis" où il respecte scrupuleusement les règles. C'est le cas du stop, mais aussi d'autres petites libertés avec le code de la route. Si le FSD conduit comme un humain mais sans le mode "je passe le permis", je vois pas comment il pourrait être homologué. Et le côté boite noire sans redondance, faut voir mais je pense que c'est rédhibitoire aussi dans un cadre réglementaire, il faudrait deux voire trois systèmes indépendants.
Rien n'empêche que seul le mode "conduite scolaire" soit autorisé en Europe, je ne vois pas en quoi cela bloquerait l'homologation.

Peu importe les implémentations, tout est une boîte noire en soi. Même avec les règles hardcodées, personne ne va contrôler chaque algo pour voir ce que ça donne. Tant que le résultat est concluant, je ne vois pas pourquoi ça bloquerait, surtout que la tendance est que les autres constructeurs copient Tesla lorsqu'ils voient que ça fonctionne...

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 27/08/2023 à 23:27, plodey a dit :

Rien n'empêche que seul le mode "conduite scolaire" soit autorisé en Europe, je ne vois pas en quoi cela bloquerait l'homologation.

Peu importe les implémentations, tout est une boîte noire en soi. Même avec les règles hardcodées, personne ne va contrôler chaque algo pour voir ce que ça donne. Tant que le résultat est concluant, je ne vois pas pourquoi ça bloquerait, surtout que la tendance est que les autres constructeurs copient Tesla lorsqu'ils voient que ça fonctionne...

NB ils ont des homologations aux USA aussi, c'est fini le far-west.

Le problème du mode "conduite scolaire" est qu'il implique d'entraîner le FSD uniquement avec des vidéos "scolaires", et il n'y en a sûrement pas assez. C'est le mode normal ou rien en fait.

Sur le mode boite noire, je ne suis pas d'accord. Tu peux coder des règles de sécurité explicites, ou faire des changements explicites (du type "arrêt au stop" tout le temps). Là tu peux juste lui faire ingérer d'autres exemples en espérant avoir le comportement attendu, sans savoir si ce sera dans 100% des cas. C'est ce qu'ils disent dans la vidéo d'ailleurs.

Partager ce message


Lien à poster
Partager sur d’autres sites

Ce serait une IA façon chatgpt en gros ? Qui fonctionne par proba et non pas compréhension..

 

autant pour le déplacement du véhicule (accélération freinage et changement de direction) pourquoi pas autant je ne crois pas du tout à une IA qui ne sait pas différencier une sortie d’autoroute d’une voie de dépassement. 
d’une IA qui ne différencie pas un feu rouge d’un feu vert. 
ce serait du suicide.

il y a forcément des règles qui sont codées.

 

L’histoire du stop pour moi c’est juste que la voiture ayant des angles morts niveau caméra ils sont obligés de la faire « creep forward » pour qu’elle puisse voir ce qui se passe dans les angles morts. Si elle devait en plus du creeping attendre les 3 secondes réglementaires elle mettrait 3 fois plus de temps à passer un stop.
 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 00:27, stagu825 a dit :

je ne crois pas du tout à une IA qui ne sait pas différencier une sortie d’autoroute d’une voie de dépassement. 
d’une IA qui ne différencie pas un feu rouge d’un feu vert. 

L'IA va "retrouver" les règles par l'entrainement.

Le problème serait si 80% des conducteurs ne respectent pas les règles. Mais c'est l'inverse, plus de 80% des conducteurs respectent les règles.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 00:27, stagu825 a dit :

Ce serait une IA façon chatgpt en gros ? Qui fonctionne par proba et non pas compréhension..

 

autant pour le déplacement du véhicule (accélération freinage et changement de direction) pourquoi pas autant je ne crois pas du tout à une IA qui ne sait pas différencier une sortie d’autoroute d’une voie de dépassement. 
d’une IA qui ne différencie pas un feu rouge d’un feu vert. 
ce serait du suicide.

il y a forcément des règles qui sont codées.

 

L’histoire du stop pour moi c’est juste que la voiture ayant des angles morts niveau caméra ils sont obligés de la faire « creep forward » pour qu’elle puisse voir ce qui se passe dans les angles morts. Si elle devait en plus du creeping attendre les 3 secondes réglementaires elle mettrait 3 fois plus de temps à passer un stop.

C'est pourtant bien ce qu'ils expliquent. Ce qui compte c'est le résultat, et on peut dire la même chose pour l'intelligence animale, est-ce que tu sais vraiment définir la compréhension ? Et comment marche l'apprentissage ? Qui te dis qu'il ne s'agit pas d'un système probabiliste ?

Si ça marche, ça marche. Mais reste que si l'entrainement de l'IA se fait avec les comportements usuels, tu aura du mal à lui faire passer un examen qui demande un respect strict de règles qu'il n'a pas apprises.

Partager ce message


Lien à poster
Partager sur d’autres sites

Il n'y a jamais de fonctionnement à 100% probabiliste en situation réel.
Tu peux ajouter autant de contraintes que tu veux à ton modèle. Il suffit de faire un modèle hyper contraint pour respecter au maximum ce que tu veux.
Je prends en exemple un stop. Si 99% des conducteurs ne s'arrêtent pas complètement, ils peuvent très bien mettre une condition restrictive pour ce cas. Idem pour tous ce qui dévie trop de la courbe attendue vs la réalité.
Ca ne veut pas dire qu'il sera plus efficace, juste plus respectueux des règles.

Modifié par jackseg

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 09:15, MrFurieux a dit :

C'est pourtant bien ce qu'ils expliquent. Ce qui compte c'est le résultat, et on peut dire la même chose pour l'intelligence animale, est-ce que tu sais vraiment définir la compréhension ? Et comment marche l'apprentissage ? Qui te dis qu'il ne s'agit pas d'un système probabiliste ?

Si ça marche, ça marche. Mais reste que si l'entrainement de l'IA se fait avec les comportements usuels, tu aura du mal à lui faire passer un examen qui demande un respect strict de règles qu'il n'a pas apprises.

 

La vraie question : l'homologation "niveau 5" sert juste à pouvoir utiliser le FSD légalement ou elle sert à "obliger" le constructeur à être pénalement responsable en cas d"'accident?

Car si c'est juste le second cas, on s'en fout un peu de l'homologation. 

Si on est un peu réaliste, un level 5 pleinement pris en charge par le constructeur en cas d'accident, c'est pas demain la veille, donc si Tesla arrive à s'approcher d'un niveau 5 en pratique mais que légalement il n'est pas un vrai niveau 5, est-ce qu'on s'en fiche pas un peu ? 

Modifié par stagu825

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 10:40, jackseg a dit :

Je prends en exemple un stop. Si 99% des conducteurs ne s'arrêtent pas complètement, ils peuvent très bien mettre une condition restrictive pour ce cas.

J'espère que plus de 80% s'arrêtent au stop. Mais supposons que cela ne soit pas le cas, alors il faudrait que Tesla enrichisse son jeu d'apprentissage afin que plus de 80 % s'arrête au stop.

Pour mettre une condition, il faut avoir une condition. Donc il faudrait détecter le stop explicitement. Et c'est ce qu'ils ne veulent plus faire.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 10:40, jackseg a dit :

Il n'y a jamais de fonctionnement à 100% probabiliste en situation réel.
Tu peux ajouter autant de contraintes que tu veux à ton modèle. Il suffit de faire un modèle hyper contraint pour respecter au maximum ce que tu veux.
Je prends en exemple un stop. Si 99% des conducteurs ne s'arrêtent pas complètement, ils peuvent très bien mettre une condition restrictive pour ce cas. Idem pour tous ce qui dévie trop de la courbe attendue vs la réalité.

Tu as regardé la vidéo ?

Non, ils ne peuvent pas, et AI Driver explique pourquoi:

Citation

The reason this version is such a big deal and what you're seeing here is truly incredible is that the car is no longer using the 300,000 lines of human written code that it used to rely on to drive and instead it's been replaced with a much more simple AI that learns to drive exclusively from video clips.

In layman's terms this means humans no longer manually program the software or even have any ability to tell it how to behave in certain situations and instead they showed the car a massive amount of video clips of real world driving which it then tries to mimic.

Et il donne des exemples

Citation

What's truly amazing here and hard for people to wrap their heads around is that the car has never been told what Lane lines are no one told it to stop at stop signs or stop lights or even how to navigate construction zones none of that it just remembers seeing this kind of situation before and is doing it how it thinks it should be done this means that.

For better or worse the car is behaving more humanlike than ever before which has some funny side effects like it no longer coming to a complete stop at stop signs according to Ashok the head honcho of the autopilot team who was sitting passenger during this drive their data shows that humans come to a full stop at stop signs less than 0.5% of the time and since they can't explicitly program the car to fully stop at stop signs anymore they have to try to fix it by using more clips of humans coming to full stops which is data that's hard to find.

En conclusion il suggère comme solution de revoir la signalisation aux USA

Citation

I think that instead of the NHSTA forcing Tesla to comply with a law that humans obey less than 1% of the time should probably instead be seen as a signal that there is something seriously wrong with our road networks and our overuse of stop signs here in the States

Modifié par MrFurieux

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 11:12, stagu825 a dit :

La vraie question : l'homologation "niveau 5" sert juste à pouvoir utiliser le FSD légalement ou elle sert à "obliger" le constructeur à être pénalement responsable en cas d"'accident?

Car si c'est juste le second cas, on s'en fout un peu de l'homologation. 

Si on est un peu réaliste, un level 5 pleinement pris en charge par le constructeur en cas d'accident, c'est pas demain la veille, donc si Tesla arrive à s'approcher d'un niveau 5 en pratique mais que légalement il n'est pas un vrai niveau 5, est-ce qu'on s'en fiche pas un peu ? 

Qu'est-ce que tu appelles "s'approcher du niveau 5" ? La différence entre le niveau 2 et le niveau 3 c'est justement le transfert de responsabilité (c'est la voiture qui prend la main).

Si tu vas par là, les systèmes actuels d'assistance s'approchent tous du niveau 5, mais sans l'atteindre. Si un conducteur doit être présent et surveiller la conduite en permanence, c'est de la conduite assistée, 2 ou 2+ ou 2++ suivant les performances.

Partager ce message


Lien à poster
Partager sur d’autres sites

@MrFurieux J'ai bien vu la vidéo mais la V12 n'est qu'une démo technique pour moi.
Ils ne peuvent pas laisser l'IA prendre toutes les décisions sans ajouter de contraintes. Ca peut à la limite fonctionner dans un pays comme les US ou la Suisse mais imagine le truc en Italie. Tu ne peux pas entrainer une IA fiablement avec de mauvais comportements, il faut la cadrer. Donc je suis quasi certain qu'elle va évoluer vers des contraintes manuelles par la suite.
Musk fait du Musk, il pense que tout est comme chez lui en Californie jusqu'au jour ou la réalité et la complexité du monde lui fera changer de cap.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 14:14, MrFurieux a dit :

Tu as regardé la vidéo ?

Non, ils ne peuvent pas, et AI Driver explique pourquoi:

Et il donne des exemples

En conclusion il suggère comme solution de revoir la signalisation aux USA

Donc ils auraient bossé sur le FSD depuis la v8 et ils ont tout viré pour passer sur un tout nouveau système qu’ils vont entraîner façon Midjourney avec des clips vidéos sans pouvoir corriger des trucs facilement.. en espérant que les milliards de clips apprennent la conduite tout seul à la voiture, ben Putain, ça promet..

et quand les routes deviendront blanches en Europe il faudra tout rentraîner avec des nouveaux clips 

Modifié par stagu825

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 14:50, stagu825 a dit :

...sans pouvoir corriger des trucs facilement.

Tu as tout dit. Ils doivent pouvoir garder la main sur l'apprentissage de façon à pouvoir modifier rapidement quelque chose qui ne va pas ou à la demande des administrations.
J'imagine pas trop Musk dire à la NHTSA: "Ha ben faudra attendre peut-être 2 ou 3 mois que l'IA apprenne d'elle-même pour corriger ce problème.", ca n'aurait aucun sens.

Ou alors j'ai pas tout compris au fonctionnement de la V12.

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 16:11, jackseg a dit :

Tu as tout dit. Ils doivent pouvoir garder la main sur l'apprentissage de façon à pouvoir modifier rapidement quelque chose qui ne va pas ou à la demande des administrations.
J'imagine pas trop Musk dire à la NHTSA: "Ha ben faudra attendre peut-être 2 ou 3 mois que l'IA apprenne d'elle-même pour corriger ce problème.", ca n'aurait aucun sens.

Ou alors j'ai pas tout compris au fonctionnement de la V12.

ben comme chat gpt, il faudra ajouter "arrête toi au stop" dans le prompt et roule ma poule. 

 

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 14:24, jackseg a dit :

@MrFurieux J'ai bien vu la vidéo mais la V12 n'est qu'une démo technique pour moi.
Ils ne peuvent pas laisser l'IA prendre toutes les décisions sans ajouter de contraintes. Ca peut à la limite fonctionner dans un pays comme les US ou la Suisse mais imagine le truc en Italie. Tu ne peux pas entrainer une IA fiablement avec de mauvais comportements, il faut la cadrer. Donc je suis quasi certain qu'elle va évoluer vers des contraintes manuelles par la suite.
Musk fait du Musk, il pense que tout est comme chez lui en Californie jusqu'au jour ou la réalité et la complexité du monde lui fera changer de cap.

Je vois ce que tu veux dire mais c'est pas du tout ce que prépare Tesla. L'annonce c'est "la V12 n'aura plus l'étiquette beta".

Donc évidemment ça ne sera pas du niveau 5, mais plutôt du 2+. La voiture va conduire magiquement comme un humain et va s'en sortir dans presque toutes les situations - mais de temps en temps l'IA va partir en sucette et donc il faudra rester attentif.

Sans système redondant (capteurs + traitements), AMA ils ne vont même pas tenter de déclarer à la NHTSA que c'est du niveau 3, ce serait trop risqué - mais on verra.

Par ailleurs ton exemple est mal choisi:

image.png.786c40961e6a5b14cc8922494159e324.png

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 18:12, MrFurieux a dit :

Je vois ce que tu veux dire mais c'est pas du tout ce que prépare Tesla. L'annonce c'est "la V12 n'aura plus l'étiquette beta".

Donc évidemment ça ne sera pas du niveau 5, mais plutôt du 2+. La voiture va conduire magiquement comme un humain et va s'en sortir dans presque toutes les situations - mais de temps en temps l'IA va partir en sucette et donc il faudra rester attentif.

Sans système redondant (capteurs + traitements), AMA ils ne vont même pas tenter de déclarer à la NHTSA que c'est du niveau 3, ce serait trop risqué - mais on verra.

 

Ha ok, je comprends mieux si on reste au niveau 2. J'avais compris qu'il voulait passer directement en niveau 4 avec la V12. Donc ils laissent la responsabilité des faiblesses du FSD au conducteur. Je ne sais pas si c'est plus safe que sans rien...
Pour l'Italie, étonnant, je suis Italien et à chaque fois que j'y vais, j'ai peur 🤣. En fait ce n'est pas vraiment le nombre d'accidents ou de morts qui est problématique, c'est la façon de conduire. Je sais pas si un IA peut s'adapter à ce point.
Après ça dépends des régions, un peu comme aux US. T'as les données pour la Californie ?

Modifié par jackseg

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 18:12, MrFurieux a dit :

Je vois ce que tu veux dire mais c'est pas du tout ce que prépare Tesla. L'annonce c'est "la V12 n'aura plus l'étiquette beta".

Donc évidemment ça ne sera pas du niveau 5, mais plutôt du 2+. La voiture va conduire magiquement comme un humain et va s'en sortir dans presque toutes les situations - mais de temps en temps l'IA va partir en sucette et donc il faudra rester attentif.

Sans système redondant (capteurs + traitements), AMA ils ne vont même pas tenter de déclarer à la NHTSA que c'est du niveau 3, ce serait trop risqué - mais on verra.

Par ailleurs ton exemple est mal choisi:

image.png.786c40961e6a5b14cc8922494159e324.png


je pense pareil que toi.

Sauf que je pense que C’est une bonne stratégie étant donné qu’un vrai niveau 5 sera quasiment impossible à atteindre avant un bon moment.

Modifié par stagu825

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 18:16, jackseg a dit :

Pour l'Italie, étonnant, je suis Italien et à chaque fois que j'y vais, j'ai peur

C'est pour ça qu'il y a moins de morts, vu comme ça roule tout le monde est beaucoup plus attentif !

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 18:16, jackseg a dit :

Pour l'Italie, étonnant, je suis Italien et à chaque fois que j'y vais, j'ai peur 🤣. En fait ce n'est pas vraiment le nombre d'accidents ou de morts qui est problématique, c'est la façon de conduire. Je sais pas si un IA peut s'adapter à ce point.

Ça va être sympa si nos voitures se comportent comme nous. La mienne comme moi, et la tienne comme toi. Et au début de sa vie, tant qu'elle ne nous connaît pas, en France comme un Français et en Italie comme un Italien.  Cool !

Modifié par tben

Partager ce message


Lien à poster
Partager sur d’autres sites

Le 28/08/2023 à 20:24, tben a dit :

Ça va être sympa si nos voitures se comportent comme nous. La mienne comme moi, et la tienne comme toi. Et au début en France comme un Français et en Italie comme un Italien.  Cool !

Ce sera un problème dans les pays ou les gens ne respectent pas ou peu les règles. M'enfin, je demande déjà à voir déjà dans les pays d'Europe du nord ou l'Allemagne ou encore la Suisse et dans des conditions difficiles, hivernales, de nuit, ...

Partager ce message


Lien à poster
Partager sur d’autres sites





×
×
  • Créer...
Automobile Propre

Automobile Propre est un site d'information communautaire qui est dédié à tout ce qui concerne l'automobile et l'environnement. Les thématiques les plus populaires de notre blog auto sont la voiture électrique et les hybrides, mais nous abordons également la voiture GNV / GPL, les auto à l'hydrogène, les apects politiques et environnementaux liés à l'automobile. Les internautes sont invités à réagir aux articles du blog dans les commentaires, mais également dans les différents forums qui sont mis à leur dispositon. Le plus populaire d'entre eux est certainement le forum voiture électrique qui centralise les discussions relatives à l'arrivée de ces nouveaux véhicules. Un lexique centralise les définitions des principaux mots techniques utilisés sur le blog, tandis qu'une base de données des voitures (commercialisées ou non) recense les voitures électriques et hybrides.