Welcome to Tesla Motors Club
Discuss Tesla's Model S, Model 3, Model X, Model Y, Cybertruck, Roadster and More.
Register

Autopilot

This site may earn commission on affiliate links.
Voor de liefhebbers van de techniek achter de Autopilot, is dit de beste samenvatting die ik tot nu toe heb gelezen. Of alle aannames correct zijn valt te betwijfelen, maar de achtergronden zijn de moeite waard.

Blijkbaar staat ze op het punt de Nvidia Tegra 3 ook al vervangen, voor de Nvidia VCM. Ik ben zelf wel benieuwd of die ook in de Model X zit, aangezien die al is gespot met een stereo camera achter de spiegel.

Exclusive: The Tesla AutoPilot - An In-Depth Look At The Technology Behind the Engineering Marvel
 
Interessant leesvoer, R.

En aan het eind komt Alan Turing ook nog even langs: (DNN: Deep Neural Network)
DNNs are becoming more and more precise and the massive leap between progressive generations will quickly result in the day where it would be very hard to distinguish a DNN based intelligence from a true human intellect. That time is still very far away, but without a shadow of a doubt, it is coming. And on that (hopefully) ominous note, I would like to end this editorial.
 
Voor de liefhebbers van de techniek achter de Autopilot, is dit de beste samenvatting die ik tot nu toe heb gelezen. Of alle aannames correct zijn valt te betwijfelen, maar de achtergronden zijn de moeite waard.

Blijkbaar staat ze op het punt de Nvidia Tegra 3 ook al vervangen, voor de Nvidia VCM. Ik ben zelf wel benieuwd of die ook in de Model X zit, aangezien die al is gespot met een stereo camera achter de spiegel.

Exclusive: The Tesla AutoPilot - An In-Depth Look At The Technology Behind the Engineering Marvel

Helaas, *weer* niet meer info over of analyse van het meest interessante deel; het systeem dat Tesla zelf bovenop MobilEye heeft gebouwd. Hier weten we eigenlijk nog steeds weinig over.
 
Helaas, *weer* niet meer info over of analyse van het meest interessante deel; het systeem dat Tesla zelf bovenop MobilEye heeft gebouwd. Hier weten we eigenlijk nog steeds weinig over.

Inderdaad, en wat ik graag zou willen weten is hoe onze individuele wagens "leren". Met wat ik tot op heden heb ervaren, gok ik er op dat er extra info mee komt met de livestream van de navigatiedata. Ik denk dat er meer info wordt ontvangen dan vroeger. De reden dat ik dit denk, is dat mijn wagen schijnbaar na verloop van tijd anders begint te reageren tijdens een autosteer sessie zonder dat ik een nieuwe firmware release heb geïnstalleerd.
 
Inderdaad, en wat ik graag zou willen weten is hoe onze individuele wagens "leren". Met wat ik tot op heden heb ervaren, gok ik er op dat er extra info mee komt met de livestream van de navigatiedata. Ik denk dat er meer info wordt ontvangen dan vroeger. De reden dat ik dit denk, is dat mijn wagen schijnbaar na verloop van tijd anders begint te reageren tijdens een autosteer sessie zonder dat ik een nieuwe firmware release heb geïnstalleerd.

Dat bedoe ik idd; update frequentie van de leerervaringen van jouw wagen naar de Tesla cloud, frequency van updates van de Tesla cloud naar jouw wagen, gebaseerd op geofencing, of wellicht je geplande route ? Ook: leert hij rechtstreeks van zichzelf, of alleen na een uitwisseling van data met de Tesla servers? Zou er wat voor over hebben om eens in dat systeem te mogen rondneuzen, maar ja het is natuurlijk wel hun gouden ei op het moment.
 
Ik vraag mij eigenlijk af, los van de autopilot, waar de on-line navigatiedata vandaan komt. Komt dat rechstreeks van Google of passeert dat via de Tesla servers zodat zij daar kunnen op ingrijpen? Ik vermoed dat laatste. Bij de presentatie van autopilot zag je dat het de bedoeling was om navigatiekaarten met een (veel) hogere resolutie te produceren waarop de individuele rijvakken en "ideale lijnen" per rijvak worden geplot. Ik vermoed dat het dit is wat wij doorsturen en wat wij terug ontvangen na een statistische transformatie. Uiteindelijk heeft onze wagen een ideale lijn nodig die ze zo nauwkeurig mogelijk moet proberen te volgen. De nauwkeurigheid van onze GPS positie is ook zoiets waar we het raden naar hebben. Wat zou onze wagen kunnen leren buiten de ideale lijn voor elke mogelijke weg?

- - - Updated - - -


Het is een goed artikel maar ik blijf met een grijze zone zitten over wat de Tesla's precies van elkaar leren. Via de MobilEye technologie heeft een Tesla inderdaad strikt genomen geen kaart nodig maar toch doet hij dingen na verloop van tijd anders omdat hij iets geleerd heeft over die locatie. Wat is dat dan, buiten info over een "betere lijn" en/of eventueel "betere snelheid"?
 
De autopilot leert van de ervaringen van jezelf of van anderen op dezelfde locatie.

Bijvoorbeeld Waze werkt precies zo. Als iedereen opeens aan de verkeerde kant een eenrichtingsweg in gaat, leert Waze dat dit blijkbaar mogelijk is en zal voortaan deze bestuurders, maar ook andere bestuurders op die manier door die weg navigeren. Of het nu precies overlays op de kaarten van Google zijn, of eigen Tesla kaarten boeit niet zo.

Ging Tesla dit principe ook maar voor de navigatie toepassen, dan had ik Waze niet meer nodig.
 
Helaas, *weer* niet meer info over of analyse van het meest interessante deel; het systeem dat Tesla zelf bovenop MobilEye heeft gebouwd. Hier weten we eigenlijk nog steeds weinig over.

Er is beging volgend jaar een conferentie over Deep Neural Networks, waar ook Tesla medewerkers aanwezig zijn. Helaas gaan wij zelf niet, maar ik ben in contact met iemand van het US forum die wel gaat. Wat aan de ene kant jammer is, maar ook wel begrijpelijk, is dat Tesla zéér zwijgzaam is wat ze allemaal doen op dit gebeid. Met 100 medewerkers die hier naar verluid aan werken is dat niet eenvoudig, zeker niet als die regelmatig worden gehunt door andere partijen. Wat dat betreft lijken ze erg op Apple, die ook nooit iets deelt met de rest van de wereld. Google, en zelf Microsoft zijn een stuk opener in dit vakgebied.

Het is aan de andere kan wel begrijpelijk omdat ze zich willen onderscheiden van de commodity - MobilEye gaat deze basis functionaliteit ook leveren, en dat zal voor iedereen beschikbaar zijn. Dus als je je als leverancier wilt onderscheiden op basis van commodity hardware moet je zelf investeren. Daarom is het ook interessant om te weten hoe ze e.e.a. qua gaan implementeren. Pakken ze de nieuwe VCM voor de processing? Dan hoef je niet te wachten op de nieuwe MobilEye hardware, of kun je die als backup gebruiken. Zijn de huidige sensors genoeg voor een volgende stap? Dat wordt betwijfeld. Daarom is het interessant om te zien of de AP hardware in de Model X inderdaad al een stap verder is, de Model S zal dan zeker volgen - voor dit soort toepassingen heb je nu eenmaal nooit genoeg processing power.

Verder is het een strijd om de data. Je kunt de neurale modellen uitrekenen en met regelmaat downloaden, dat is niet zo complex. Maar je hebt een goede 'ground truth' nodig, en dat is wat alle AP rijders nu aan het verzamelen zijn. Dan kun je op basis daarvan de verschillen beter, en sneller, begrijpen
 
De nauwkeurigheid van onze GPS positie is ook zoiets waar we het raden naar hebben. Wat zou onze wagen kunnen leren buiten de ideale lijn voor elke mogelijke weg?

- - - Updated - - -

Het is een goed artikel maar ik blijf met een grijze zone zitten over wat de Tesla's precies van elkaar leren. Via de MobilEye technologie heeft een Tesla inderdaad strikt genomen geen kaart nodig maar toch doet hij dingen na verloop van tijd anders omdat hij iets geleerd heeft over die locatie. Wat is dat dan, buiten info over een "betere lijn" en/of eventueel "betere snelheid"?

Precies, alle artikelen die ik er tot nu toe over gelezen heb (en ik lees alles wat los en vast zit) bevatten een behoorlijk deel aan guess and assumptions.
Het zou mijn vertrouwen in de AP goed doen als ik meer details over de functionaliteit zou weten.

- - - Updated - - -

Bijvoorbeeld Waze werkt precies zo. Als iedereen opeens aan de verkeerde kant een eenrichtingsweg in gaat, leert Waze dat dit blijkbaar mogelijk is en zal voortaan deze bestuurders, maar ook andere bestuurders op die manier door die weg navigeren.

Idem; we zouden meer moeten weten over hoe de Tesla AP dit aanpakt.
Bij mij is deze week een uitvalsweg uit de wijk afgesloten vanwege werkzaamheden. Het verkeer wordt omgeleid over een stoep en een parkeerterrein. Zou wat moois zijn als de navigatie mij volgende week na afloop van de werkzaamheden opeens over die stoep zou sturen. Om er maar niet aan te denken dat de AP er zelf over heen zou sturen :crying:. Dus de cruciale vraag: worden alle leerervaringen rucksichtloos naar de hele Tesla vloot gedeeld, of wordt er eerst nog even door een menselijk person beoordeeld wat er aan de hand is ? Van Tesla hoor je dat niet. Maar als er maar 100 man aan de AP werkt dan vrees ik het eerste.
 
Zijn de huidige sensors genoeg voor een volgende stap? Dat wordt betwijfeld. Daarom is het interessant om te zien of de AP hardware in de Model X inderdaad al een stap verder is, de Model S zal dan zeker volgen - voor dit soort toepassingen heb je nu eenmaal nooit genoeg processing power.

De huidige release is nogal strikt rond het vereisen van duidelijke belijning voor het gebruik van de autopilot. De MobilEye hardware heeft die belijning in principe niet nodig. Ben dus benieuwd of Tesla na verloop van tijd hierin een extra stap gaat zetten. Ze zullen wel moeten als de concurrentie met MobilEye zonder belijning vereiste uitkomt.
 
Vandaag rustig aan het cruisen op cc (bebouwde kom: 50 km/u) en ik merkte dat hij zelf voor de bocht afremde naar ongeveer 30 km/u. Zou hij een bepaald bordje "slingerende bochten" gelezen hebben of uit de kaart hebben opgemaakt dat er wat rare bochten aan kwamen?
 
Vandaag rustig aan het cruisen op cc (bebouwde kom: 50 km/u) en ik merkte dat hij zelf voor de bocht afremde naar ongeveer 30 km/u. Zou hij een bepaald bordje "slingerende bochten" gelezen hebben of uit de kaart hebben opgemaakt dat er wat rare bochten aan kwamen?

Deze melding toevallig gezien ?
ap.png