Tesla’s met Autopilot zouden in theorie vrijwel zelfstandig en veilig moeten kunnen rijden. Uit onderzoek van het Amerikaanse Consumer Reports blijkt het tegenovergestelde. Volgens het instituut snijdt de software andere weggebruikers af, haalt het op illegale manieren in en doet het af en toe zelfs een 'brake check' op achterliggers.

Tesla Model S AutopilotTesla Model S Autopilot


Elon Musk, CEO van Tesla, beweert al langer dat Tesla erg ver is met het ontwikkelen van de Autopilot. De software moet volgens hem veel beter presteren dan een mens ooit zou kunnen. De Amerikaanse consumentenbond (Consumer Reports) nam de proef op de som met een onderdeel van de Autopilot-software: Navigate on Autopilot met alle waarschuwingen uit.

Agressief

De Navigate on Autopilot-software is volgens Tesla bedoeld om navigatie over langere afstanden te versimpelen. Het kan bijvoorbeeld de auto de snelweg op- en afsturen, maar heeft altijd input van de bestuurder nodig. Daarnaast kan ingesteld worden hoe agressief de software inspeelt op het verkeer rondom de auto, en kan het systeem zelf keuzes maken als alle waarschuwingen uitgezet worden. Het is volgens Tesla een goede stap in de richting van volledige autonomie.

Consumer Reports denkt daar heel anders over. Het instituut testte de functie uitvoerig en kwam tot de conclusie dat het systeem slechter kan rijden dan een mens. Navigate on Autopilot blijkt meerderde malen andere weggebruikers af te snijden of ze op illegale manieren in te halen. Het ergste is nog dat de software de achterliggers in enkele gevallen zelfs brake checkt (plotseling remmen zonder reden).

Zonder ‘hulp’

Daarnaast is de software niet in staat om remlichten te herkennen en kan het nergens inschatten wat andere weggebruikers zullen gaan doen. Volgens de testers betekent het eigenlijk dat je constant de software een stapje voor moet zijn of deze moet corrigeren. Uiteindelijk bleek het in veel gevallen handiger om zonder ‘hulp’ van Autopilot te rijden.

De bevindingen van Consumer Reports zijn al vrij vernietigend, maar het instituut maakt het nog erger. Het beweert namelijk dat Tesla met Navigate on Autopilot vooral aan andere fabrikanten laat zien hoe het niet moet door software in te zetten die niet goedgekeurd is. De testers vinden eigenlijk dat Tesla, net als andere fabrikanten van autonome systemen, eerst uitvoerig moet testen met rigoreuze simulaties, circuittest en het gebruik van echte gebruikers in de echte wereld.

Beperkt

Uiteindelijk lijkt de oorzaak van het hele probleem voor oorzaak te vinden in de manier waarop Tesla over Autopilot communiceert. Het merk laat het lijken dat het systeem bijna volledig autonoom kan rijden, maar in de werkelijkheid kan het niet of nauwelijks meer dan systemen die we bij andere fabrikanten aantreffen (lane assist, adaptive cruise control, en dergelijke). Argeloze bestuurders en kopers vertalen Autopilot simpelweg als zelfrijdend en dat snappen wij. Misleidend en gevaarlijk constateerde ook Autovisie al eerder.

Ook helpt het niet mee dat Tesla nieuwe features in de echte wereld laat testen door gebruikers. Zo moest de EU onlangs ingrijpen en moest Tesla de functionaliteit van Autopilot beperken. De stuuruitslag bij het in en uitvoegen van een rijbaan werd beperkt omdat deze te agressief was. Ook moet de auto eerder reageren als hij van baan wil wisselen.