In mei vond een dodelijk ongeval plaats met een Tesla Model S die deels zelf reed met behulp van Autopilot. Dat zorgt sindsdien voor de nodige discussie rondom de technologie van zelfrijdende auto’s. In het geval van dit ongeluk wisten de sensoren van de auto een voorliggen niet te herkennen, waardoor de auto erop botste.
Maar er zijn nog andere bezwaren: technologie kan gehackt of gemanipuleerd worden. Dus ook een auto. Het is een team van Chinese en Amerikaanse onderzoekers gelukt om dat te doen, schrijft Wired. Zij lieten de Autopilot-functie van Tesla denken dat er geen objecten waren terwijl dat wel zo was, of andersom. De onderzoekers slaagden daar de ene keer beter in dan de andere keer, maar het laat alsnog zien hoe de software van Tesla kwetsbaarheden bevat die misbruikt kunnen worden door de sensoren en camera’s voor de gek te houden.
De deels zelfrijdende functies van Tesla werken met sensoren, radars en camera’s. De onderzoekers vonden de kwetsbaarheid door de signalen van de radars, waarmee de auto afstand tot objecten kan bepalen, en van sensoren, waarmee de auto bijvoorbeeld automatisch kan inparkeren, te manipuleren. Een aanval op de camera’s bleek minder effectief.
Volgens Tesla, dat de resultaten van het onderzoek heeft bekeken, is Autopilot op dit moment veilig genoeg om in de praktijk te gebruiken. Wel moet je als bestuurder altijd in kunnen grijpen als dat nodig is, maar dat was altijd al zo.