Die US-amerikanische Verkehrsorganisation NTHSA hat kürzlich bekanntgegeben, dass ein Fahrzeug des Typs Tesla Model S im Bundesstaat Florida am 7. Mai 2016 bei aktiviertem "Autopilot" einen schweren Unfall hatte. Nach vorläufigem Bericht passierte der Unfall, nachdem ein Sattelschlepper bei einer Kreuzung vor dem Tesla links abbiegen wollte. Der Fahrer sei an den Unfallfolgen gestorben. Der nachfolgende dialektische Blog diskutiert mögliche Schlussfolgerungen aus diesem Unfall.

Warum Tesla alles richtig gemacht hat

 

  • Tesla hat durch das offensive Vorgehen („Autopilot“) viele Tesla-Besitzer motiviert, diese Funktionalität zu benutzen. Dadurch treibt Tesla wichtige Technologien voran. In kurzer Zeit sind mehr Erfahrungen gemacht worden, als bei Versuchsfahrten überhaupt wirtschaftlich machbar gewesen wären.
  • Tesla hat vor der Aktivierung den Fahrer darauf hingewiesen, dass er den Autopiloten dauerhaft überwachen muss. Wenn Fahrer dies trotz Bestätigung nicht tun, handeln sie fahrlässig.
  • Tesla hat automatisiertes Fahren auch für sportliche Typen interessant gemacht.
  • Tesla erreicht technikaffine Kundengruppen, die geübt sind mit neuen Funktionen und damit Tesla helfen, Feedback über Unzulänglichkeiten zu bekommen, die in Verbesserung einfließen können, während ansonsten andere immer auf technikskeptische Kundengruppen Rücksicht nehmen und Angst vor Reklamationen haben.
  • Tesla hat die Barriere Privatheit für das Datensammeln durchbrochen und erhält so eine Datenbasis mit hoher Qualität, ohne dass die Kunden gegen die Datennutzung protestiert haben. Dadurch ist die Akzeptanz für die Datenabgabe bei Nutzung der Automatisierung erheblich vorangekommen.
  • Tesla sammelt sehr viele wertvolle Datensätze und hat damit eine hervorragende Basis für die Weiterentwicklung zur Verfügung.
  • Tesla kann dynamisch über die Over-the-Air-Update-Möglichkeit eine baldige Verbesserung der Funktion erreichen, so dass in Zukunft die Zahl der falschen Reaktionen immer geringer werden wird.
  • Tesla ebnet dem vollautomatisierten Fahren den Weg, weil der Ansatz des frühzeitigen Einsatzes die Technikentwicklung beschleunigt.
  • Tesla liegt mit einem Unfall mit Todesfolge in 210 Mio. km im Bereich bisheriger Unfallhäufigkeiten und damit weitaus besser als Kritiker erwartet haben.
  • Tesla ebnet dem vollautomatisierten Fahren den Weg, weil die Öffentlichkeit schon früh darauf vorbereitet wird, dass auch automatisiertes Fahren nicht ohne Risiko sein wird und die Bevölkerung so desensibilisiert wird und spätere Unfälle vollautomatisierter Fahrzeuge nicht mehr so viel publizistisches Interesse erfahren werden.
  • Tesla nimmt das Risiko zu scheitern auf sich, ohne so viele Arbeitsplätze wie traditionelle OEMs.
  • Tesla erzeugt das Image der technologischen Führerschaft, obwohl gleichwertige Funktionen anderer Hersteller existieren.

 

Warum Tesla alles falsch gemacht hat

 

  • Tesla hat den Mund zu voll genommen und – zumindest implizit – ein heute noch nicht einhaltbares Funktionsversprechen gegeben. Schon der Name „Autopilot“ ist für ein Fahrerassistenzsystem irreführend gewählt. Traditionelle OEMs kommunizieren dagegen die neue Funktionalität immer sehr vorsichtig, um den Kunden nicht zu Missbrauch anzustiften.
  • Tesla hat versucht, die Verantwortung für eine unvollkommene Fahrfunktion durch Disclaimer, die per Bildschirm-Klick bei der Installation vom Nutzer zu bestätigen sind, auf diesen abzuwälzen.
  • Tesla setzt Kunden als Beta-Tester für eine unvollkommene Fahrfunktion ein, statt eine umfangreiche Absicherung vor dem Upgrade zu unternehmen.
  • Tesla eröffnet den Fahrern zu viele Möglichkeiten des bewussten und unbewussten Missbrauchs. Obwohl Tesla die vielfältigen Missbrauchsmöglichkeiten der Funktion kennen musste, wurden zu lange keine wirksamen Gegenmaßnehmen getroffen um „Blindflüge“ zu verhindern. Insbesondere achtet Tesla zu wenig darauf, ob der Fahrer das System tatsächlich überwacht und ob das Fahrzeug sich tatsächlich auf einer Autobahn befindet, für die das System konstruiert wurde.
  • Tesla hat eine teilautomatisierte Fahrfunktion in den Markt gebracht, ohne die in dieser Fahrzeugklasse sonst üblichen Sicherheitsfunktionen – wie beispielsweise automatische Notbremsmanöver – implementiert zu haben.
  • Tesla hat ein in vielfacher Hinsicht unvollkommenes Fahrerassistenzsystem in die Hand von Kunden gegeben. So wurden nur zwei Sensorprinzipien eingesetzt, obwohl die Fachwelt schon länger die Notwendigkeit von drei Prinzipien sieht. Auch erscheinen die Wahrnehmungsfähigkeiten der verwendeten Sensoren unzureichend.
  • Tesla beachtet keine Privatheit und setzt unbegrenzt Datensammlungen ein.
  • Tesla riskiert durch den gewählten Sonderweg ohne Absprache mit anderen OEMs die Zukunft einer zukunftsweisenden Technologie.

Kommentar schreiben


Sicherheitscode
Aktualisieren

Adresse

Uni-DAS e. V.

Otto-Berndt-Straße 2
64287 Darmstadt

Telefon: +49 (0)721 9654-256
Telefax: +49 (0)721 9654-257