Zusammenfassung zeigen Zusammenfassung verbergen
Die US-Verkehrssicherheitsbehörde hat ihre Prüfung von Teslas Assistenzsoftware ausgeweitet, nachdem neue Unfallauswertungen darauf hindeuten, dass das System bei schlechter Sicht versagen kann. Für Fahrer, Aufsichtsbehörden und die Zukunft von Teslas Robotaxi-Plänen hat die Entwicklung unmittelbare Bedeutung.
Die NHTSA verstärkt ihre Untersuchung des als Full Self-Driving beworbenen Systems von Tesla. Aus der Analyse mehrerer Unfälle geht hervor, dass die Software Hindernisse bei eingeschränkter Sicht offenbar nicht zuverlässig erkennt – ein Ergebnis, das Fragen zur Eignung einer rein kamerabasierten Sensorarchitektur aufwirft.
Was die Behörde gefunden hat
Reinigung neu gedacht: Gerätefunktion spart Zeit beim Putzen
Sony PC-Strategie: ehemaliger Manager warnt vor Day-One-Veröffentlichungen und bestätigt Gerüchte
Nach Angaben der NHTSA sollte das System dem Hersteller zufolge erkennen, wenn die Kameras in ihrer Funktion beeinträchtigt sind, und den Fahrer warnen. Bei den untersuchten Fällen gab es jedoch keine Hinweise, dass das System Blendung, durch Partikel eingeschränkte Sicht oder ähnliche Probleme festgestellt und rechtzeitig Alarm geschlagen hätte. In der Folge blieb den Fahrern zu wenig Zeit, um sicher einzugreifen.
Die Prüfung betrifft Tesla-Modelle zurück bis ins Baujahr 2016. Die Behörde untersucht derzeit zwei Varianten der Software: die aktuell verbreitete, überwachte Version, bei der Lenker die Verkehrssituation stets übernehmen müssen, sowie eine weitergehende Beta-Stufe, die in den USA nur von ausgewählten Testpersonen genutzt wird.
Warum die Sensorfrage jetzt relevant ist
Elon Musk setzt auf ein Konzept, das ausschließlich auf Kameras basiert. Sollte sich diese Strategie als unzureichend erweisen, hat das unmittelbare Folgen: Sicherheitsrisiken für Nutzer, mögliche regulatorische Eingriffe und Einschränkungen für Teslas Pläne, mit selbstfahrenden Robotaxis neue Erträge zu erzielen.
Andere Anbieter, etwa die zu Google gehörende Firma Waymo, nutzen zusätzliche Technologien wie LiDAR und Radar, die auch bei schlechten Sichtverhältnissen stabile Umgebungsdaten liefern. Das führt zu einer anderen Kostenstruktur, aber auch zu einer anderen Risikoabschätzung.
| Sensoransatz | Kosten | Leistung bei schlechter Sicht | Typische Vertreter |
|---|---|---|---|
| Kamera-only | Niedriger | Begrenzter; anfällig bei Blendung, Nebel, Staub | Tesla |
| Multi-Sensor (LiDAR/Radar/Kamera) | Höher | Robuster; bessere Erkennung bei schlechten Sichtverhältnissen | Waymo, andere Robotaxi-Entwickler |
Mögliche Konsequenzen
Die aktuelle Vertiefung der Untersuchung kann unterschiedliche Folgen haben: von behördlichen Empfehlungen für Software-Updates bis hin zu formellen Maßnahmen wie Rückrufen oder Einschränkungen beim Beta-Einsatz.
- Software-Patches oder neue Warnmechanismen könnten kurzfristig ausrollen.
- Die NHTSA könnte strengere Vorgaben zur Sensorredundanz fordern.
- Langfristig kann sich die Debatte auf Teslas Geschäftsstrategie und Investorenvertrauen auswirken.
- Für Verbraucher bleibt die wichtigste Maßnahme: Fahrbereit bleiben und die Hände am Steuer behalten.
Für Tesla stehen damit nicht nur technische Fragen auf dem Prüfstand, sondern auch die Frage, ob ein kostengünstiger, rein kamerabasierter Ansatz ausreichend ist, um das Versprechen hochautomatisierter Mobilität sicher und zuverlässig zu erfüllen. Die kommenden Wochen werden zeigen, ob die Behörde weitere Schritte einleitet oder ob Tesla durch Softwareänderungen die festgestellten Mängel adressieren kann.












