Als ein Waymo-Robotaxi Ende 2024 in Austin, Texas, an einem Schulbus vorbeifuhr, der mit aktiviertem Stoppsignal Kinder absetzte, war es nicht die künstliche Intelligenz, die den Fehler beging – sondern ein menschlicher Operator am Fernsteuerungspult. Der Vorfall, der mittlerweile von der US-Verkehrssicherheitsbehörde untersucht wird, wirft fundamentale Fragen über die Sicherheitsarchitektur autonomer Fahrzeuge auf und offenbart eine beunruhigende Parallele: Die Robotaxi-Industrie wiederholt Fehler, die das US-Militär bei der Entwicklung von Drohnenoperationen bereits vor Jahrzehnten gemacht hat.
Wenn der menschliche Rettungsanker versagt
Das Paradox der modernen Autonomietechnologie liegt darin, dass selbstfahrende Fahrzeuge gerade in Situationen, die für menschliche Fahrer Routine sind, regelmäßig scheitern. Baustellen, Schulbusse mit ausgefahrenen Stoppschildern, Stromausfälle oder sich unpredictabel verhaltende Fußgänger überfordern die künstliche Intelligenz noch immer. Die Lösung der Industrie: menschliche Fernoperatoren, die aus der Distanz eingreifen, wenn das System überfordert ist.
Im Austin-Vorfall sollte genau dieser Mechanismus funktionieren. Stattdessen erteilte ein Remote-Operator dem Waymo-Fahrzeug die Anweisung weiterzufahren, obwohl das Stoppsignal des Schulbusses klar erkennbar war – ein Verstoß gegen eine der fundamentalsten Verkehrsregeln. Das Fahrzeug selbst hatte die Situation offenbar nicht vollständig verstanden und um menschliche Hilfe gebeten. Der Mensch, als letzte Sicherheitsinstanz gedacht, wurde zum Schwachpunkt im System.
Lektionen aus 35 Jahren Drohnenkrieg
Die Problematik ist keineswegs neu. Seit den 1980er Jahren operiert das US-Militär unbemannte Luftfahrzeuge (UAVs) unter menschlicher Fernüberwachung. Die frühen Jahre waren geprägt von zahlreichen Unfällen, verursacht durch schlecht gestaltete Kontrollstationen, mangelnde Ausbildung und Kommunikationsverzögerungen. Missy Cummings, ehemalige Navy-Kampfpilotin und Pionierin der UAV-Forschung, hat Tausende Stunden mit der Analyse dieser Systeme verbracht und eine fundierte Wissensbasis über sichere Remote-Operationen entwickelt.
Besonders aufschlussreich: Die Unfallrate bei ferngesteuerten Start- und Landevorgängen von Drohnen lag zeitweise beim 16-fachen der Rate bemannter Kampfjets bei gleichen Missionen. Der Grund waren primär Kommunikationsverzögerungen von zwei Sekunden oder mehr zwischen Las Vegas, wo sich das primäre US-Drohnenkontrollzentrum befindet, und dem Nahen Osten, wo die Flugzeuge operierten. Das Militär reagierte schließlich und wechselte zu lokalen Operatoren in Sichtweite oder vollautomatisierten Manövern.
Die Robotaxi-Industrie scheint diese Lektionen zu ignorieren. Waymo beispielsweise hat seine Fernoperationszentrale von den USA auf die Philippinen verlegt – eine Entscheidung, die die Netzwerklatenz signifikant erhöht.
Fünf kritische Herausforderungen der Fernsteuerung
Latenz: Der unsichtbare Killer
Die Verzögerung bei der Übertragung von Informationen ist die größte einzelne Herausforderung bei der Fernsteuerung. Selbst unter perfekten Bedingungen benötigt der menschliche Körper 200 bis 500 Millisekunden, um auf neue Informationen zu reagieren – die sogenannte neuromuskuläre Verzögerung. In der Fernoperation kommt die Netzwerklatenz hinzu.
Bei Waymo führte dieses Problem bereits zu dokumentierten Zwischenfällen: Ein Operator wies ein Fahrzeug an, bei Gelb links abzubiegen – doch durch die Netzwerkverzögerung war die Ampel in der Realität bereits rot, als das Fahrzeug reagierte. Robotaxi-Unternehmen verlassen sich typischerweise auf Mobilfunknetze, die in Städten unzuverlässig und anfällig für Verzögerungen sind.
Arbeitsplatzgestaltung: Wenn Knöpfe Leben kosten
Schlechtes Schnittstellendesign hat zu zahlreichen Drohnenabstürzen geführt. In einem dokumentierten Fall waren die Bedienelemente so angeordnet, dass Piloten versehentlich das Triebwerk abschalteten, statt eine Rakete abzufeuern. Militärische Untersuchungen zeigen, dass zwischen 20 und 100 Prozent der durch menschliche Fehler verursachten Abstürze – je nach Drohnentyp – auf schlechtes Interface-Design zurückzuführen waren.
In der Robotaxi-Branche gibt es Hinweise auf vergleichbare Probleme. Einige autonome Shuttles verwenden handelsübliche Gaming-Controller – kostengünstig, aber nie für Fahrzeugkontrolle konzipiert. Die zweckentfremdete Nutzung solcher Controller kann zu Verwechslungen der Betriebsmodi führen, was bereits zu Unfällen beigetragen hat.
Operative Belastung: Zwischen Langeweile und Überforderung
Drohnenmissionen umfassen typischerweise lange Überwachungsphasen, die gelegentlich in einem Raketenangriff enden – Missionen können sich über Tage erstrecken. Remote-Operatoren erleben dadurch extreme Schwankungen in der Arbeitsbelastung: manchmal überwältigende Intensität, manchmal zermürbende Langeweile. Beide Zustände können zu Fehlern führen.
Robotaxi-Operatoren dürften ähnliche Probleme erleben. In einfachen Szenarien droht Langeweile und nachlassende Aufmerksamkeit, in Notfällen – etwa beim Einfahren in ein Überflutungsgebiet oder während eines stadtweiten Stromausfalls – können sie schnell überfordert sein. Waymos Fahrzeuge blieben während eines Stromausfalls in San Francisco 2025 auf Verkehrsspuren stehen und blockierten Rettungskräfte, obwohl sie eigentlich “Minimalrisikomanöver” wie das Ausweichen an den Straßenrand hätten durchführen sollen.
Ausbildung: Die unterschätzte Kernkompetenz
Frühe Drohnenprogramme hatten keine formalen Ausbildungsanforderungen. Trainingsprogramme wurden von Piloten für Piloten entworfen – doch die Überwachung einer Drohne ähnelt eher der Flugsicherung als dem eigentlichen Fliegen. Viele Unfälle waren die Folge unzureichender Vorbereitung. Erst Jahre später führte das Militär eine gründliche Analyse der benötigten Kenntnisse, Fähigkeiten und Fertigkeiten durch und reformierte die Ausbildung.
Robotaxi-Unternehmen veröffentlichen ihre Ausbildungsstandards nicht, und derzeit gibt es keine Vorschriften für die Qualifikationen von Fernoperatoren. Wenn in der kommerziellen Luftfahrt für Dispatcher – deren Tätigkeit der von Robotaxi-Operatoren sehr ähnlich ist – formale, von der FAA überwachte Ausbildung vorgeschrieben ist, sollten kommerzielle Robotaxi-Unternehmen an vergleichbare Standards gebunden werden.
Notfallplanung: Wenn nichts mehr geht
Die Luftfahrt verfügt über strenge Protokolle für Notfälle: vordefinierte Prozeduren bei Kommunikationsverlust, Backup-Bodenkontrollstationen und hochzuverlässige Bordverhalten bei Autonomieausfall. Militärische Drohnen fliegen sich selbst in sichere Bereiche oder landen autonom, wenn der Kontakt abbricht. Systeme sind mit Blick auf Cybersecurity-Bedrohungen wie GPS-Spoofing konzipiert.
Robotaxis erscheinen deutlich weniger vorbereitet. Der erwähnte Stromausfall in San Francisco offenbarte erhebliche Lücken in der Notfallplanung und im grundlegenden Fail-Safe-Design.
Regulatorische und technische Konsequenzen
Der Austin-Vorfall hat weitreichende Implikationen für die gesamte Branche. Erstens verdeutlicht er, dass Remote-Operationen nicht als unterstützende Funktion, sondern als missionskritisches Sicherheitssystem behandelt werden müssen. Zweitens wirft er die Frage auf, ob die derzeitige regulatorische Aufsicht ausreichend ist. Während Luftfahrt-Dispatcher strengen Zertifizierungsanforderungen unterliegen, operieren Robotaxi-Fernsteuerer in einem weitgehend unregulierten Raum.
Die Industrie muss Arbeitsbelastungsmodelle entwickeln und zuverlässig vorhersagen können, wie viele Fahrzeuge eine einzelne Person effektiv überwachen kann – insbesondere während Notfalloperationen. Das Militär versucht seit Jahren, eine Person mehrere Drohnen gleichzeitig überwachen zu lassen, scheiterte jedoch an kognitiven Umschaltkosten, komplexen Schnittstellen und Kommunikationsverzögerungen. Sollte sich herausstellen, dass jedes Robotaxi einen dedizierten, aufmerksamen Menschen benötigt, wäre das Geschäftsmodell nicht mehr kosteneffektiv.
Ausblick: Eine Branche am Scheideweg
Die Geschichte militärischer Drohnenoperationen bietet der Robotaxi-Industrie wertvolle Lektionen. Jahrzehnte an Erfahrung zeigen, dass Fernüberwachung extrem niedrige Latenz, sorgfältig gestaltete Kontrollstationen, beherrschbare Operatorenbelastung, rigorose Ausbildungsprogramme und starke Notfallplanung erfordert.
Solange künstliche Intelligenz mit Unsicherheit kämpft – und das wird absehbar der Fall bleiben –, wird menschliche Fernüberwachung unverzichtbar bleiben. Das Militär hat diese Lektionen durch schmerzhafte Versuche und Irrtümer gelernt, die Robotaxi-Branche scheint sie zu ignorieren. Der Vorfall in Austin ist möglicherweise ein Wendepunkt: Er könnte entweder den Anstoß zu grundlegenden Reformen geben oder als Warnung in den Wind geschlagen werden.
Die Industrie steht vor der Wahl, aus fremden Fehlern zu lernen – oder sie auf öffentlichen Straßen zu wiederholen. Die Sicherheit aller Verkehrsteilnehmer hängt davon ab, welchen Weg sie wählt.