Die Entwicklung autonomer Fahrzeuge gilt als eine der größten technologischen Herausforderungen unserer Zeit. Während sich die Aufmerksamkeit meist auf Algorithmen, Sensoren und künstliche Intelligenz konzentriert, wird ein entscheidender Aspekt häufig übersehen: die Fernüberwachung durch menschliche Operatoren. Hier offenbart sich eine überraschende Parallele zur militärischen Drohnentechnologie – und die Automobilindustrie könnte von jahrzehntelangen Erfahrungen profitieren, die das Militär teilweise unter großen Verlusten sammeln musste.

Von der Kampfdrohne zum Robotertaxi

Seit den 1980er Jahren setzt das US-Militär unbemannte Luftfahrzeuge ein. Was heute selbstverständlich erscheint, war damals ein Experimentierfeld voller Rückschläge. Die frühen Jahre waren geprägt von Abstürzen, die auf schlecht gestaltete Kontrollstationen, mangelnde Ausbildung und Kommunikationsverzögerungen zurückzuführen waren. Diese schmerzhaften Lektionen führten zu einem umfassenden Wissensschatz über sichere Fernoperationen – Erkenntnisse, die heute direkt auf selbstfahrende Autos übertragbar wären.

Die Parallele ist offensichtlich: Autonome Fahrzeuge scheitern regelmäßig an alltäglichen Situationen wie Baustellen, Schulbussen bei Stromausfällen oder unberechenbaren Fußgängern. In solchen Momenten greifen menschliche Operatoren aus der Ferne ein – genau wie bei militärischen Drohnen. Doch während das Militär aus Unfällen lernte und rigorose Standards entwickelte, scheinen Automobilhersteller dieselben Fehler zu wiederholen.

Zwei Formen der Fernsteuerung

Bei der Fernüberwachung autonomer Systeme unterscheidet man grundsätzlich zwei Ansätze. Die Teleoperation bezeichnet die direkte Fernsteuerung in Echtzeit, bei der ein Operator an einer Konsole mit Lenkrad und Pedalen sitzt – ähnlich einem Rennsimulator. Diese Methode reagiert extrem empfindlich auf Kommunikationsverzögerungen.

Die zweite Form ist die Remote Assistance, bei der Menschen keine direkten Steuerbefehle geben, sondern übergeordnete Anweisungen. Ein Operator könnte beispielsweise einen Pfad auf einer Karte markieren oder Handzeichen eines Bauarbeiters interpretieren, die die KI nicht versteht. Diese Methode toleriert größere Verzögerungen, bleibt aber zeitkritisch.

Fünf kritische Lektionen aus der Drohnenkriegführung

Latenz: Der unsichtbare Feind

Verzögerungen bei der Datenübertragung stellen die größte Herausforderung für die Fernsteuerung dar. Erschwerend kommt hinzu, dass Menschen eine eigene, neurologisch bedingte Reaktionszeit von 200 bis 500 Millisekunden haben. In frühen Drohnenprogrammen versuchten Piloten in Las Vegas, Starts und Landungen im Nahen Osten per Teleoperation durchzuführen. Bei mindestens zwei Sekunden Verzögerung lag die Unfallrate 16-mal höher als bei bemannten Kampfjets auf denselben Missionen. Die Lösung des Militärs: lokale Sichtlinienpiloten und schließlich vollautomatisierte Start- und Landevorgänge.

Selbstfahrende Autos nutzen typischerweise Mobilfunknetze zur Befehlsübermittlung – mit allen damit verbundenen Zuverlässigkeitsproblemen in Städten. Ein dokumentierter Waymo-Zwischenfall illustriert die Gefahr: Ein Operator instruierte ein Fahrzeug, bei einer scheinbar gelben Ampel links abzubiegen. Aufgrund der Netzwerkverzögerung war die Ampel in der Realität jedoch bereits rot. Nach der Verlagerung der Fernoperationszentrale von den USA auf die Philippinen verschärfte sich die Latenzproblematik zusätzlich.

Schnittstellendesign: Wenn Knöpfe töten

Unzureichend gestaltete Bedienoberflächen haben zahlreiche Drohnenabstürze verursacht. Je nach Plattform führte die US-Luftfahrtbehörde FAA zwischen 20 und 100 Prozent der durch menschliches Versagen verursachten Unfälle auf schlechtes Schnittstellendesign zurück. In einem Fall waren Knöpfe so angeordnet, dass Operatoren versehentlich das Triebwerk abschalteten, wenn sie eine Rakete abfeuern wollten.

Auch in der Automobilindustrie zeigen sich vergleichbare Probleme. Einige autonome Shuttles verwenden handelsübliche Gaming-Controller – kostengünstig, aber nie für Fahrzeugsteuerung konzipiert. Diese zweckfremde Nutzung kann zu Modusverwirrungen führen, die bereits bei einem Shuttle-Unfall eine Rolle spielten. Intensives Testing mit menschlichen Bedienern ist unerlässlich, nicht nur vor der Einführung, sondern auch nach größeren Software-Updates.

Arbeitsbelastung: Zwischen Langeweile und Überforderung

Drohnenmissionen beinhalten oft lange Überwachungsphasen, die gelegentlich mit einem Raketeneinsatz enden. Manchmal dauern sie tagelang – etwa wenn das Militär wartet, bis eine Zielperson ein Gebäude verlässt. Die Operatoren erleben dadurch extreme Schwankungen: von überwältigender Intensität bis zu zermürbender Langeweile. Beide Zustände führen zu Fehlern.

Bei aktiver Teleoperation ist die Belastung hoch und Ermüdung tritt schnell ein. Wenn die Bordautonomie jedoch die meiste Arbeit übernimmt, werden Operatoren gelangweilt, selbstgefällig und unaufmerksam. Dieses Muster ist in der Drohnenforschung umfassend dokumentiert.

Selbstfahrende Autos konfrontieren Operatoren vermutlich mit ähnlichen Herausforderungen – von der Interpretation verwirrender Schilder bis zur Befreiung eines Fahrzeugs aus einer Sackgasse. In einfachen Szenarien droht Langeweile, in Notfällen wie Überschwemmungen oder stadtweiten Stromausfällen schnelle Überforderung.

Das Militär versuchte jahrelang, eine Person mehrere Drohnen gleichzeitig überwachen zu lassen – aus Kostengründen. Doch kognitive Wechselkosten – das Wiedergewinnen der Situationswahrnehmung beim Umschalten zwischen Drohnen – führten zu Belastungsspitzen und hohem Stress. Selbstfahrende Unternehmen müssen Arbeitsbelastungen modellieren und zuverlässig vorhersagen können, wie viele Fahrzeuge eine Person effektiv überwachen kann. Sollte sich herausstellen, dass jedes autonome Auto einen dedizierten Menschen benötigt, wäre der Betrieb nicht mehr wirtschaftlich.

Ausbildung: Mehr als nur Fahren können

Frühe Drohnenprogramme verfügten über keine formalen Ausbildungsanforderungen. Die Schulungen wurden von Piloten für Piloten konzipiert – doch eine Drohne zu überwachen ähnelt eher der Fluglotsentätigkeit als dem eigentlichen Fliegen. Das Militär setzte Operatoren häufig in kritischen Rollen ein, ohne sie angemessen vorbereitet zu haben. Erst Jahre später führte das Militär eine gründliche Analyse der benötigten Kenntnisse, Fähigkeiten und Kompetenzen durch und reformierte die Ausbildungsprogramme.

Selbstfahrende Unternehmen veröffentlichen ihre Ausbildungsstandards nicht, und bislang regeln keine Vorschriften die Qualifikationen für Fernoperatoren. Die Straßensicherheit hängt maßgeblich von diesen Personen ab, doch es ist kaum bekannt, wie sie ausgewählt oder geschult werden. Wenn Disponenten in der kommerziellen Luftfahrt – deren Tätigkeit der von Fernoperatoren autonomer Autos sehr ähnelt – einer formalen, von der FAA überwachten Ausbildung bedürfen, sollten vergleichbare Standards für selbstfahrende Fahrzeuge gelten.

Notfallplanung: Wenn alles schiefgeht

Die Luftfahrt verfügt über strenge Notfallprotokolle: vordefinierte Verfahren für Kommunikationsausfall, Backup-Bodenkontrollstationen und hochzuverlässige Autonomiefunktionen bei Systemausfall. Militärische Drohnen können bei Kontaktverlust autonom in sichere Bereiche fliegen oder landen. Systeme sind mit Blick auf Cybersicherheitsbedrohungen wie GPS-Spoofing konzipiert.

Selbstfahrende Autos scheinen weit weniger vorbereitet. Der Stromausfall in San Francisco 2025 ließ Waymo-Fahrzeuge in Fahrspuren eingefroren zurück, blockierte Rettungskräfte und schuf Gefahrensituationen. Diese Fahrzeuge sollten eigentlich „Manöver mit minimalem Risiko" durchführen – wie das Ausweichen an den Straßenrand. Viele taten es nicht. Dies deutet auf Lücken in der Notfallplanung und im grundlegenden Fail-Safe-Design hin.

Der Weg nach vorn

Die Geschichte militärischer Drohnenoperationen bietet entscheidende Lektionen für die Automobilindustrie. Jahrzehnte der Erfahrung zeigen: Fernüberwachung erfordert extrem niedrige Latenz, sorgfältig gestaltete Kontrollstationen, handhabbare Arbeitsbelastung, rigorose Ausbildungsprogramme und robuste Notfallplanung.

Solange künstliche Intelligenz mit Unsicherheit kämpft – was auf absehbare Zeit der Fall bleiben wird –, bleibt menschliche Fernüberwachung unverzichtbar. Die Automobilindustrie hat die Chance und die Verantwortung, aus den Fehlern militärischer Drohnenprogramme zu lernen, bevor sie Verkehrsteilnehmer gefährdet. Die Lektionen existieren bereits – sie müssen nur beachtet werden.