Driving under Influence Enforcement - Waymo Taxi in San Bruno / San Francisco Airport, Kalifornien - bei illegalem U-Turn erwischt...Gesetz erlaubt zur Zeit nicht die Ausstellung eines Busszettels...

Vertrauen und KI: Wer haftet, wenn ein Waymo-Robotaxi gegen Regeln verstösst?

Seit der Abstimmung vom 29. September 2025 ist klar, dass die Parkgebühren in Zürichs Blauer Zone bald auf bis zu CHF 650 pro Jahr oder mehr – abhängig von Fahrzeugtyp und Gewicht, steigen werden.

Doch während die Kosten klar sind, bleibt eine Frage offen: Wer haftet, wenn das Auto kein Mensch mehr steuert wie beim Waymo-Robotaxi?

Haftungslücke bei autonomen Fahrzeugen: Der Halter zahlt – aber wer ist der Halter? Aktuell haftet der Halter für Falschparker – doch was gilt, wenn das Fahrzeug selbst entscheidet?

Der Fall eines Waymo Robotaxis in San Bruno (Kalifornien) zeigt die rechtliche Grauzone: Als das Auto vor der Polizei einen illegalen U-Turn machte, konnten die Beamten keinen Strafzettel ausstellen. Grund: „Unsere Formulare haben kein Kästchen für Roboter.

San Bruno zeigt: Es geht nicht um Formulare – es geht um Vertrauen

Das Problem ist grundsätzlicher als ein fehlendes Kästchen im Bussgeldkatalog. Es geht um soziales Vertrauen in KI-Systeme:

  • Wer übernimmt die Verantwortung, wenn Algorithmen handeln?
  • Wie können wir sicher sein, dass diese Systeme – ob beim autonomen Parken oder in kritischen Verkehrssituationen – fair, transparent und zuverlässig entscheiden?

📚 Teil unserer Serie über KI und Arbeit:

  1. KI in der Unternehmenskommunikation: Produktiver oder nur schneller?
  2. Chatbots im Alltag: Usability-Frust und KI-Grenzen
  3. KI und Produktivität: Was Studien wirklich zeigen
  4. Waymo-Robotaxi bricht Regeln – wer haftet? (sie sind hier)


Warum vertrauen wir der Post – aber misstrauen KI-Systemen?

Soziales Vertrauen basiert auf Zuverlässigkeit und Vorhersehbarkeit – ob bei der Post, die seit Jahrzehnten Pakete zustellt, oder bei einer KI, die Verkehrsregeln einhält.

Doch während die Post auf historische Erfahrung zurückgreifen kann, fehlt bei KI oft diese langfristige Gewissheit. Stattdessen müssen Gesetze und Technologien das Vertrauen sichern. Dies geschieht etwa durch Haftungsregeln für autonome Fahrzeuge wie das Waymo Robotaxi.

Doch wie funktioniert dieses Vertrauen, wenn wir die Akteure nicht persönlich kennen? Hier kommt der Unterschied zwischen zwischenmenschlichem und sozialem Vertrauen ins Spiel (siehe auch Baigrie, Oktober 2024).

Wenn wir die Akteure nicht kennen – sei es ein Postbote, ein Algorithmus oder ein Waymo Robotaxi – greift soziales Vertrauen.

Im Gegensatz zu zwischenmenschlichem Vertrauen (das auf direkten Erfahrungen beruht) entsteht soziales Vertrauen durch:

  • Kulturelle Prägung wie z.B. Vertrauen in Behörden und Organisationen,
  • Historische Erfahrungen wie zuverlässige Infrastruktur,
  • Geteilte Normen wie z.B. Verkehrsregeln.

Bruce Schneier (2025) nennt dies „öffentliches /soziales Vertrauen“ – die Fähigkeit, Systemen zu vertrauen, weil sie in verlässliche Rahmen eingebettet sind – sei es durch Regularien wie den EU AI Act oder aber auch technische Sicherheitsstandards.

Wie entsteht Vertrauen in KI? 5 entscheidende Faktoren

Soziales Vertrauen in autonome Systeme wie das Waymo Robotaxi oder KI-gestützte Navigations-Apps basiert auf 5 fünf Säulen.

Faktor Beschreibung Beispiel
1. Gesetze und Regularien Kritischste Bedrohung:Manipulation der KI Ergebnisse Manipulation von KI-Ergebnissen (z. B. Fehldiagnosen oder illegale U-Turns). Regularien wie der EU AI Act sollen dies verhindern. Illegale U-Turns von Waymo-Taxis (San Bruno, 2025)
2. Überprüfbarkeit Akzeptanz wird gefördert, wenn Nutzer:innen Ergebnisse einfach nachvollziehen können. Wetterprognosen mit kurzfristiger Verifizierung
3. Bewertungssysteme Öffentliche Bewertungen signalisieren Qualität und Zuverlässigkeit des KI-Dienstes. Sterne-Bewertungen für KI-Dienste (z. B. Uber)
4. Vergleichbarkeit Nutzer:innen vertrauen KI mehr, wenn sie Leistungen verschiedener Modelle vergleichen können (z. B. Genauigkeit von KI-Modellen). Vergleich von Wetter-Apps in Echtzeit-Tests
5. Zuverlässigkeit & Gültigkeit Reliabilität (Konsistenz) und Validität (Richtigkeit) müssen bewiesen werden – z. B. durch korrekte Echtzeit-Daten (Navis, die Baustellen anzeigen). Navigations-Apps mit live Updates.

Hinweis: Regularien wie der EU AI Act sind entscheidend, doch ihre Umsetzung bleibt herausfordernd:

  • Was gilt als „compliant“ (regelkonformer Einsatz)?
  • Wie lassen sich Manipulationen verhindern?
  • Wer haftet bei Versagen der KI?

Transparenz allein reicht nicht: 4 Schritte für vertrauenswürdige KI

Dass Unternehmen wie Waymo betonen, ihre 1.400 autonomen Taxis in Kalifornien seien sicher und würden kontinuierlich verbessert, ist notwendig – aber nicht hinreichend. Auch das grösste Schweizer Pilotprojekt für autonomes Fahren im Zürcher Furttal (2025) wirft Fragen auf: Was braucht es, damit wir KI-Systemen wirklich vertrauen?

Die Antwort liegt in 4 zentralen Bausteinen auch für Waymo-Robotaxi Autos:

  1. Nachvollziehbare Entscheidungen: Wie trifft die KI ihre Wahl? Welche Daten und Algorithmen steuern sie?
  2. Unabhängige Audits: Nicht nur interne Tests, sondern externe Prüfungen (z. B. durch Behörden) müssen Sicherheit bestätigen.
  3. Klare Haftungsregeln: Wer trägt die Verantwortung, wenn etwas schiefgeht? Der San Bruno-Vorfall zeigt: Aktuelle rechtliche Rahmen hinken hinterher – statt solche Fälle vorausschauend zu regeln. Eine proaktive Regulierung müsste Haftungsfragen von Anfang an klären, nicht erst im Nachhinein.
  4. Partizipation der Gesellschaft: Nutzer:innen, Städte und Zivilgesellschaft müssen mitgestalten – nicht nur als Passagiere, sondern als Akteure.

Erst dann können wir KI-Systemen vertrauen – nicht weil sie perfekt sind, sondern weil sie verantwortungsvoll, überprüfbar und im Dienst der Gesellschaft stehen.

Unteres Beispiel von Facebook …. auch auf Instagram von privater Person.

Driving under Influence Enforcement - Waymo-Robotaxi in San Bruno Kalifornien. Bis heute ist es nicht möglich einem selbstgesteuertem Auto (d.h. ohne Fahrer:in) bei Verstoss gegen Verkehrsregeln eine Busse auszustellen.
Driving under Influence Enforcement – Waymo-Rovbotaxi in San Bruno / San Francisco Airport, Kalifornien – bei illegalem U-Turn erwischt…


📜DrKPI CyTRAP AI-Verantwortlichkeitserklärung

Dieser Beitrag wurde mit KI-Unterstützung erstellt.
Eigene Recherchen, Erfahrungen und Entwürfe bildeten die Grundlage.

KI diente als Schreibassistenz, nicht als Ghostwriter.
Keine Fakten wurden erfunden, keine Quellen konstruiert.

Die Autorin hat alle Inhalte geprüft und verantwortet die Aussagen.
Das ist für uns: ethisch und transparent mit KI arbeiten.

Beitrag teilen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Überblick

Erhalten Sie jetzt unseren Newsletter!