Selbstfahrende Autos werden kommen. Ob in fünf, 15 oder 25 Jahren. Die Digitalisierung und die Durchdringung der Gesellschaft mit autonom handelnden, auf künstlicher Intelligenz und Algorithmen beruhenden Systemen ist jedoch bereits heute Top-Thema. Sowohl für die Wirtschaft als auch die Politik.
So brüten, wie bei jeder neuen technologischen Entwicklung und dem damit einhergehenden Fortschritt üblich, Juristen seit geraumer Zeit auch über den Antworten auf die zahlreichen rechtlichen Fragen, die sich angesichts der völlig neuen Technologie des autonomen Fahrens stellen. Die Bundesregierung hat eigens eine Ethik-Kommission eingesetzt, die im August 2017 ihren Abschlussbericht präsentierte. Darin wurde auch die Frage der Haftung und der Schadensminimierung adressiert und im Ergebnis folgendermaßen eingeschätzt: „Grundsatz ist und bleibt auch hier: Ein Sachschaden ist einem Personenschaden immer vorzuziehen und jede Qualifizierung von Menschen nach persönlichen Merkmalen – etwa nach Alter oder Geschlecht – ist nicht zulässig“.
Die Dilemma-Situation
Damit sind wir schon beim in der Öffentlichkeit bisher aufsehenerregendsten Thema: dem sogenannten Mensch-Maschine-Dilemma. Was ist damit gemeint? Autonome Systeme müssen, da sie im aktiven Betrieb eigenständige Entscheidungen fällen sollen, zuvor auf der Ebene der Programmierung auf Risikosituationen vorbereitet werden, die im täglichen Straßenverkehr auftreten können. Hierzu gehört die Antwort auf die Frage, wie sich ein autonomes System entscheidet und ein Fahrzeug steuert, wenn in einer Kollisionssituation im Ergebnis die Wahl zwischen zwei Menschenleben getroffenen werden muss.
Eines von zwei Übeln muss verwirklicht werden. Doch entspricht das Leben eines Menschen überhaupt dem, was Juristen ein abwägungsfähiges Rechtsgut nennen? Darf also der Programmierer vorab den Algorithmus derart impfen, dass er im Zweifel eher eine Kollision mit älteren Personen als etwa mit Kindern riskieren soll? Damit nicht genug: Direkt anknüpfend stellt sich der Gesetzgeber natürlich die Frage, ob für diese Entscheidungen regulatorische Vorgaben geschaffen werden dürfen.
Das Bundesverfassungsgericht hat bereits in der Vergangenheit deutlich gemacht, dass das Opfern unschuldiger Menschen zu Gunsten anderer potenzieller Opfer unzulässig ist, weil die Unschuldigen damit zum bloßen Instrument degradiert und als Menschen ihrer „Subjektqualität“ beraubt würden. Denn, wie es in Artikel 1 des Grundgesetzes steht: Die Würde des Menschen ist unantastbar. Die Ethikkommission unterstützt diese Linie richtigerweise auch mit Blick auf das autonome Fahren. Sie sollte vom Gesetzgeber beachtet und daher nicht durch gesetzgeberische Vorgaben angetastet werden.
Wie aber könnte ein regulatorischer Ausweg aussehen? Nach Ansicht der Kommission könnten dies etwa Vorgaben sein, dass die Programmierung auf eine Minimierung der Opfer ausgerichtet sein sollte – ohne die potentiellen Opfer selbst zu kategorisieren. Vorstellbar sind hier algorithmische Entscheidungsvorgaben wie: Sachschäden vor Personenschäden, Verletzung von Personen vor Tötung, geringstmögliche Zahl von Verletzten oder Getöteten.
Datenschutz und IT-Sicherheit
Neben dieser ethischen Fundamentalfrage sehen sich Autohersteller aber noch weiteren Herausforderungen gegenüber, die sich nicht erst im Rahmen des rein autonomen Fahrens, sondern auch bereits derzeit, beim automatisierten Fahren und im vernetzten Auto, stellen.
Schon heute kommunizieren Autos mit den Servern der Hersteller oder Dienstleister. Ein WLAN-Hotspot im PKW? Kein Problem. Doch hier kommt der Datenschutz ins Spiel. Wer darf was mit personenbezogenen Daten tun und wem „gehören“ die Daten überhaupt? Natürlich würden sich die Hersteller gerne als Eigentümer der Daten aus dem Auto qualifizieren, und die Halter oder Fahrer sind der Ansicht, dass ihre Daten ihnen gehören.
Hier lohnt sich ein Blick in die Vergangenheit. Das Bundesverfassungsgericht stellte im Jahr 1984 in seinem Volkszählungsurteil fest: „Der Einzelne hat nicht ein Recht im Sinne einer absoluten, uneinschränkbaren Herrschaft über ’seine‘ Daten“. Konkret bedeutet dies, dass es kein Eigentum an personenbezogenen Daten gibt. Weder für den Betroffenen selbst noch für einen Dritten. Was zukünftig mit personenbezogenen Daten aus Autos – also beispielsweise der Fahrzeugidentifikationsnummer, Daten zur Einstellung des Sitzes oder Standortdaten aus dem Navigationsgerät – geschehen darf, wird ab 25. Mai 2018 in der EU Datenschutz-Grundverordnung festgelegt. Ein eigenes Datenschutzrecht für „Smart Cars“ existiert also nicht.
Weiterhin müssen die Hersteller auch die IT-Sicherheit der intelligenten Vehikel im Auge behalten, verlangt das sogenannte Produktsicherheitsrecht doch die Einhaltung des Stands der Technik. Auch die EU-Datenschutz-Grundverordnung fordert den Schutz personenbezogener Daten nach dem Stand der Technik. Bei Nichtbeachtung drohen empfindliche Strafen: Bußgelder von bis zu zehn Millionen Euro oder von bis zu zwei Prozent des gesamten weltweiten Jahresumsatzes.
Eine zunächst fahrlässig unerkannte, aber im Nachhinein als erkennbar identifizierte Sicherheitslücke im System, über die etwa ein Hacker Zugriff auf die Daten oder die Kontrolle über den Motor und die Bremsen erlangt, könnte für die Hersteller also richtig teuer werden. Da die EU-Datenschutz-Grundverordnung auch die Umsetzung des Prinzips „Privacy by Default“ verlangt, müssen vernetzte Fahrzeuge zukünftig bereits auf Produktionsebene mit datenschutzfreundlichen Techniken ausgestattet werden. Eine Menge neuer technischer Herausforderungen wie offener Fragestellungen, denen sich auch die Hersteller von Zukunftstechnologien stellen müssen.