Skip to main content

 

Roboter

Gefahrenabwehr und Gefahrverursachung

Von Dr. Susanne Beck, Gießen / Würzburg

Roboter, autonome Systeme und künstliche Intelligenz sind bereits heute ein Teil der gesellschaftlichen Realität. In den nächsten Jahren wird ihre Bedeutung in allen Lebensbereichen deutlich zunehmen und die „Autonomie“ der Roboter – das heißt ihr eigenständiger Entscheidungsspielraum – sich im Vergleich zu den heutigen Maschinen deutlich ausweiten. Viele der Fortschritte in der Robotik wirken sich schon jetzt in der Gesellschaft aus, so dass es keinesfalls verfrüht ist, sie aus normativem Blickwinkel zu diskutieren. Das gilt auch für die polizeiliche Tätigkeit: autonome Maschinen können zu Gefahrenquellen werden, sie können aber auch zur Gefahrenabwehr eingesetzt werden. Noch steht die rechtswissenschaftliche Auseinandersetzung mit der Automatisierung von Maschinen am Anfang – nicht zuletzt, weil bezüglich der künftigen technologischen Möglichkeiten erhebliche Unsicherheiten bestehen.

 

 

 

 

I. Prognose zur tatsächlichen Entwicklung

Einige Entwicklungen lassen sich dagegen mit relativ hoher Wahrscheinlichkeit voraussagen: Autonome Systeme werden in den nächsten Jahrzehnten in vielen lebensweltlichen Kontexten eine Rolle spielen. Schon jetzt schließen sie als elektronische Agenten Online-Verträge ab, kümmern sich als Staubsauger-Roboter um die Sauberkeit von Wohnungen, nehmen als selbständige Kraftfahrzeuge im Straßenverkehr teil. Bald werden sie auch in Seniorenheimen und Krankenhäusern anzutreffen sein, nicht zuletzt, weil sich hier die Alterung der Gesellschaft und der damit verbundene Personalmangel am deutlichsten auswirken werden. Dies sind nur einige wenige Beispiele für die in Zukunft voraussichtlich noch zunehmende Teilhabe von Maschinen am sozialen Leben, doch zeigt sich bereits, dass das potenzial der Verletzung von Menschen oder Beschädigung von Sachen, der Verringerung von Vermögen oder der Beeinträchtigung von Privatsphäre und Datensicherheit erheblich ist.

Zentrale Schwierigkeit autonomer Systeme im Vergleich zu traditionellen Maschinen ist, dass die konkrete Ursache für die Fehlfunktion nur schwer feststellbar bzw. nur selten einem Beteiligten eindeutig zuzuschreiben ist. Dies liegt zunächst daran, dass schon bei der Herstellung die Beiträge der Beteiligten untrennbar ineinander greifen: Die Forscher liefern Erkenntnisse über Produkte bzw. die notwendige Programmierung er Maschinen, die Einzelteile werden von verschiedenen Herstellern entwickelt, die Programmierer bestimmen den Rahmen an Daten und Entscheidungsprozessen, der dann aber im nächsten Schritt durch Wahrnehmung und „Erziehung“ der Maschine erweitert und verändert wird. Schließlich trägt sogar der Nutzer zu dem jeweils aktuellen Informationsstand und den Entscheidungsprozessen der Maschine bei, indem er etwa bestimmte Entscheidungen belohnt und andere sanktioniert. Somit ist mit Blick auf eine konkrete Entscheidungsfindung in vielen Fällen fast unmöglich, im Nachhinein den genauen Missstand aufzuzeigen, der zu einem Fehler führte.

Überdies gibt es bestimmte elektronische Unterstützungssysteme, bei denen die Letztentscheidung dem Nutzer überlassen (z.B. Einparkhilfe) bleibt oder er die Automatik ausschalten und die Maschine selbst steuern kann. In diesem Fall ist nicht ohne Weiteres feststellbar, ob ein Unfall letztlich auf der Entscheidung des Menschen oder der Maschine basierte. In der Praxis wäre für letztgenannte Maschinen jedenfalls eine Art „Black-Box“ erforderlich, die aufzeichnet, ob sie gerade automatisch oder durch den Menschen gesteuert wurde.

Diese Feststellung der faktischen Situation beantwortet jedoch noch nicht die Frage nach der rechtliche Verantwortlichkeit für die Schädigung: Einerseits ließe sich argumentieren, dass der Sinn derartiger Unterstützungssysteme nicht erfüllt wäre, wenn der Nutzer sich nicht auf sich verlassen dürfe, sondern unabhängig von möglichen Herstellungsfehlern immer für durch dieses System hervorgerufene Schäden haften muss. Andererseits erscheint es unbillig, wenn sich der Nutzer einer die Güter Dritter gefährdender Maschine durch die Verwendung eines automatisierten Unterstützungssystem umfassend seiner Verantwortung entziehen kann, da er bei diesem Einsatz grundsätzlich auch mit der Möglichkeit eines Fehlers rechnen muss. Aktuell vertritt die Rechtsprechung insofern eine sehr weitgehende Haftung des Nutzers; dies ist jedoch in der Rechtswissenschaft keineswegs unumstritten. Jedenfalls zeigt diese Problematik deutlich die rechtliche Komplexität des Einsatzes bereits jetzt in der Praxis eingesetzter, teilweise autonom entscheidender Maschinen.

Soweit sich die Eigenständigkeit der Maschinen bei der Entscheidungsfindung in Zukunft ausweitet, wird sich auch diese Problematik noch verstärken. Selbständig die Umwelt wahrzunehmen, daraufhin in hinreichender Schnelligkeit Schlussfolgerungen ziehen zu können, und im Laufe der Zeit effektivere Verhaltensweisen erlernen zu können, wird sicherlich der zentrale Vorteil dieser Roboter im Vergleich zu klassischen Maschinen sein, führt jedoch gleichzeitig auch dazu, dass ihr Verhalten – als Ergebnis verschiedenster Einflüsse und Umweltbedingungen – nicht nur für Forscher und Hersteller, sondern sogar für den späteren Nutzer nur schwer vorhersehbar und kontrollierbar ist, ja gerade auch nicht sein soll.

Wie weit diese Eigenständigkeit im Einzelfall reichen wird, in welchen Lebensgebieten sie eine zentrale, in welchen dagegen nur eine marginale Rolle spielen wird, ob dies die Maschinen gefährlicher macht als Menschen, die dieselben Handlungen ausführen, ist aktuell nicht umfassend prognostizierbar. Diese Unsicherheit bezüglich der weiteren Entwicklung muss ebenfalls in die Überlegungen zur rechtlichen Regulierung eingebunden werden.

 

 

 

1. Roboter als Gefahrenquellen

Für die polizeiliche Tätigkeit ist von zentraler Bedeutung, in welchen Situationen Roboter zu Gefahrenquellen werden könnten und wie der Umgang mit ihnen für diese Fälle rechtlich reguliert ist oder sein sollte. Die Möglichkeiten einer solchen Gefahrverursachung sind vielfältig und finden sich in allen Lebensbereichen. Nicht nur bewaffnete autonome Systeme (im militärischen Bereich keine Seltenheit mehr) können eine Bedrohung für individuelle Güter darstellen. Auch im Straßenverkehr, am Arbeitsplatz, in Schulen, Krankenhäusern, öffentlichen Gebäuden oder privaten Haushalten besteht bei ihrem Einsatz ein erhebliches Risiko.

 

Wie gerade erläutert, ist die Gefährlichkeit dieser Maschinen nicht umfassend mit derjenigen von bisher üblichen Maschinen vergleichbar, gerade weil die Fähigkeit der Roboter, gelegentlich autonome Entscheidungen zu treffen, in Zukunft ausgeweitet und auf immer mehr Lebensbereiche erstreckt werden wird. Damit wird ihr Verhalten unvorhersehbarer und unkontrollierbarer. Die Problematik der Unvorhersehbarkeit und Unkontrollierbarkeit findet sich auch – wenn auch auf andere, generellere Weise – bereits bei der Entwicklung derartiger Maschinen, nicht nur, weil mit der Entwicklung zwangsläufig Tests erforderlich werden, bei denen in der Regel eine Berührung mit der Öffentlichkeit unvermeidlich ist und schwer vermeidbare Schädigungen auftreten könnten. Es ist überdies auf einer allgemeineren Ebene nicht prognostizierbar, in welchen Lebensbereichen derartige autonome Systeme künftig eingesetzt werden, welche Gefahren in welchem Ausmaß durch sie hervorgerufen und auf welche Weise sie die aktuelle Gesellschaft beeinflussen und verändern werden. Hierbei handelt es sich um die jeden technologischen Fortschritts innewohnende Ungewissheit, das typische „Risiko“ der aktuellen „Risikogesellschaft“. Das bedeutet nicht, dass es nicht dennoch Aufgabe der Gesellschaft, der Politik, aber auch der Ethik und der Rechtswissenschaft wäre, sich mit den potenziellen Risiken der Entwicklung zu befassen und sie zwar nicht umfassend aufzuhalten, so doch zu steuern und Gefahr verringernd zu begleiten.

Schließlich könnten Roboter – auch das gilt für viele Technologien – von ihrem jeweiligen Nutzer künftig gezielt zur Verletzung von Rechtsgütern eingesetzt werden, etwa ferngesteuert eine Bank überfallen, eine Bombe platzieren, einen Menschen verletzen oder töten oder bei einem Vertragsabschluss  dem Vertragspartner bewusst falsche Informationen übermitteln – fast alle Straftaten könnten grundsätzlich auch durch eine entsprechend programmierte (und das macht ihre besondere Gefährlichkeit aus: sich möglicherweise zumindest teilweise autonom hierfür entscheidenden) Maschine begangen werden.

 

2. Roboter im Einsatz gegen Gefahren

Ebenfalls von Bedeutung im polizeilichen Kontext wird der Einsatz von Robotern und KI zur Beseitigung von Gefahrenquellen bzw. als Werkzeug polizeilicher Maßnahmen sein. Dies gilt sowohl im präventiven als auch im strafermittelnden Bereich. So ist denkbar, dass Roboter bei Bombenentschärfungen, Bewachung von Gebäuden oder Menschenansammlungen, bei Rettungseinsätzen o.ä. die Polizei unterstützen. Auch im Anschluss an Naturkatastrophen oder Umweltschädigungen, wie Erdbeben, Reaktorunfälle, Überschwemmungen, könnten gerade Roboter eine wichtige Unterstützung der Rettungsbemühungen sein. Aber auch im Bereich der Strafverfolgung werden autonome Maschinen eine Rolle spielen. So liegt etwa für die Suche nach bewaffneten Straftätern ohne Zweifel nahe, dass durch den Einsatz von Roboten hier die Gefahren für Polizeibeamte deutlich gesenkt werden können.

Neben den sonstigen potenziellen gesellschaftlichen Vorteilen sind auch die hier dargestellten Möglichkeiten der Unterstützung bei Gefahrenabwehr (und Strafverfolgung) durch autonome Maschinen ein gewichtiges Argument dafür, dass deren Entwicklung und Nutzung nicht grundsätzlich verboten werden sollten. Unabhängig davon, dass derartige nationale Verbote in einer globalisierten Gesellschaft ohnehin nur begrenzte Wirkung zeigen könnten, wären sie auch ohne Zweifel unverhältnismäßig und gesamtgesellschaftlich nachteilig.

 

3. Zwischenfazit

Roboter, die bis zu einem gewissen Grad eigenständige, sich an den aktuellen Umweltbedingungen orientierte Entscheidungen treffen können, spielen bereits jetzt eine gesellschaftliche Rolle. In Zukunft werden sie – als Gefahrenquelle, aber auch als Unterstützer bei der Gefahrenabwehr – auch für die polizeiliche Tätigkeit immer bedeutsamer werden. Diese Entwicklung auf dem Gebiet der „autonomen Systeme“ wird in nächster Zukunft sowohl den Gesetzgeber als auch die Rechtswissenschaft in vielerlei Hinsicht beschäftigen. Bisher finden sich kaum spezifische Regulierungen für den Umgang mit autonomen Maschinen, was ihrer steigenden gesellschaftlichen Relevanz nicht gerecht wird.

 

II. Rechtliche Fragestellungen zu Robotern als Gefahrenquelle

Es hat sich gezeigt, dass sowohl aus der Erforschung als auch aus der Herstellung und dem Einsatz dieser Maschinen in der Praxis erhebliche Gefahren – sowohl für Individuen als auch möglicherweise für die Gesellschaft insgesamt – erwachsen können. Das bedeutet zwangsläufig, dass das öffentliche Recht diese Vorgänge regulierend begleiten muss. Dies gilt insbesondere für das das Polizei- und Sicherheitsrecht. Je nach praktischem Einsatzgebiet der Roboter könnten überdies Änderungen im Umweltrecht, im Recht über Beförderung (z.B. Straßenverkehrsordnung), im Arbeitsrecht bzw. Recht über Arbeitsplatzsicherheit, im Medizinrecht (z.B. Regelungen zu medizinischen Geräten) erforderlich werden.

Die Anwendung und die Regulierung stehen in all diesen Bereichen deshalb vor einer besonderen Herausforderung, weil – anders als für seit langem verwendete Technologien – die Art und das Ausmaß der Risiken bisher nicht umfassend bekannt sind und selbst die Prognose schwerer fällt als bei anderen in der Entwicklung befindlichen Technologien. Gefahren, die nur denkbar sind, können offensichtlich nicht mit denselben rechtlichen Mitteln verhindert werden wie bereits erfolgte Schädigungen oder sicher zu erwartende Verletzungen konkret bestimmbarer Rechtsgüter.

 

1. Anwendung des bestehenden Rechts auf Gefahren durch Roboter

An dieser Stelle erscheint es sinnvoll, sich zunächst mit den bereits jetzt bestehenden Gefahren zu befassen und zu prüfen, inwieweit diese vom derzeitigen Recht hinreichend erfasst werden oder durch eine entsprechend angepasste Auslegung erfasst werden können. Im Gefahrenabwehrrecht kann hier beispielsweise zumindest in konkreten Situationen sicherlich auf die Generalklauseln des Polizei- und Sicherheitsrechts zurückgegriffen werden, soweit dementsprechende konkrete Gefahren bestehen (wenn etwa ein automatisiertes Kraftfahrzeug eine Gefahr im Straßenverkehr darstellt, ist es auch nach bisherigem Recht schon möglich, es aufzuhalten). Dies kann jedoch nur für Situationen gelten, in denen autonome Systeme bereits heute mit Dritten interagieren und tatsächlich Gefahren für Rechtsgüter hervorrufen.

Problematischer gestaltet sich dagegen in der Regel die Anwendung von verwaltungsrechtlichen Regelungen, etwa zu spezifischen Genehmigungsverfahren. Diese sind in der Regel derart konkret auf bestimmte Lebensbereiche zugeschnitten, dass eine ausweitende oder analoge Anwendung an der unzureichenden Ähnlichkeit der Situationen scheitert.

Überdies ist für die Rechtsanwendung zu beachten, dass zu der Thematik bereits einige „Technische Normen und Technikklauseln“ existieren. Es ist davon auszugehen, dass diese nicht-staatlichen Regulierungen, die sich innerhalb des Gesellschaftsbereichs entwickeln, noch zunehmen bzw. sich konkreter mit den verschiedenen Fragen Sicherheit autonomer Systeme bzw. Roboter befassen werden. Derartige Regelungen sind, da sie von Experten gestaltet werden und sich den Besonderheiten des Lebensbereichs anpassen, von zentraler Bedeutung für die gesellschaftliche Sicherheit. Auch wenn es sich nicht um Rechtsnormen im eigentlichen Sinne handelt, spielen sie bei der Auslegung des bestehenden Rechts doch eine wichtige Rolle – etwa bei der Konkretisierung von unbestimmten verwaltungsrechtlichen Begriffen oder bei der Bestimmung der Sorgfaltspflicht im Bereich der Fahrlässigkeitshaftung.

 

2. Verwaltungsrechtliche Regulierung von Forschung, Herstellung und Nutzung

Für die neuartigen Gefahren, die der Einsatz von Robotern mit sich bringen könnte, sind neue Gesetze erforderlich. Diese könnten für die Forschung an Robotern, für ihre Produktion und schließlich für die Nutzung – gerade auch in einem Kontext, in dem sie mit Unbeteiligten zusammentreffen (Straßenverkehr, Krankenhäuser, Pflegeheime) – spezifische Genehmigungsverfahren vorsehen. Solche Regelungen basieren typischerweise auf einer möglichst umfassenden Abwägung aller bekannten Vor- und Nachteile und den prognostizierbaren Risiken, versuchen also insbesondere, der Gesellschaft die potenziellen Vorteile nicht umfassend zu entziehen, zugleich jedoch die Risiken in kontrollierbaren Grenzen zu halten.

Grundsätzlich eignen sich zur Minimierung der Risiken für Unbeteiligte in all diesen Kontexten verwaltungsrechtliche Genehmigungsverfahren. Zunächst ist beim Erlass von Regelungen, die ein solches Verfahren vorsehen, zu berücksichtigen, dass hierdurch jedenfalls die Handlungsfreiheit nach Art. 2 Abs. 1 GG, wenn bereits die Entwicklung der Maschinen reguliert wird, überdies die gewichtige Forschungsfreiheit nach Art. 5 Abs. 3 GG und – je nach Einsatzgebiet der Roboter – weitere spezielle Grundrechte der Forscher, Hersteller und Nutzer eingeschränkt werden. Eine Einschränkung der Erforschung, Weiterentwicklung oder des Einsatzes von Robotern ist danach grundsätzlich nur zulässig, wenn Gefahren für andere wichtige, verfassungsrechtlich geschützte Güter drohen.

Wie dargelegt ist bei der rechtlichen Erfassung der Robotik besonders problematisch, dass ihre generelle Entwicklung – aber auch die Gefährlichkeit eines spezifischen Roboters ­– vorab nur schwer vorhersehbar ist. Diese Unwägbarkeit bedeutet, dass Gesetzgeber und Rechtsanwender die Fortschritte der Forschung sorgsam beobachten und auf den jeweils aktuellen Stand angemessen reagieren sollten. Das könnte etwa bedeuten, für die Forschung mehrstufige Genehmigungsverfahren einzuführen, d.h. dass für Grundlagenforschung im Bereich der Robotik aufgrund der Forschungsfreiheit und der kaum erkennbaren Risiken keine strengen Anforderungen zu stellen wären (möglicherweise auch ganz auf Genehmigungserfordernisse verzichtet wird), während praxisbezogene Forschung sehr viel strengeren Kontrollen bedarf und regelmäßig auf ihre Gefährlichkeit zu überprüfen wäre. Gerade für Testphasen unter Beteiligung von Menschen ist eine Versuchsgestaltung mit minimalem Risiko ebenso von Bedeutung wie die umfassende Aufklärung und finanzielle Absicherung der Probanden.

Bei der Herstellung von Robotern gelten grundsätzlich ähnliche Überlegungen wie für andere gefährliche Produkte. Wenn es sich um lernfähige, autonome Maschinen handelt, ist jedoch überdies sinnvoll, Schulungen der Nutzer (möglicherweise eine Art „Führerschein“ für die Nutzung) zu fordern, ebenso eine regelmäßige Kontrolle, vergleichbar einem TÜV – gegebenenfalls sind die Maschinen so zu konstruieren, dass ein Programmierer erkennen kann, ob sie falsche, gefährliche Verhaltensweisen erlernt hat. Gegebenenfalls könnte sogar überlegt werden, eine generelle Anbindung bestimmter, besonders gefährlicher Maschinen an das Internet zu fordern, um sie überwachen und gegebenenfalls aktiv eingreifen zu können.

 

3. Roboter als Ziel polizeilicher Maßnahmen.

Es ist davon auszugehen, dass Roboter oder künstliche Intelligenz künftig auch das Ziel polizeilicher Maßnahmen darstellen werden. Die Polizei könnte davon erfahren, dass ein Roboter für eine Straftat – etwa im Rahmen eines Banküberfalls – eingesetzt werden soll. Es wurde bereits erwähnt, dass hier zunächst grundsätzlich kein Unterschied zu der Bewältigung sonstiger konkreter Gefahren – wobei jedoch in der praktischen Umsetzung einige Besonderheiten zu beobachten sein werden: Die meisten Roboter oder elektronischen Agenten werden mit dem Internet verbunden sein. Somit besteht die Möglichkeit, diese online auszukundschaften, zu überwachen oder gar in ihre Aktivitäten einzugreifen. So könnte die Polizei die Steuerung des erwähnten Roboters, der eine Bank überfallen soll, übernehmen und ihn von der Durchführung abhalten. Dies erscheint in dieser spezifischen Konstellation auch durchaus berechtigt, es sind jedoch ohne Weiteres Fälle vorstellbar – etwa im Kontext von Vertragsabschlüssen durch elektronische Agenten oder bei nur gefährlichen, aber legalen Einsätzen von Robotern – in denen die Legitimität derartigen polizeilichen Handelns keineswegs eindeutig ist.

Derartige Überwachungen oder gar Fremdsteuerungen autonom tätiger Maschinen bedeuten bereits eine weitaus höhere Eingriffstiefe als die als solche bereits stark umstrittenen Online-Überwachungen. So ist nicht vorhersehbar, wie ein Roboter auf eine „Online-Durchsuchung“ oder Fremdsteuerung reagieren wird, es wird direkt in die Grundrechte des Nutzers eingegriffen und die automatischen Abläufe des Roboters werden gestört.

Die staatlichen Behörden könnten überdies nicht nur an der direkten Lenkung eines Roboters, der selbst eine Straftat begehen wird, Interesse zeigen, sondern auch an den sonstigen vom Roboter gesammelten Daten. Roboter werden die Menschen, denen sie begegnen, filmen, die Gespräche, die sie hören oder die mit ihnen geführt werden, aufnehmen, die Daten, von denen sie Kenntnis erlangen (z.B. bei Krankenhausrobotern über den Gesundheitszustand eines Patienten),speichern. Derartige Datenmengen könnten dazu führen, dass die staatlichen Behörden auf sie Zugriff erhalten und sie für ihre Zwecke nutzen wollen. Auch hierauf ist das bestehende Datenschutzrecht nicht ausgerichtet.

Bis eine eindeutige gesetzliche Regelung gefunden ist, ist somit in diesem Bereich mit einem hohen Bewusstsein der Erheblichkeit des Grundrechtseingriffs zu handeln.

 

III. Rechtliche Fragestellungen zu Robotern bei der Gefahrenabwehr

Wie bereits erläutert, sind Roboter jedoch nicht ausschließlich eine Gefahrenquelle. In zahlreichen Situationen könnten sie vielmehr sogar die Gefahrenabwehr unterstützen.

Auch insofern ist zu diskutieren, ob die aktuellen Regelungen als ausreichend anzusehen sind, d.h. die Besonderheiten der Roboter von ihnen erfasst werden können. Wie bereits bei der Abwehr von Robotern als Gefahrenquellen ist auch dies – teilweise allerdings nur nach erweiternder oder gar analoger Auslegung – für viele Situationen zu bejahen. So besteht kein Erfordernis, den Einsatz von Robotern zu Bombenentschärfung oder in radioaktiv verseuchten Gebieten gesondert zu regeln – der einzige Unterschied zu anderen Maschinen liegt in diesen Situationen darin, dass ein Roboter effizienter und weniger gefährlich für die Beteiligten ist, weil sich auf diese Weise keine Menschen in das jeweilige Gebiet begeben müssen.

Sobald es sich jedoch um autonome Systeme handelt, die im Vergleich zu traditionellen Maschinen eine erhöhte eigenständige Entscheidung treffen können, oder gar um bewaffnete autonome Maschinen, die diese Waffen auf Basis eigenständiger Umweltwahrnehmung einsetzen können, kann das geltende Recht nicht als ausreichend angesehen werden. Das aktuelle Polizei- und Sicherheitsrecht geht von der umfassenden Beherrschbarkeit der Werkzeuge durch die agierenden Polizisten aus. Die Integration von Robotern in Rettungs- oder Überwachungsteams muss deshalb, soweit sie bereits stattfindet, in dem Bewusstsein einer nur unzureichenden gesetzlichen Regulierung und deshalb eher zurückhaltend erfolgen.

 

IV. Sonstige rechtliche Fragen des Einsatzes von Robotern

Ergänzend sei auf weitere Schwierigkeiten, denen sich das Recht durch die Weiterentwicklung der Robotik ausgeliefert sieht, hingewiesen. Die Autonomie maschineller Entscheidungen führt in allen Rechtsgebieten dazu, dass das bestehende Recht zur Lösung der potentiell hervorgerufenen Konflikte als nicht ausreichend angesehen werden kann. Auch wenn diese die polizeiliche Tätigkeit nicht direkt betreffen, sind sie doch derart weitreichend, dass die möglichen Auswirkungen hier in Kürze dargestellt werden – insbesondere die strafrechtlichen Aspekte sind für die Polizei in ihrer verfolgungsunterstützenden Tätigkeit relevant.

 

1. Zivilrecht

Das Zivilrecht ist das Rechtsgebiet, in dem sich die Weiterentwicklung der Robotik voraussichtlich am stärksten auswirken wird. Die Unvorhersehbarkeit und Unkontrollierbarkeit des maschinellen Verhaltens, das sich aus der steigenden Autonomie ergibt, führen auch dazu, dass eine individuelle zivilrechtliche Verantwortlichkeit eines der Beteiligten (Programmierer, Hersteller oder Nutzer) für Schädigungen Dritter Personen nur schwer begründbar ist.

Zwischen Nutzer und Hersteller bzw. Verkäufer des Roboters besteht in der Regel ein Vertrag, so dass hier spezialgesetzliche Regelungen (Kauf, Leasing o.ä.) greifen. Auch das ProdHaftG könnte relevant sein. Die vertragliche Bindung begründet in der Regel eine weitgehende Haftung der Verkäufer und Produzenten bezüglich der Gewährleistung, aber auch des Ersatzes von Schädigungen, die durch das Produkt an Gütern des Nutzers oder Dritter auftreten. Allerdings sind die Normen nicht speziell auf ein Produkt, das sich durch die Nutzung erheblich verändert und auf Basis der vom Nutzer gegebenen Informationen weiterentwickelt, das in gewissem Sinne eigenständig Entscheidungen trifft und das in großem Ausmaß unvorhersehbar und unkontrollierbar agiert, zugeschnitten. Es ist deshalb zu diskutieren, ob diese Normen durch Auslegung an die neue Situation angepasst werden können und müssen oder der Gesetzgeber eine neue Kategorie schaffen sollte. Für die Notwendigkeit einer neuen Kategorie spricht folgendes Beispiel: Die Anwendung von §1 Abs.4 S. 2 ProdHaftG, wonach die Beweislast für die Unschädlichkeit eines Produkts beim Produzenten liegt, scheint bei einer Maschine, deren Funktionstüchtigkeit von derart vielen, vom Produzenten nicht kontrollierbaren Faktoren abhängt, unangemessen.

Dies gilt in vergleichbarer Weise auch für die anderen Normen, die im Zivilrecht insbesondere den Käufer bzw. Nutzer eines Produkts stark privilegieren. Hier ließe sich argumentieren, dass sich derjenige, der eine derart unberechenbare Maschine erwirbt und nutzt, bewusst auf das Risiko einlässt, dass durch ihr Fehlgehen erheblicher Schaden angerichtet werden könnte und dieses nur bedingt auf das Verhalten der Hersteller und Verkäufer zurückgeführt werden kann. Im Kontext der Produzentenhaftung ließe sich diesbezüglich möglicherweise auf § 1 Abs. 2 Nr. 2 ProdHaftG zurückgreifen, der besagt, dass die Beweislastumkehr nicht greift, wenn die Umstände dafür sprechen, dass der Fehler nicht aufgrund eines Fehlverhaltens des Herstellers entstanden ist. Natürlich darf bei der Erarbeitung einer neuen Kategorie nicht die im Vergleich zu großen Unternehmen schwächere Position des Verbrauchers unbeachtet bleiben. Dies ändert nichts an der Notwendigkeit dieser Kategorie, sondern bedeutet lediglich, dass eine sorgfältige Abwägung zwischen den verschiedenen Positionen erforderlich ist.

Selbst wenn kein Vertrag zugrunde liegt, sondern ein Roboter einen unbeteiligten Dritten schädigt, sind zivilrechtliche Schadenersatzansprüche nach allgemeinem Deliktsrecht gemäß §§ 823 ff. BGB denkbar. Besonderheiten im Vergleich zu sonstigen Produkten bzw. Maschinen sind hier geänderte Konstellationen bei Kausalität und Verantwortungszurechnung, ggf. Mitverschulden und Schadensumfang. Auch hierauf ist das geltende Recht nicht eingestellt. Denkbar wäre hier eine der Tierhalterhaftung vergleichbare Konstruktion. Überdies wäre – im Kontext der oben genannten Kategorie – die Frage zu klären, wie die Haftung bei der Schädigung Dritter zwischen Forscher, Hersteller, Verkäufer und Nutzer aufzuteilen wäre.

Eine Antwort auf diese Schwierigkeiten könnte eine spezielle Versicherung für Roboter sein. Doch ist bisher ungeklärt, nach welchen Kategorien Roboter zu versichern sind. Auch ist fraglich, ob sich die Versicherungsunternehmen ohne Weiteres auf derart unvorhersehbare und unkontrollierbare Risiken einlassen. Schließlich muss entweder individualvertraglich oder gesetzlich geregelt werden, in welchen Fällen die Versicherung die Schäden übernimmt und in welchen Konstellationen – etwa bei vorhersehbaren Fehlern des Roboters – die Beteiligten weiterhin selbst haften müssen. Auch hier wirkt das obige Problem fort: Es ist schwer feststellbar, wo die Grenze zwischen einfacher und grober Fahrlässigkeit des Forschers, Entwicklers, Herstellers oder Nutzers für Fehlgänge derartiger Maschinen zu ziehen ist. Diese sonst oft verwendete Abgrenzung zwischen von der Versicherung oder vom Handelnden zu tragenden Schäden erscheint hier deshalb nur bedingt geeignet.

Ein weiterer Problemlösungsansatz könnte die Einführung eines „Roboterregisters“ sein, ähnlich dem Handelsregister. Jeder Roboter könnte seine persönliche Signatur zugeteilt bekommen, die elektronisch feststellbar wäre, und dem Gegenüber Auskunft über die Versicherungssumme oder den Haftungsrahmen des Roboters, seine Fähigkeiten, seinen Autonomiegrad und ähnliche Informationen geben könnte. Dies würde die Einschätzung der Maschine durch menschliche oder maschinelle Vertragspartner oder sonstige Beteiligte erleichtern.

Schließlich könnte für bestimmte automatisierte Systeme eine Kategorie der „elektronischen Person“ eingeführt werden, hinter der eine von den Beteiligten eingezahlte Haftungsmasse für vertragliche und deliktische Ansprüche aufgrund von Fehlverhaltens der Maschine steht.

 

2. Strafrecht

Strafrechtlich kommt eine Haftung der Beteiligten (Forscher, Hersteller, Nutzer) wegen fahrlässiger Körperverletzung und Tötung in Betracht, §§ 222, 229 StGB. Insofern ist genau zu prüfen, welche bestehenden Sorgfaltspflichten beiden zukommen, ob diese im Einzelfall erfüllt wurden und ob eindeutig beweisbar ist, dass die Verletzung gerade dieser Pflicht durch den jeweils Handelnden im konkreten Fall zu dem konkreten Schaden geführt hat. Gerade Kausalität und Zurechenbarkeit sind in Fällen von Robotereinsätzen schwer nachweisbar. Im Strafrecht gilt jedoch, anders als im Zivilrecht, dass dies ohne Zweifel feststehen muss.

Sich der strafrechtlichen Verantwortung dadurch zu entziehen, dass man eine derartige eigenständige Maschine verwendet, erscheint in manchen Situationen unbillig (z.B. bei bewaffneten Robotern). Insofern ist an eine Parallelkonstruktion zur Selbstschussanlage zu denken, bei der grundsätzlich davon ausgegangen wird, dass der Verwender seine Entscheidung zur Verletzung oder Tötung des Opfers im Moment des Einsatzes einer solchen Anlage trifft. Allerdings ist zu berücksichtigen, dass eine Selbstschussanlage keinen Entscheidungsspielraum hat, ein autonomer Roboter dagegen schon. Bei letzteren ist es deshalb naheliegender, dass die Fehleinschätzung der Situation auf einer fehlerhaften Programmierung oder zwischenzeitlichen Fehlinformation beruht. Somit ist es beim Einsatz von Robotern jedenfalls problematischer, die Verantwortlichkeit ohne weiteres dem Verwender zuzusprechen. Auch hier wird in Zukunft eine genaue Abwägung zwischen der Pflicht von Hersteller und Verwender, die erforderliche Sorgfalt zu beachten, und der Gefahr einer unangemessenen Strafbarkeit für eine nicht vermeidbare Entscheidung eines Roboters stattfinden müssen.

Denkbar ist im Übrigen auch, wie bereits beschrieben, dass ein Roboter als Tatwerkzeug eines Verbrechens verwendet wird. Die Problematik einer Überwachung bzw. Fremdsteuerung durch die Polizei wurde bereits dargelegt. Auch die Ermittlung derartiger Straftaten wird sich voraussichtlich als schwierig erweisen, da auch etwa bei direktem Auftrag durch den Nutzer aufgrund der Komplexität dieser Maschinen im Nachhinein nur schwer feststellbar sein wird, aus welchem Grund der Roboter eine bestimmte Handlung vorgenommen hat.

 

V. Schlussfolgerungen

Roboter und Cyborgs werden das Leben der Menschen in den nächsten Jahren immer stärker prägen. Wie jede technologische Entwicklung von derartigem Ausmaß und derartiger Qualität wird sie auch das Recht verändern – sowohl dessen Interpretation als auch, über den Gesetzgeber, dessen Inhalte. Nicht erst in Zukunft, sondern schon jetzt stellen sich beispielsweise Fragen der Abwehr von Gefahren, die von Robotern ausgehen sowie des Einsatzes von Robotern als Mittel der Gefahrenabwehr, die nicht umfassend mit dem geltenden Recht beantwortet werden können. Dass sich bei jedem Robotereinsatz bisher ungelöste juristische Risiken stellen, muss nicht nur den Juristen, sondern auch den Nutzern der Roboter bewusst sein.

Die Gesellschaft, der Gesetzgeber und nicht zuletzt die Rechtswissenschaft sollte diese Entwicklung auch nicht als futuristisch betrachten und derzeit übergehen, denn dann hätte sie nur noch die Möglichkeit, im Nachhinein auf eine bereits bestehende, unumkehrbare technologische Entwicklung zu reagieren. Eine frühzeitige Analyse und intensive Auseinandersetzung mit dem Gesamtbereich „Robotik“ und dessen Detailfragen erlaubt dagegen, steuernd einzugreifen, ungewollte Entwicklungen zu verhindern oder untragbare Nebenfolgen zu vermeiden.

 

 

 

nach oben