Der 1920 geborene russisch-amerikanische Biochemiker, Sachbuchautor und Science-Fiction Schriftsteller formulierte als erster die Regeln für Automaten, die eigentlich bis heute gelten sollen. Natürlich denken wir bei dem Begriff „Automaten“ an Spieleautomaten oder aber vielleicht der automatischen Waschanlage für unser Auto. Tatsächlich begegnen wir Automaten oder Robotern fast täglich.
Asimovs Gesetzte der Robotnik sind definiert im Asimov: Meine Roboter. Essay, in: Robotervisionen. Bastei Band 21 201, Bastei Lübbe by Byron Preiss Visual Publications, Inc, Copyright 1990. Die Gesetzte lauten:
- Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
- Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
- Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht
Diese Regeln sind recht einfach. Aber überlegen wir in welchen kritischen Bereichen wir Robotern vertrauen: unser Geldautomat (auch besteht die Gefahr das er falsch bucht), Fahrstühle (was wenn ein Fahrstuhl ein Eigenleben entwickelt). Ja ein Fahrstuhl hat ebenfalls eine Software. Dann haben wir das Auomobil (das ebenfalls ein Steuergerät besitzt). Dann haben wir Automaten die Audio und Videosignale wiedergeben. Diese nennen wir Radio und Fernsehen. Dann der neue Personalausweis der ausgestattet ist mit einem Betriebssystem und einem integrierten Funkchip. Flugzeuge haben ebenfalls ein Steuergerät, genau wie auch Waschmaschinen und Herde. Das Militär besitzt Roboter zur Aufklärung im feindlichen Gebiet. Dann in Fabriken finden wir Roboter die Autos zusammenbauen, oder andere Aufgaben übernehmen.
Mittel bis Langfristig können wir sagen, dass wir auf Automaten angewiesen sind, und wir ihnen blindlings vertrauen und ihnen sogar unser Leben anvertrauen. Was aber, wenn die Software der Automaten geändert wird? Wenn sie uns angreift, oder uns in irgendeiner Weise bedroht? Jede Sofware hat Sicherheitslücken. Wer ist dafür zuständig, die Softwareupdates in bereits vorhandene Automaten zu integrieren? Wer ist dafür verantwortlich, wenn ein Automat Schaden anrichtet?
Mit dieser Problemtatik beschäftigt sich der folgende Artikel. Er wird von der F.A.Z als Blog angeboten, und das Copyright unterliegt der F.A.Z.
05. März 2009 Der amerikanische
Barbesitzer Rufus Terrill hat sich einen Roboter gebaut, der unerwünschten Besuch fernhalten soll. Äußerlich einem Panzer nachempfunden, bewegt sich das Metallkonstrukt auf drei Rädern. Mit Infrarotsensoren, einem Lautsprecher und einer beweglichen Kanone
ausgerüstet, sorgt er für das, was Terrill von ihm erwartet: ein nach eigenem Gutdünken ausgelegtes Ordnungsideal. Bei Bedarf, also auf Befehl Terrills, der ihn fernsteuert, verschießt die Kanone Wasser, was äußerlich jedoch nicht ersichtlich ist – es könnten auch Kugeln sein –
Und ihn im Verein mit Terrills Grinsen unbehaglich erscheinen lässt.Terrill benutzt ihn, um im Umkreis seiner Bar Dealer und Diebe, vor
allem aber Obdachlose zu vertreiben.
Wem fiele nun die Verantwortung zu, wenn Terrills Roboter bei seiner Patrouille eine Person verletzen würde? Die Frage ist leicht zu beantworten, weil jede Handlung des Roboters auf einen Steuerbefehl zurückgeht. Schwierigerfällt die Antwort bei Automaten, die ohne diese Fernsteuerung auskommen: bei Programmen, die sich im Kontakt mit der Umwelt fortentwickeln und auf dieser Grundlage eigene Entscheidungen treffen.
Verantwortungslücken
Wer ist verantwortlich, wenn ein Serviceroboter im Krankhaus einen Patienten verletzt? Wenn ein medizinisches System zur Krebs-Früherkennung einen Rat gibt, der dazu führt, dass eine schädliche Therapie eingeleitet wird? Wenn eine militärische Drohne das falsche Ziel bombardiert? Oder wenn ein Agrarsystem Bauern zu Maßnahmen bewegt, die sich negativ auf den Ernteerfolg auswirken?
Robotik und Künstliche-Intelligenz-(KI)-Forschung haben im zurückliegenden Jahrzehnt Fortschritte gemacht, die Automaten nicht mehr auf die Abarbeitung festgelegter Abläufe reduzieren, sondern ihnen ein wenn auch beschränktes eigenes Handlungsfeld eröffnen, in dem sie eigenständig ,entscheiden‘ müssen. Programme, die auf der Basis von sich im Kontakt mit der Umwelt weiterentwickelnden Algorithmen wie Symbolischer KI, Genetic Programming oder Reinforcement Learning Systems laufen, sind geradezu darauf ausgelegt, aus Fehlern zu lernen. Wer übernimmt die Verantwortung, wenn sie Schaden anrichten?
Was ist eine Person?
Wenn das Programm den Fehler entscheidend gemacht hat und es für den Hersteller oder Betreiber nicht absehbar sein konnte, weil das Programm eine Eigendynamik entwickelt, dann erscheint es denkbar, ihm die juristische Verantwortung zu übertragen. Was bislang nicht möglich ist, weil das Rechtssystem den Automaten als Verantwortungsträger nicht kennt. An dieser Stelle setzt der in Hongkong lehrende, an der Humboldt-Universität promovierte Philosoph Andreas Matthias an, der dieVerantwortungslücke zur Grundlage einer bizarren, sehr weitreichenden These macht (Automaten als Träger von Rechten. Plädoyer für eine Gesetzesänderung, Logos-Verlag, Berlin 2008).
Den auf der Hand liegenden Einwand, die Maschine könne die Verantwortung nicht übernehmen, weil sie kein Mensch sei, wischt er mit leichter Hand beiseite. Das müsse sie zu diesem Zweck auch nicht, weil die Rechtsprechung die Abstraktion vom ganzen Menschen längst vollzogen hat. Sie kennt den Begriff der juristischen Person, der rechtsverantwortlichen Körperschaft, was heißt, dass die Übernahme von juristischer Verantwortung nicht an eine Person aus Fleisch und Blut, ein selbstreflexives Wesen mit Gefühlen und Gewissen gebunden ist.
Kurz:
Das Recht sieht die Person, nicht den Menschen. Was man unter Person verstehen soll, ist wiederum Sache einer begründeten Definition, die
ihrerseits nicht zeitunabhängig ist. Auch die Rechtswissenschaft verfüge, so Matthias, über keinen eindeutigen Personalitätsbegriff. Ihr Schuldbegriff komme ohne Rekurs auf moralisches Vokabular aus.
Soziologische Volten
Kann man den Automaten nun in bestimmten Kontexten zum juristischen Verantwortungsträger erklären, und was wäre dafür erforderlich? Matthias führt Intentionalität, juristische Sanität, Responsivität, das Haben von Wünschen zweiter Ordnung und Unterscheidungsfähigkeit bezüglich intendierten und vorhersehbaren Handlungskonsequenzen an. In einem streng abgegrenzten, von biologischen Kriterien befreiten Rahmen erscheint ihm das alles auf den autonomen Agenten übertragbar.
Aus seinen Thesen, die der technischen Entwicklung vielfach vorgreifen, klingt der Wunsch, die Thesen der starken KI in gemäßigter Form zu erneuern, die seit den sechziger Jahren die restlose Angleichung der Maschinen an die Fähigkeiten des menschlichen Geistes prophezeit, sich aber zur Jahrtausendwende kleinlaut von diesem Ziel verabschiedet hatte. Neu ist die soziologische Volte, die Matthias der Debatte gibt. Es sei gar nicht nötig, dass Automaten Gefühle, Sprache, Moral, Schuldbewusstsein, Reue oder Einsicht in dem Sinn haben, wie Menschen sie besitzen, sondern nur in dem Maß, wie sie für die juristische Belangbarkeit in bestimmten formalisierbaren Teilbereichen der Gesellschaft (nicht in allen) nötig sind.
Lohn für Automaten
Matthias begründet dies mit der wachsenden Abstraktheit der Lebensbezüge. Wenn Menschen immer mehr als bloße Funktionsträger wahrgenommen werden, dann muss – in bestimmten Bereichen – eine funktionalistische, utilitarische Ethik der Maßstab der juristischen Bewertung sein. Die resignative Einsicht, das Recht nur noch auf Teilfunktionen des Individuums zurückbinden zu können, münzt Matthias in ein euphorisches Plädoyer für die Rechtsverantwortung von autonomen Maschinen um. Wenn das Recht im neunzehnten Jahrhundert aus pragmatischen Gründen die Lösung vom Individuum teilweise vollziehen musste, ist damit die Kette abgebrochen, die das Recht an
die Moral bindet? Oder hat es die im Formalisierungsprozess ausgegrenzten Gehalte immer mitzudenken, um das Potential seines
anthropologischen Bezugspunktes nicht aus den Augen zu verlieren? Das Problem wird auf dieser Ebene zu einer weltanschaulichen Frage.
Matthias bricht die historische Kontinuität ab. So fällt es ihm leicht, die nichtformalisierbaren Grundlagen des Rechts zu verabschieden und
einer posthumanen Justiz das Wort zu reden.
Doch seine Antwort auf die unvermeidliche Frage des praktischen Vollzugs nimmt sich angesichts seines entschiedenen Plädoyers sehr skizzenhaft aus.
Automaten sollen für ihre Arbeit bezahlt werden, um von ihnen verursachte Schäden finanziell begleichen zu können. Und wer verwaltet ihre Konten? Die Androhung von Zwangsmaßnahmen soll sie abhalten, Fehler zu begehen, und die Rekonditionierung in Form einer
Reprogrammierung lasse sich bei Maschinen ohnehin leichter bewerkstelligen als beim Menschen. Wie das alles in der Praxis aussehen
soll, lässt sich allenfalls erahnen.
Der Zufall in einer programmierten Welt
Bei aller Skurrilität ist nicht zu übersehen, dass der juristische Haftungsbegriff nur der hochgegriffene Zielpunkt eines Problems ist, das nicht leicht von der Hand zu weisen ist: das der Verantwortungszuschreibung. Erscheint der klassische Haftungsbegriff den meisten Juristen angesichts des derzeitigen Standes noch anwendbar, so ist er doch vielfach problematisch geworden. Zwar sind Roboter nur in kühner Vision schon die „Wesen“, die sich frei entscheidend in der Welt bewegen. Gegenwärtig bleibt die Verantwortung für ihr Handeln dem
vorbehalten, der ihnen Ziele setzt. Je weniger absehbar das Verhältnis von Zielvorgaben und möglichen Handlungskonsequenzen jedoch ist, desto schwieriger wird es, entstehende Schäden nicht einfach zum gesamtgesellschaftlichen Schaden zu summieren. Auch die fortschreitend
programmierte Welt steckt voller Kontingenzerfahrung.
kostenloser Counter
Poker Blog