05c_Kapitel.md 27.7 KB
Newer Older
Axel Dürkop's avatar
Axel Dürkop committed
1 2 3
# Von Militärrobotern bis hin zu selbstfahrenden Pizza-Lieferdiensten


Lisa Figura's avatar
Lisa Figura committed
4
Dieses Kapitel gibt eine kurze Einleitung in Roboterethik und widmet sich einigen ethischen Aspekten der neuesten Robotertechnologie. Hierbei sollen nicht etwa definitive Antworten gegeben werden, vielmehr werden diese ethischen Aspekte vorgestellt[^1] .
Axel Dürkop's avatar
Axel Dürkop committed
5

Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
6
Kurz gesagt werden wir in diesem Kapitel Folgendes betrachten: (1) Im ersten Abschnitt werfen wir einen kurzen kulturhistorischen Blick auf unsere Obsession mit künstlichen Kreaturen. (2) Wir wenden uns dann der Roboterethik zu und beleuchten, was es damit auf sich hat. (3) Wir sprechen einige ethische Aspekte der aktuellen Robotertechnologie an. Vor allem betrachten wir hier Militärroboter, selbstfahrende Autos sowie Roboter, die als Begleitung oder zur Pflege dienen.
Axel Dürkop's avatar
Axel Dürkop committed
7 8


Lisa Figura's avatar
Lisa Figura committed
9
### (1) Zunächst etwas Geschichte
Axel Dürkop's avatar
Axel Dürkop committed
10

Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
11
Menschen sind seit Langem besessen von künstlichen Kreaturen. Denken wir nur einmal an Talos, dem riesige Bronzeroboter aus der griechischen Mythologie, der angeblich gut Feinde bekämpfen kann (schon im Jahre 400 v.Chr.). Dann gibt es natürlich noch den Golem aus der jüdischen Tradition, eine Kreatur bestehend aus nicht-organischem Material, wie z.B. Lehm, die durch Magie zum Leben erweckt wird. Ein weiteres Beispiel, das den Robotern ähnlicher ist, bringt uns Leonardo da Vinci, der einen mechanischen menschenartigen Ritter erschaffen hat (um 1490). Unsere Besessenheit von künstlichen Kreaturen allgemein und mechanischen Robotern im Speziellen ist nirgends offensichtlicher als in Film und Literatur. Um hier nur zwei historische Beispiele zu nennen: E.T.A. Hoffmans berühmte Geschichte "Der Sandmann" (1816), die eine künstliche Frau namens Olimpia zeigt sowie unter den Filmen der Klassiker "Metropolis" von Fritz Lang, in dem die künstliche Kreatur Maria Unruhe stiftet. Natürlich könnten wir diese Liste fortführen bis wir zu den neuesten Folgen in der Popkultur gelangen und süße kleine Roboter wie Wall-E (2008) oder ausgeklügelte Mördermaschinen wie in dem Film "Ex Machina" (2014) aufzählen. 
Lisa Figura's avatar
Lisa Figura committed
12
In Anbetracht unserer Obsession von künstlichen Kreaturen dürfte es also nicht überraschend sein, dass wir uns in einer Phase von technischer Entwicklung befinden, in der Vakuumroboter wie Roomba unsere Wohnungen putzen, selbstfahrende Autos in naher Zukunft auf die Straßen kommen und Roboterassistenten in Krankenhäusern oder Altenheimen eingesetzt werden[^2] . 
Axel Dürkop's avatar
Axel Dürkop committed
13 14


Lisa Figura's avatar
Lisa Figura committed
15
### (2) Roboterethik
Axel Dürkop's avatar
Axel Dürkop committed
16

Axel Dürkop's avatar
Axel Dürkop committed
17
Bevor wir zur Roboterethik kommen, zunächst ein Wort über die Klassifizierung von Robotertechnologie. Wie zu erwarten ist, gibt es viele Wege, Robotertechnologie zu klassifizieren. Hier ein Beispiel von Kopacek (2013):
Axel Dürkop's avatar
Axel Dürkop committed
18

Lisa Figura's avatar
Lisa Figura committed
19
Für dieses Kapitel soll allerdings eine simplere Klassifizierung dienen, die Roboter in industriell (was wir hier nicht thematisieren) und nicht-industriell unterteilt und darin weitere Unterkategorien stellt. Hier eine Visualisierung dieser einfachen Klassifizierung:
Axel Dürkop's avatar
Axel Dürkop committed
20 21 22

Dementsprechend kann Roboterethik also unterteilt werden in assistierende Roboterethik, militärische Roboterethik, usw.

Axel Dürkop's avatar
Axel Dürkop committed
23
Was ist also Roboterethik? Um dies zu beantworten, werfen wir zunächst einen Blick auf Ethik im Allgemeinen und gehen im Anschluss über zur Roboterethik. Obwohl in gewöhnlichen Kontexten Ethik und Moral austauschbar verwendet werden, ist es zumindest in der Philosophie gebräuchlich, diese beiden zu unterscheiden. Moral bezieht sich auf die Sammlung von Normen und Werten, die Menschen halten, während Ethik die Erforschung von Moral und die Reflexion darüber darstellt. Einfach ausgedrückt bestimmt Ethik über richtigen und falschen Verhaltenskodex; also muss berücksichtigt werden, dass Ethik die Rechtfertigung unseres Kodexes betrifft. Das bedeutet, für oder gegen etwas Gründe vorzubringen. Also wenn wir z.B. sagen "Kinder zu schlagen ist falsch", geben wir ein normatives Urteil. Auf der anderen Seite ist es nicht genug, etwas als gut oder schlecht zu beurteilen. Wir müssen auch die Gründe (d.h. eine Rechtfertigung) angeben, aus denen wir den Verhaltenskodex als richtig oder falsch beurteilen[^3] .
Axel Dürkop's avatar
Axel Dürkop committed
24

Lisa Figura's avatar
Lisa Figura committed
25
Im traditionellen Sinne hat Ethik mit dem eigentlichen Verhaltenskodex gegenüber anderen menschlichen und nicht-menschlichen Lebewesen zutun. Allerdings schließt Ethik heutzutage ebenso die Reflexion über richtiges und falsches Handeln bzgl. der Umwelt ein und umfasst nun auch die Reflexion darüber, wie wir unsere Roboter behandeln sollten. Auf das Verhalten zu den von uns geschaffenen Kreaturen kommen wir im letzten Abschnitt zurück. Zunächst widmen wir uns der Roboterethik.
Axel Dürkop's avatar
Axel Dürkop committed
26 27


Lisa Figura's avatar
Lisa Figura committed
28
### (3) Roboter und Ethik
Axel Dürkop's avatar
Axel Dürkop committed
29 30 31 32 33 34 35 36 37

Die natürlichste Frage, die viele Menschen beim Thema Roboter im Kopf haben, ist: Wie kriegen wir Roboter dazu, sich so zu verhalten, wie wir es für angebracht erachten? In seinen Romanen präsentiert der Autor Isaac Asimov eine Antwort auf diese Frage. Er plädiert für die Vorstellung, dass Roboter gemäß unseren moralischen Regeln oder Gesetzen programmiert werden können. So könnte der Roboter z.B. so eingestellt werden, dass er X, aber nicht Y macht. Die Regeln, die er einführt, sind als "Asimovsche Robotergesetze" (engl. "Three Laws of Robotics") bekannt geworden und lauten folgendermaßen:

1. Erstes Gesetz: Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
2. Zweites Gesetz: Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
3. Drittes Gesetz: Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
4. Nulltes Gesetz (später hinzugefügt): Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. 


Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
38
Nun scheint auf den ersten Blick die Idee, das Verhalten von Robotern gemäß einem Regelsystem zu programmieren, ein sehr vernünftiges Vorhaben zu sein. Dennoch gibt es einige wohl bekannte Probleme mit diesem Ansatz (zu den Unzulänglichkeiten der Asimovschen Gesetze und einer Alternative vgl. Murphy & Woods 2009). Asimov war sich dieser Probleme sehr wohl bewusst und nutzte sie als Mittel, um die Narrative seiner Science-Fiction-Geschichten anzutreiben. Ein Problem betrifft die Ungenauigkeit der in den Gesetzen verwendeten Begriffe. Z.B. ist nicht klar, was der Begriff "menschlich" in seinem ersten Gesetz bedeutet oder was genau "Roboter" oder "Schaden zufügen" heißt. Außerdem ist da noch das Problem des Ballasts an Regeln. Damit ist gemeint, dass die Welt ein chaotischer Ort ist und wir viele Regeln und Regeln für die Ausnahmen zur Regel brauchen, um alle Umstände abzudecken, die ein Roboter vorfinden könnte. Dies  scheint jedoch eine unmögliche Aufgabe zu sein. Das offensichtlichste Problem ist allerdings, dass es eine Menge Situationen gibt, in denen eine Regel mit einer anderen im Konflikt steht. Betrachten wir einmal das bekannte Straßenbahn-Szenario, in dem eine außer Kontrolle geratene Straßenbahn auf einem Gleis fährt, auf dem sich fünf Personen befinden. Die Straßenbahn kann auf ein anderes Gleis umgeleitet werden. Dort befindet sich jedoch ebenfalls eine Person. Es muss also eine Entscheidung getroffen werden, ob die Straßenbahn umgeleitet werden soll oder nicht und damit entweder eine oder fünf Personen überfährt und vermutlich tötet. Wie soll sich ein Roboter in dieser Situation verhalten, in Anbetracht der Tatsache, dass er Menschenleben retten soll? (Dabei stellt sich die Frage, wie Menschen in einer solchen Situation handeln sollen). 
Axel Dürkop's avatar
Axel Dürkop committed
39 40 41 42 43
Zu guter Letzt stellt sich das Problem, dass die Asimovschen Gesetze in manchen Kontexten nicht umsetzbar sein können. Es kann z.B. Kontexte geben, in denen wir erwarten, dass der Roboter einem menschlichen Wesen Schaden zufügt. Dies führt uns zu der ersten Robotertechnologie, auf die wir konkreter schauen werden: Militärroboter.


## Militärroboter

Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
44
Es ist nicht überraschend, dass das Militär an vorderster Front steht, wenn es um Robotertechnologie geht. Militärroboter sind hier, um hier zu bleiben. Z.B. berichtetet die New York Times 2005 von Plänen des Pentagons, Soldaten durch Roboter zu ersetzen und [nur fünf Länder unterstützten eine UN-Resolution zum Verbot von Killerrobotern](https://www.theverge.com/2014/5/16/5724538/what-happened-at-the-un-killer-robot-debate). Hier ist es wichtig, darauf hinzuweisen, dass vollautonome Waffen bereits existieren (in diesem Kontext bedeutet "autonom", dass der Roboter ohne menschliche Intervention seine Aufgaben ausführt). Südkorea besitzt ein automatisches Maschinengewehr, [das ohne menschliche Befehle Ziele identifizieren und beschießen kann](http://www.dailymail.co.uk/sciencetech/article-2756847/Who-goes-Samsung-reveals-robot-sentry-set-eye-North-Korea.html). Ein weiteres Beispiel stammt aus Russland, wo das Militär autonome Panzer einsetzt, [um kritische Gebiete abzupatrouillieren](https://www.newscientist.com/article/mg22229664-400-armed-russian-robocops-to-defend-missile-bases/).
Axel Dürkop's avatar
Axel Dürkop committed
45

Axel Dürkop's avatar
Axel Dürkop committed
46
Nur zum Vergnügen, hier noch zwei weitere Beispiele: Dubai stellte neulich einen seiner neuen [Robo-Polizisten unter Beweis, die in naher Zukunft auf der Straße patrouillieren sollen](http://www.dailymail.co.uk/sciencetech/article-4530260/Real-life-Robocop-starts-work-Dubai-tomorrow-onward.html). Russland ist dabei, etwas Terminatorähnliches zu entwickeln, [das tatsächlich ein Gewehr bedienen kann (oder zwei, wenn nötig)!](https://www.popularmechanics.com/military/research/news/a26140/russia-robot-gunslinger/)
Axel Dürkop's avatar
Axel Dürkop committed
47

Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
48
Trotz ihrer Fähigkeit, Menschen zu erschießen und trotz ihres gelegentlich einschüchternden Aussehens könnte die Anwendung von Militärrobotern einige nützliche Folgen haben, die die ethische Rechtfertigung ihres Einsatzes unterstützen. Z.B. können Militärroboter die Anzahl von Verletzten reduzieren, da weniger Menschen in den Krieg geschickt werden müssen. Natürlich lässt sich dieser Vorteil nur auf der Seite anwenden, die Militärroboter besitzt. Außerdem unterliegen Roboter keinem psychologischem Stress, wie es bei Menschen der Fall ist. In Anbetracht der Tatsache, dass viele Soldaten nach ihrer Rückkehr aus Kriegsgebieten an PTBS (Posttraumatische Belastungsstörung) leiden, scheint es eine gute Idee, diese Art von Leiden durch den Gebrauch von Robotern anstelle von Menschen zu reduzieren. Ein weiterer Vorteil ist, dass Roboter keinen Emotionen wie Wut nachgeben und, anders als menschliche Soldaten, blind den gegebenen Befehlen gehorchen.
Axel Dürkop's avatar
Axel Dürkop committed
49

Axel Dürkop's avatar
Axel Dürkop committed
50
Trotz dieser (potentiellen) Vorteile müssen einige wichtige ethische Aspekte angesprochen werden: Eine der drängenden Fragen ist, ob Militärroboter die Autorität innehaben sollten, auf Menschen zu schießen, ohne dass ein Mensch darüber informiert ist. Dies ist besonders relevant, weil wir die Fähigkeit der Roboter sicherstellen müssen, zwischen Streitkräften und Zivilisten zu unterscheiden. Weiterhin könnte die Verfügbarkeit von Militärrobotern die Schwelle zu bewaffneten Konflikten senken. Denn hat man eine Gruppe Roboter, die für die eigene Seite kämpfen und somit keine menschlichen Verluste entstehen lassen (!), könnte dies die Motivation für bewaffnete Konflikte erhöhen. Im Zusammenhang damit steht das Problem der möglichen Bequemlichkeit im Verwenden von Robotern, wodurch die Haltung gefördert wird, dass Militärroboter die "technische Standardlösung" für Probleme werden und andere, friedvollere Lösungen außer Sicht geraten. Außerdem stellt sich die Frage, wie die Verantwortung zu verteilen ist, v.a. wenn ein Militärroboter Menschen verletzt, die nicht verletzt werden sollten. Wie bestimmen wir, wer für das Verhalten von Militärrobotern verantwortlich ist, insbesondere wenn sie autonom sind? Diese Angelegenheit ist sehr komplex, da wir die Vielzahl der beteiligten Rollen berücksichtigen müssen: Die Schöpfer des Roboters (inkl. IT-Unternehmen, die die Software herstellen sowie andere Forschungsinstitutionen) oder das Militär (z.B. die Leute in der Befehlskette wie Kommandeure und Soldaten). Vielleicht könnten wir aber auch dem Roboter selbst die Verantwortlichkeiten zuschreiben? Natürlich ist es nicht überraschend, dass Philosophen einiges zu diesem Thema zu sagen haben. Manche Autoren haben dafür plädiert, dass es unmöglich ist, die Verantwortung irgendeiner dieser Rollen zuzuteilen, wenn es um Militärroboter geht (z.B. Sparrow 2007). Andere Autoren hingegen haben genau diesen Weg zur Zuteilung dieser Verantwortung vorgeschlagen (z.B. Schulzke 2013)[^4] .
Axel Dürkop's avatar
Axel Dürkop committed
51 52 53 54


## Begleitroboter

Axel Dürkop's avatar
Axel Dürkop committed
55
Nach dem eher trostlosen Thema der Killermaschinen können wir uns nun den erbaulicheren Maschinen widmen: Begleitroboter. Normalerweise dienen diese Roboter irgendeiner Art von Interaktion, wie z.B. Sprache oder Gestik. Kurz gesagt sind Begleitroboter Roboter, die – wie der Name schon vermuten lässt – Leuten zuhause, auf der Arbeit, im Krankenhaus oder Altenheim Gesellschaft leisten. Das klassische Beispiel ist hier Paro, die flauschige Roboterrobbe, die in Altenheimen zur kognitiven Stimulierung oder Beruhigung demenzkranker Personen genutzt wird. Zwei neuere Begleitroboter sind Kuri und Buddy. Diese beiden sollen eine Allround-Begleitung darstellen, die Musik abspielen, an Aufgaben und Pflichten erinnern sowie [mit der eingebauten Kamera zu bestimmten Orten im Haus geschickt werden können, um dort etwas zu überprüfen](https://www.wired.com/story/companion-robots-are-here/).
Axel Dürkop's avatar
Axel Dürkop committed
56

Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
57
Es gibt ein paar Dinge, die für Begleitroboter sprechen. Einige Hinweise liegen dafür vor, dass Begleitroboter die Interaktion und Kommunikation autistischer Kinder erhöhen (Scassellati, Admoni, Matarić 2012). Darüber hinaus können Begleitroboter auch die Einsamkeit mancher Menschen lindern, insbesondere wenn sie älter oder sozial isoliert sind (Bemelmans et al. 2012). Dennoch sollten uns die süßen und knuddeligen Begleitroboter nicht über die ethischen Probleme hinwegsehen lassen. Eins darunter betrifft Sympathie und Täuschung: Sollten wir wirklich Dinge schaffen, die für die Seite der Nutzenden ein hohes Sympathie-Potential besitzen, wobei diese Sympathie letztlich auf Täuschung hinausläuft? Schließlich gibt der Roboter vor etwas zu sein, was er nicht ist: ein Freund oder Begleiter. In anderen Worten: Machen die möglichen Vorteile des Begleitroboters die Kosten der Tatsache wieder wett, dass besagte Vorteile durch die Täuschung eines Menschen erreicht werden und ihn an eine gegenseitige Beziehung glauben lassen (Sparrow & Sparrow 2006)? Eine weitere ethisch relevante Angelegenheit ist der Datenschutz, da Menschen mit Begleitrobotern in intimen Rahmen, wie z.B. deren Zuhause, interagieren und kommunizieren. Die dort gewonnenen Informationen sollten geschützt und sicher aufbewahrt werden, sodass sie unberechtigten Dritten nicht zugänglich ist. Es ist auch lohnenswert, über das Eigentumsrecht der in privaten Kontexten gewonnenen Daten nachzudenken. Sollte dieses Eigentumsrecht bei der Person verbleiben, die mit dem Begleitroboter interagiert oder ist es legitim, es dem Unternehmen zuzugestehen, das den Roboter hergestellt hat? (Eine ähnliche Frage kann bei anderen Technologien ebenfalls aufkommen. Hier ist z.B. an Geräte oder Services wie Amazons Alexa oder Microsofts Cortana zu denken). 
Axel Dürkop's avatar
Axel Dürkop committed
58
Ein anderes ethisches Problem betrifft das Autoritäts- und Autonomielevel, das wir den Begleitrobotern geben. Soll ein Begleitroboter, der mit der Begleitung eines kleinen Kindes beauftragt ist, einschreiten können, wenn das Kind etwas Unerlaubtes tut und beispielsweise Süßigkeiten isst?
Lisa Figura's avatar
Lisa Figura committed
59
Einige dieser oben angesprochenen Aspekte treffen auch auf Roboterassistenten zu, auf die wir im Folgenden zu sprechen kommen.
Axel Dürkop's avatar
Axel Dürkop committed
60 61


Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
62
## Pflegeroboter
Axel Dürkop's avatar
Axel Dürkop committed
63

Ann-Kathrin Watolla's avatar
Ann-Kathrin Watolla committed
64
Pflegeroboter sind Roboter, die wichtige Aufgaben in der Pflege anderer Menschen erfüllen, hauptsächlich bei Älteren oder körperlich Beeinträchtigten. Solche Aufgaben können das Greifen und Heben von Objekten, oder das Tragen und Ernähren sein. Der sogenannte Care-O-Bot wurde vom Fraunhofer Institut entwickelt und stellt beispielhaft den State of the art dar. Er ist mit einer Ablage, um Dinge herbeizubringen, ausgestattet und mit einer Tablet-Schnittstelle zur Anzeige von Webseiten versehen. [Darüber hinaus kann der Roboter seinen Nutzenden an die Einnahme von Medikamenten erinnern oder Hilfe holen, wenn dieser gestürzt ist und nicht allein aufstehen kann](https://www.care-o-bot.de/en/care-o-bot-3.html).
Axel Dürkop's avatar
Axel Dürkop committed
65

Lisa Figura's avatar
Lisa Figura committed
66
Es gibt klare Vorteile von Roboterassistenten. Natürlich können sie ältere und kranke Menschen zuhause unterstützen, was ihre Unabhängigkeit und Lebensqualität erhöht. Roboterassistenten könnten auch das mentale Wohlbefinden fördern, indem sie Einsamkeitsgefühlen vorbeugen. Des Weiteren vermeiden sie Gefahren und retten Leben, wenn sie mit der Fähigkeit ausgestattet sind, Gesundheit und Verhalten von Menschen zu überprüfen. Zu guter Letzt kann die Einführung von Roboterassistenten ein Weg sein, die sogenannte Pflegelücke in einer alternden Gesellschaft zu überbrücken, indem sie dem Pflegepersonal Arbeit abnehmen.  
Axel Dürkop's avatar
Axel Dürkop committed
67

Lisa Figura's avatar
Lisa Figura committed
68
Dennoch sollten wir nicht so sorglos sein und wichtige ethische Fragen vernachlässigen, wenn es um Roboterassistenten geht. Einer der drängendsten Aspekte ist der mögliche Konflikt zwischen den Werten Autonomie und Wahlfreiheit seitens der Nutzenden und dem Level des Einmischens in dem Leben der Älteren. Wie hartnäckig soll der Roboter beispielsweise sein, wenn eine Person ihre Medikamente nicht nehmen will? Ein weiteres offensichtliches Problem betrifft den Datenschutz. Roboterassistenten werden in einer empfindlichen Umgebung verwendet und können auch Zugang zu medizinischen und anderen persönlichen Daten des Besitzers haben, weshalb sichergestellt werden muss, dass diese sicher sind und nicht in fremde, ausnutzende Hände gelangen. Außerdem können Roboterassistenten zu einem reduzierten Sozialkontakt der Senioren führen, da Verwandte eventuell eher einen Roboter anstellen als menschliches Pflegepersonal oder seltener einen Besuch abstatten, da die Großmutter bereits Gesellschaft hat. Weiterhin können sich von Roboterassistenten versorgte Menschen objektifiziert fühlen, weil sich eine Maschine um sie kümmert. Es lauert auch das Problem der Täuschung, wie bereits oben bei den Begleitrobotern angesprochen. Man könnte den Standpunkt vertreten, dass Roboter die Illusion einer Beziehung schaffen: Sie könnten die Nutzenden oder Behandelten "enttäuschen", da sie als Begleiter oder Freund aufgefasst werden können, obwohl der Mensch ihnen eigentlich egal ist. 
Lisa Figura's avatar
Lisa Figura committed
69
Letztlich müssen im Zusammenhang mit Roboterassistenten einige gesellschaftliche Aspekte berücksichtigt werden. Wir sollten uns fragen, in was für einer Gesellschaft wir leben möchten. Wollen wir die verletzlichsten Mitglieder unserer Gesellschaft der Pflege von Robotern übergeben und wenn ja, in welchem Umfang genau? Die Antworten zu Fragen wie diesen sollten jeden betreffen und nicht exklusiv den Leuten vorbehalten werden, die technologische Entwicklung betreiben.
Axel Dürkop's avatar
Axel Dürkop committed
70 71 72 73 74

Die letzte Robotertechnologie, die wir genauer betrachten, ist die der selbstfahrenden Autos.

## Autonome Fahrzeuge

Lisa Figura's avatar
Lisa Figura committed
75
Wenn man die Medien verfolgt, ist man höchstwahrscheinlich vertraut mit den selbstfahrenden Autos von Tesla und Google. Dennoch ist angesichts des Preises eines Tesla-Autos vielleicht das selbstfahrende Auto eines Pizza-Lieferdienstes ein realitätsnäheres Beispiel. Es wurde in einer [Kooperation von Ford und der Pizza-Kette Dominos getestet](https://medium.com/self-driven/how-pizza-is-helping-us-design-our-self-driving-future-a78720818e99). Und so soll das selbstfahrende Pizza-Auto funktionieren: Man bestellt die Pizza und ein/e Angestellte/r deponiert sie in dem selbstfahrenden Lieferungsfahrzeug. Dieses findet dann selbstständig den Weg zu der angegebenen Adresse. Sobald das Auto mit der Pizza dort ankommt, kann die Pizza herausgenommen werden und das Auto fährt zurück zum Sitz des Lieferdienstes. Es ist nicht abwegig, dass wir tatsächlich selbstfahrende Pizza-Autos in naher Zukunft sehen werden, weil andere Unternehmen ins Rennen kommen. [Kürzlich hat sich Pizza Hut mit Toyota zusammengetan, um an einer eigenen Version eines autonomen Pizza-Lieferungsfahrzeugs zu arbeiten] (https://www.eater.com/2018/1/8/16865982/pizza-hut-toyota-self-driving-truck).
Axel Dürkop's avatar
Axel Dürkop committed
76 77 78

Diese wohlbekannten Vorteile, die sich bei einem Pizza-Lieferdienst zeigen, lassen sich auch auf selbstfahrende Autos im Allgemeinen anwenden. Die meisten Verkehrsunfälle sind menschlichen Fehlern geschuldet. Es gibt einige Schätzungen, [dass selbstfahrende Autos die Anzahl Verkehrstoter um 90% reduzieren könnten](https://www.theatlantic.com/technology/archive/2015/09/self-driving-cars-could-save-300000-lives-per-decade-in-america/407956/?utm_source=SFTwitter). Leben zu retten ist etwas Wertvolles, das spricht also für selbstfahrende Autos. Außerdem führen sie möglicherweise zu weniger Autos auf der Straße und aufgrund der potentiellen Verbindungs- bzw. Kommunikationsfähigkeit der Autos untereinander zu einem besseren Verkehrsfluss. Davon würden Städte, Umwelt und Individuen profitieren, da dies letztendlich weniger verkehrsbedingte Schadstoffe (die zu den Auslösern von Krankheiten wie Asthma zählen) bedeutet.

Lisa Figura's avatar
Lisa Figura committed
79
Trotz der Vorteile von selbstfahrenden Autos müssen einige ethische Probleme diskutiert werden. Ähnlich wie in der Technologie der Militärroboter, die oben thematisiert wurde, besteht die Frage der Zuschreibung bzw. Verteilung von Verantwortlichkeiten. Wer ist verantwortlich, wenn ein selbstfahrendes Auto einen Unfall verursacht? Damit einher geht die Frage, was für Entscheidungsfähigkeiten wir einem solchen Auto zuschreiben wollen. Denkt man an eine kritische Verkehrssituation, z.B. eine Version des Straßenbahn-Szenarios, das wir in dem Abschnitt zu den Asimovschen Gesetzen behandelt haben: Stellt man sich hier eine Gruppe Menschen auf den Schienen geradeaus vor, müsste die Wahl dazwischen getroffen werden, ob man diese überfährt, nach links lenkt und eine Person überfährt oder nach rechts lenkt und gegen eine Wand steuert, wobei man die Insassen wohl verletzen würde. Dabei kommt natürlich die Frage auf, nach welchen Kriterien das autonome Fahrzeug entscheiden soll. Eine Option ist, ihm in solchen Situationen keine Entscheidungsmacht zuzuteilen und die Wahl dem/der Fahrer/in zu überlassen. Was ist aber, wenn diese Person nicht aufmerksam ist? Soll das Auto dann die Erlaubnis haben, eine Option zu wählen? Letzten Endes müssen wir uns selbst fragen, welches Risiko wir als Gesellschaft eingehen möchten und ob der Nutzen selbstfahrender Autos auf der Straße die Gefahren und Risiken überwiegt. Ein weiteres wichtiges und nicht zu vernachlässigendes Problem ist der mögliche Verlust von Arbeitsplätzen, der mit den selbstfahrenden Autos einher geht. [Laut den American Trucking Associations gibt es 3,5 Millionen LKW-Fahrer/innen in den USA](http://www.trucking.org/News_and_Information_Reports_Industry_Data.aspx). Man würde sie nicht mehr benötigen, wenn LKW allein fahren könnten. Dasselbe gilt für das selbstfahrende Fahrzeug des Pizza-Lieferdienstes, da es das menschliche Element im Lieferservice ersetzt.
Lisa Figura's avatar
Lisa Figura committed
80
In dem zusammenfassenden Abschnitt werden wir sehen, dass Roboter nicht nur unsere Arbeitsplätze einnehmen, sondern auch unsere Rechte.
Axel Dürkop's avatar
Axel Dürkop committed
81 82 83 84


## Ethischer Umgang mit Robotern?

Lisa Figura's avatar
Lisa Figura committed
85
Zu Beginn dieses Kapitels wurde gesagt, dass Ethik nicht nur mit vertretbarem Verhalten gegenüber anderen Menschen und Tieren zutun hat, sondern heutzutage auch das Verhalten gegenüber künstlichen Produkten betrifft. Beispielsweise hat Saudi-Arabien im Oktober 2017 dem gebildeten, menschenartigen Roboter mit dem Namen Sophia Bürgerrechte gewährt. [Es ist der erste Roboter mit einer Staatsbürgerschaft weltweit](http://www.hansonrobotics.com/robot/sophia/). Dieses Ereignis zeigt einmal mehr, dass wir anfangen sollten, über unseren Umgang mit Robotern nachzudenken und uns zu fragen, welche Rolle sie in unserer sozialen Welt spielen sollen. Müssen wir sie als Personen betrachten und ihnen Rechte einräumen? Schließlich betrachten wir Unternehmen als Personen und gewähren ihnen bestimmte Rechte. Ist es möglich, Roboter auf unethische Weise zu behandeln (z.B. indem man ihnen Schaden zufügt)? Wir werden künftig vermutlich mit diesen und ähnlichen Fragen konfrontiert werden. Dies ist umso wahrscheinlicher, wenn Roboter ein Niveau an Kultiviertheit erreichen, das uns die Unterschiede zwischen ihnen und uns überdenken lässt. Wir sollten also besser endlich damit anfangen, über diese Angelegenheiten nachzudenken, anstatt die technische Entwicklung aufzuarbeiten.
Axel Dürkop's avatar
Axel Dürkop committed
86

Lisa Figura's avatar
Lisa Figura committed
87 88 89 90 91 92 93 94
[^1]: Es gibt zahlreiche exzellente Einführungen in das Feld der Roboterethik. Das Buch *Robot ethics: the ethical and social implications of robotics* (Lin, Abney \& Bekey 2012) ist eine sehr gute Einführung in die ethischen Probleme der Robotik. Kürzlich hat Spyros Tzaphestas (2016) eine Einführung in die Roboterethik veröffentlicht, die viele wichtige Thematiken abdeckt und der allgemeinen Öffentlichkeit zugänglich ist. 

[^2]: Wenn Sie tiefer in die Geschichte der Automaten (wie wir Roboter heute nennen) eintauchen wollen, bietet sich  *Sublime Dreams of Living Machines: The Automaton in the European Imagination* von Kang (2011) als intellektuelle Geschichte mechanischer Wesen an.
Der tschechische Autor Karel Čapek war der Erste, der den Begriff "Roboter" in seinem Stück "Rossum's Universal Robots" (1920) einführte. Interessanterweise versuchen die Roboter in diesem Stück, ihre menschlichen Meister zu übertreffen. Dies ist ein weiteres Beispiel, wie Olimpia in Fritz Langs Film oder der menschenartige Roboter in "Ex Machina", für unsere Besessenheit einerseits und unsere Angst vor unseren eigenen Schaffungen andererseits.

[^3]: Wenn Sie mehr über die Unterscheidung von Moral und Ethik erfahren wollen, ist eine Internetseite des BBC zu empfehlen, die sich der Frage ["Was ist Ethik" widmet](http://www.bbc.co.uk/ethics/introduction/). Wenn Sie tiefergehendes Material zu Ethik und ihren Theorien wünschen, konsultieren Sie bitte die [Internet Encyclopedia of Philosophy und ihren Beitrag zu Ethik](https://www.iep.utm.edu/ethics/).

[^4]: Wegen der [Risiken und moralischen Dilemmata](http://hir.harvard.edu/article/?a=14494), die in der Thematik der Militärroboter involviert sind, verlangen einige Leute – darunter Stephen Hawking und Elon Musk – ein [Verbot von "Killerrobotern"](https://www.technologyreview.com/s/539876/military-robots-armed-but-how-dangerous/). 
Axel Dürkop's avatar
Axel Dürkop committed
95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118

## Weiterführende Literatur

Bemelmans, R. et al. (2012). Socially Assistive Robots in Elderly Care: A Systematic Review into Effects and Effectiveness, Journal of the American Medical Directors Association , 13 (2), 114 - 120.

Kang, M. (2011). Sublime dreams of living machines: the automaton in the European imagination. Cambridge, Mass: Harvard University Press.

Kopacek, P. (2013). Development trends in robotics, Elektrotechnik und Informationstechnik “e&i”, 2, 42-47.

Lin, P., Abney, K., \& Bekey, G. A. (2012). Robot ethics: the ethical and social implications of robotics. Cambridge, Mass.: MIT Press.

Murphy, R., & Woods, D. D. (2009). Beyond Asimov: The Three Laws of Responsible Robotics. IEEE Intelligent Systems, 24(4), 14–20. https://doi.org/10.1109/MIS.2009.69

Scassellati, B., Admoni, H., Matarić, M. (2012). Robots for Use in Autism Research,  Annual Review of Biomedical Engineering 14 (1), 275-294.

Schulzke, M. (2013). Autonomous Weapons and Distributed Responsibility. Philosophy & Technology, 26(2), 203–219. https://doi.org/10.1007/s13347-012-0089-0

Sparrow, R. (2007), Killer Robots. Journal of Applied Philosophy, 24: 62–77.

Sparrow, R., & Sparrow, L. (2006). In the hands of machines? The future of aged care. Mind and Machine, 16, 141–161.

Tzaphestas, S. G. (2016). Roboethics: a navigating overview. Springer.


Lisa Figura's avatar
Lisa Figura committed
119
## Dazugehörige Videos
Axel Dürkop's avatar
Axel Dürkop committed
120 121

Dr. Steffen Steinert - Roomba, Drones and Terminator - The ethical implications of robotic technology
Axel Dürkop's avatar
Axel Dürkop committed
122
https://www.youtube.com/watch?v=5tTEEGRAHsI&t=11s