# Von Militärrobotern bis hin zu selbstfahrenden Pizza-Lieferdiensten Dieses Kapitel gibt eine kurze Einleitung in Roboterethik und widmet sich einigen ethischen Aspekten der neuesten Robotertechnologie. Hierbei sollen nicht etwa definitive Antworten gegeben werden, vielmehr werden diese ethischen Aspekte vorgestellt[^1] . Kurz gesagt werden wir in diesem Kapitel Folgendes betrachten: (1) Im ersten Abschnitt werfen wir einen kurzen kulturhistorischen Blick auf unsere Obsession mit künstlichen Kreaturen. (2) Wir wenden uns dann der Roboterethik zu und beleuchten, was es damit auf sich hat. (3) Wir sprechen einige ethische Aspekte der aktuellen Robotertechnologie an. Vor allem betrachten wir hier Militärroboter, selbstfahrende Autos sowie Roboter, die als Begleitung oder zur Pflege dienen. ### (1) Zunächst etwas Geschichte Menschen sind seit Langem besessen von künstlichen Kreaturen. Denken wir nur einmal an Talos, dem riesige Bronzeroboter aus der griechischen Mythologie, der angeblich gut Feinde bekämpfen kann (schon im Jahre 400 v.Chr.). Dann gibt es natürlich noch den Golem aus der jüdischen Tradition, eine Kreatur bestehend aus nicht-organischem Material, wie z.B. Lehm, die durch Magie zum Leben erweckt wird. Ein weiteres Beispiel, das den Robotern ähnlicher ist, bringt uns Leonardo da Vinci, der einen mechanischen menschenartigen Ritter erschaffen hat (um 1490). Unsere Besessenheit von künstlichen Kreaturen allgemein und mechanischen Robotern im Speziellen ist nirgends offensichtlicher als in Film und Literatur. Um hier nur zwei historische Beispiele zu nennen: E.T.A. Hoffmans berühmte Geschichte "Der Sandmann" (1816), die eine künstliche Frau namens Olimpia zeigt sowie unter den Filmen der Klassiker "Metropolis" von Fritz Lang, in dem die künstliche Kreatur Maria Unruhe stiftet. Natürlich könnten wir diese Liste fortführen bis wir zu den neuesten Folgen in der Popkultur gelangen und süße kleine Roboter wie Wall-E (2008) oder ausgeklügelte Mördermaschinen wie in dem Film "Ex Machina" (2014) aufzählen. In Anbetracht unserer Obsession von künstlichen Kreaturen dürfte es also nicht überraschend sein, dass wir uns in einer Phase von technischer Entwicklung befinden, in der Vakuumroboter wie Roomba unsere Wohnungen putzen, selbstfahrende Autos in naher Zukunft auf die Straßen kommen und Roboterassistenten in Krankenhäusern oder Altenheimen eingesetzt werden[^2] . ### (2) Roboterethik Bevor wir zur Roboterethik kommen, zunächst ein Wort über die Klassifizierung von Robotertechnologie. Wie zu erwarten ist, gibt es viele Wege, Robotertechnologie zu klassifizieren. Hier ein Beispiel von Kopacek (2013): Für dieses Kapitel soll allerdings eine simplere Klassifizierung dienen, die Roboter in industriell (was wir hier nicht thematisieren) und nicht-industriell unterteilt und darin weitere Unterkategorien stellt. Hier eine Visualisierung dieser einfachen Klassifizierung: Dementsprechend kann Roboterethik also unterteilt werden in assistierende Roboterethik, militärische Roboterethik, usw. Was ist also Roboterethik? Um dies zu beantworten, werfen wir zunächst einen Blick auf Ethik im Allgemeinen und gehen im Anschluss über zur Roboterethik. Obwohl in gewöhnlichen Kontexten Ethik und Moral austauschbar verwendet werden, ist es zumindest in der Philosophie gebräuchlich, diese beiden zu unterscheiden. Moral bezieht sich auf die Sammlung von Normen und Werten, die Menschen halten, während Ethik die Erforschung von Moral und die Reflexion darüber darstellt. Einfach ausgedrückt bestimmt Ethik über richtigen und falschen Verhaltenskodex; also muss berücksichtigt werden, dass Ethik die Rechtfertigung unseres Kodexes betrifft. Das bedeutet, für oder gegen etwas Gründe vorzubringen. Also wenn wir z.B. sagen "Kinder zu schlagen ist falsch", geben wir ein normatives Urteil. Auf der anderen Seite ist es nicht genug, etwas als gut oder schlecht zu beurteilen. Wir müssen auch die Gründe (d.h. eine Rechtfertigung) angeben, aus denen wir den Verhaltenskodex als richtig oder falsch beurteilen[^3] . Im traditionellen Sinne hat Ethik mit dem eigentlichen Verhaltenskodex gegenüber anderen menschlichen und nicht-menschlichen Lebewesen zutun. Allerdings schließt Ethik heutzutage ebenso die Reflexion über richtiges und falsches Handeln bzgl. der Umwelt ein und umfasst nun auch die Reflexion darüber, wie wir unsere Roboter behandeln sollten. Auf das Verhalten zu den von uns geschaffenen Kreaturen kommen wir im letzten Abschnitt zurück. Zunächst widmen wir uns der Roboterethik. ### (3) Roboter und Ethik Die natürlichste Frage, die viele Menschen beim Thema Roboter im Kopf haben, ist: Wie kriegen wir Roboter dazu, sich so zu verhalten, wie wir es für angebracht erachten? In seinen Romanen präsentiert der Autor Isaac Asimov eine Antwort auf diese Frage. Er plädiert für die Vorstellung, dass Roboter gemäß unseren moralischen Regeln oder Gesetzen programmiert werden können. So könnte der Roboter z.B. so eingestellt werden, dass er X, aber nicht Y macht. Die Regeln, die er einführt, sind als "Asimovsche Robotergesetze" (engl. "Three Laws of Robotics") bekannt geworden und lauten folgendermaßen: 1. Erstes Gesetz: Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit (wissentlich) zulassen, dass einem menschlichen Wesen Schaden zugefügt wird. 2. Zweites Gesetz: Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. 3. Drittes Gesetz: Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert. 4. Nulltes Gesetz (später hinzugefügt): Ein Roboter darf die Menschheit nicht verletzen oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt. Nun scheint auf den ersten Blick die Idee, das Verhalten von Robotern gemäß einem Regelsystem zu programmieren, ein sehr vernünftiges Vorhaben zu sein. Dennoch gibt es einige wohl bekannte Probleme mit diesem Ansatz (zu den Unzulänglichkeiten der Asimovschen Gesetze und einer Alternative vgl. Murphy & Woods 2009). Asimov war sich dieser Probleme sehr wohl bewusst und nutzte sie als Mittel, um die Narrative seiner Science-Fiction-Geschichten anzutreiben. Ein Problem betrifft die Ungenauigkeit der in den Gesetzen verwendeten Begriffe. Z.B. ist nicht klar, was der Begriff "menschlich" in seinem ersten Gesetz bedeutet oder was genau "Roboter" oder "Schaden zufügen" heißt. Außerdem ist da noch das Problem des Ballasts an Regeln. Damit ist gemeint, dass die Welt ein chaotischer Ort ist und wir viele Regeln und Regeln für die Ausnahmen zur Regel brauchen, um alle Umstände abzudecken, die ein Roboter vorfinden könnte. Dies scheint jedoch eine unmögliche Aufgabe zu sein. Das offensichtlichste Problem ist allerdings, dass es eine Menge Situationen gibt, in denen eine Regel mit einer anderen im Konflikt steht. Betrachten wir einmal das bekannte Straßenbahn-Szenario, in dem eine außer Kontrolle geratene Straßenbahn auf einem Gleis fährt, auf dem sich fünf Personen befinden. Die Straßenbahn kann auf ein anderes Gleis umgeleitet werden. Dort befindet sich jedoch ebenfalls eine Person. Es muss also eine Entscheidung getroffen werden, ob die Straßenbahn umgeleitet werden soll oder nicht und damit entweder eine oder fünf Personen überfährt und vermutlich tötet. Wie soll sich ein Roboter in dieser Situation verhalten, in Anbetracht der Tatsache, dass er Menschenleben retten soll? (Dabei stellt sich die Frage, wie Menschen in einer solchen Situation handeln sollen). Zu guter Letzt stellt sich das Problem, dass die Asimovschen Gesetze in manchen Kontexten nicht umsetzbar sein können. Es kann z.B. Kontexte geben, in denen wir erwarten, dass der Roboter einem menschlichen Wesen Schaden zufügt. Dies führt uns zu der ersten Robotertechnologie, auf die wir konkreter schauen werden: Militärroboter. ## Militärroboter Es ist nicht überraschend, dass das Militär an vorderster Front steht, wenn es um Robotertechnologie geht. Militärroboter sind hier, um hier zu bleiben. Z.B. berichtetet die New York Times 2005 von Plänen des Pentagons, Soldaten durch Roboter zu ersetzen und [nur fünf Länder unterstützten eine UN-Resolution zum Verbot von Killerrobotern](https://www.theverge.com/2014/5/16/5724538/what-happened-at-the-un-killer-robot-debate). Hier ist es wichtig, darauf hinzuweisen, dass vollautonome Waffen bereits existieren (in diesem Kontext bedeutet "autonom", dass der Roboter ohne menschliche Intervention seine Aufgaben ausführt). Südkorea besitzt ein automatisches Maschinengewehr, [das ohne menschliche Befehle Ziele identifizieren und beschießen kann](http://www.dailymail.co.uk/sciencetech/article-2756847/Who-goes-Samsung-reveals-robot-sentry-set-eye-North-Korea.html). Ein weiteres Beispiel stammt aus Russland, wo das Militär autonome Panzer einsetzt, [um kritische Gebiete abzupatrouillieren](https://www.newscientist.com/article/mg22229664-400-armed-russian-robocops-to-defend-missile-bases/). Nur zum Vergnügen, hier noch zwei weitere Beispiele: Dubai stellte neulich einen seiner neuen [Robo-Polizisten unter Beweis, die in naher Zukunft auf der Straße patrouillieren sollen](http://www.dailymail.co.uk/sciencetech/article-4530260/Real-life-Robocop-starts-work-Dubai-tomorrow-onward.html). Russland ist dabei, etwas Terminatorähnliches zu entwickeln, [das tatsächlich ein Gewehr bedienen kann (oder zwei, wenn nötig)!](https://www.popularmechanics.com/military/research/news/a26140/russia-robot-gunslinger/) Trotz ihrer Fähigkeit, Menschen zu erschießen und trotz ihres gelegentlich einschüchternden Aussehens könnte die Anwendung von Militärrobotern einige nützliche Folgen haben, die die ethische Rechtfertigung ihres Einsatzes unterstützen. Z.B. können Militärroboter die Anzahl von Verletzten reduzieren, da weniger Menschen in den Krieg geschickt werden müssen. Natürlich lässt sich dieser Vorteil nur auf der Seite anwenden, die Militärroboter besitzt. Außerdem unterliegen Roboter keinem psychologischem Stress, wie es bei Menschen der Fall ist. In Anbetracht der Tatsache, dass viele Soldaten nach ihrer Rückkehr aus Kriegsgebieten an PTBS (Posttraumatische Belastungsstörung) leiden, scheint es eine gute Idee, diese Art von Leiden durch den Gebrauch von Robotern anstelle von Menschen zu reduzieren. Ein weiterer Vorteil ist, dass Roboter keinen Emotionen wie Wut nachgeben und, anders als menschliche Soldaten, blind den gegebenen Befehlen gehorchen. Trotz dieser (potentiellen) Vorteile müssen einige wichtige ethische Aspekte angesprochen werden: Eine der drängenden Fragen ist, ob Militärroboter die Autorität innehaben sollten, auf Menschen zu schießen, ohne dass ein Mensch darüber informiert ist. Dies ist besonders relevant, weil wir die Fähigkeit der Roboter sicherstellen müssen, zwischen Streitkräften und Zivilisten zu unterscheiden. Weiterhin könnte die Verfügbarkeit von Militärrobotern die Schwelle zu bewaffneten Konflikten senken. Denn hat man eine Gruppe Roboter, die für die eigene Seite kämpfen und somit keine menschlichen Verluste entstehen lassen (!), könnte dies die Motivation für bewaffnete Konflikte erhöhen. Im Zusammenhang damit steht das Problem der möglichen Bequemlichkeit im Verwenden von Robotern, wodurch die Haltung gefördert wird, dass Militärroboter die "technische Standardlösung" für Probleme werden und andere, friedvollere Lösungen außer Sicht geraten. Außerdem stellt sich die Frage, wie die Verantwortung zu verteilen ist, v.a. wenn ein Militärroboter Menschen verletzt, die nicht verletzt werden sollten. Wie bestimmen wir, wer für das Verhalten von Militärrobotern verantwortlich ist, insbesondere wenn sie autonom sind? Diese Angelegenheit ist sehr komplex, da wir die Vielzahl der beteiligten Rollen berücksichtigen müssen: Die Schöpfer des Roboters (inkl. IT-Unternehmen, die die Software herstellen sowie andere Forschungsinstitutionen) oder das Militär (z.B. die Leute in der Befehlskette wie Kommandeure und Soldaten). Vielleicht könnten wir aber auch dem Roboter selbst die Verantwortlichkeiten zuschreiben? Natürlich ist es nicht überraschend, dass Philosophen einiges zu diesem Thema zu sagen haben. Manche Autoren haben dafür plädiert, dass es unmöglich ist, die Verantwortung irgendeiner dieser Rollen zuzuteilen, wenn es um Militärroboter geht (z.B. Sparrow 2007). Andere Autoren hingegen haben genau diesen Weg zur Zuteilung dieser Verantwortung vorgeschlagen (z.B. Schulzke 2013)[^4] . ## Begleitroboter Nach dem eher trostlosen Thema der Killermaschinen können wir uns nun den erbaulicheren Maschinen widmen: Begleitroboter. Normalerweise dienen diese Roboter irgendeiner Art von Interaktion, wie z.B. Sprache oder Gestik. Kurz gesagt sind Begleitroboter Roboter, die – wie der Name schon vermuten lässt – Leuten zuhause, auf der Arbeit, im Krankenhaus oder Altenheim Gesellschaft leisten. Das klassische Beispiel ist hier Paro, die flauschige Roboterrobbe, die in Altenheimen zur kognitiven Stimulierung oder Beruhigung demenzkranker Personen genutzt wird. Zwei neuere Begleitroboter sind Kuri und Buddy. Diese beiden sollen eine Allround-Begleitung darstellen, die Musik abspielen, an Aufgaben und Pflichten erinnern sowie [mit der eingebauten Kamera zu bestimmten Orten im Haus geschickt werden können, um dort etwas zu überprüfen](https://www.wired.com/story/companion-robots-are-here/). Es gibt ein paar Dinge, die für Begleitroboter sprechen. Einige Hinweise liegen dafür vor, dass Begleitroboter die Interaktion und Kommunikation autistischer Kinder erhöhen (Scassellati, Admoni, Matarić 2012). Darüber hinaus können Begleitroboter auch die Einsamkeit mancher Menschen lindern, insbesondere wenn sie älter oder sozial isoliert sind (Bemelmans et al. 2012). Dennoch sollten uns die süßen und knuddeligen Begleitroboter nicht über die ethischen Probleme hinwegsehen lassen. Eins darunter betrifft Sympathie und Täuschung: Sollten wir wirklich Dinge schaffen, die für die Seite der Nutzenden ein hohes Sympathie-Potential besitzen, wobei diese Sympathie letztlich auf Täuschung hinausläuft? Schließlich gibt der Roboter vor etwas zu sein, was er nicht ist: ein Freund oder Begleiter. In anderen Worten: Machen die möglichen Vorteile des Begleitroboters die Kosten der Tatsache wieder wett, dass besagte Vorteile durch die Täuschung eines Menschen erreicht werden und ihn an eine gegenseitige Beziehung glauben lassen (Sparrow & Sparrow 2006)? Eine weitere ethisch relevante Angelegenheit ist der Datenschutz, da Menschen mit Begleitrobotern in intimen Rahmen, wie z.B. deren Zuhause, interagieren und kommunizieren. Die dort gewonnenen Informationen sollten geschützt und sicher aufbewahrt werden, sodass sie unberechtigten Dritten nicht zugänglich ist. Es ist auch lohnenswert, über das Eigentumsrecht der in privaten Kontexten gewonnenen Daten nachzudenken. Sollte dieses Eigentumsrecht bei der Person verbleiben, die mit dem Begleitroboter interagiert oder ist es legitim, es dem Unternehmen zuzugestehen, das den Roboter hergestellt hat? (Eine ähnliche Frage kann bei anderen Technologien ebenfalls aufkommen. Hier ist z.B. an Geräte oder Services wie Amazons Alexa oder Microsofts Cortana zu denken). Ein anderes ethisches Problem betrifft das Autoritäts- und Autonomielevel, das wir den Begleitrobotern geben. Soll ein Begleitroboter, der mit der Begleitung eines kleinen Kindes beauftragt ist, einschreiten können, wenn das Kind etwas Unerlaubtes tut und beispielsweise Süßigkeiten isst? Einige dieser oben angesprochenen Aspekte treffen auch auf Roboterassistenten zu, auf die wir im Folgenden zu sprechen kommen. ## Pflegeroboter Pflegeroboter sind Roboter, die wichtige Aufgaben in der Pflege anderer Menschen erfüllen, hauptsächlich bei Älteren oder körperlich Beeinträchtigten. Solche Aufgaben können das Greifen und Heben von Objekten, oder das Tragen und Ernähren sein. Der sogenannte Care-O-Bot wurde vom Fraunhofer Institut entwickelt und stellt beispielhaft den State of the art dar. Er ist mit einer Ablage, um Dinge herbeizubringen, ausgestattet und mit einer Tablet-Schnittstelle zur Anzeige von Webseiten versehen. [Darüber hinaus kann der Roboter seinen Nutzenden an die Einnahme von Medikamenten erinnern oder Hilfe holen, wenn dieser gestürzt ist und nicht allein aufstehen kann](https://www.care-o-bot.de/en/care-o-bot-3.html). Es gibt klare Vorteile von Roboterassistenten. Natürlich können sie ältere und kranke Menschen zuhause unterstützen, was ihre Unabhängigkeit und Lebensqualität erhöht. Roboterassistenten könnten auch das mentale Wohlbefinden fördern, indem sie Einsamkeitsgefühlen vorbeugen. Des Weiteren vermeiden sie Gefahren und retten Leben, wenn sie mit der Fähigkeit ausgestattet sind, Gesundheit und Verhalten von Menschen zu überprüfen. Zu guter Letzt kann die Einführung von Roboterassistenten ein Weg sein, die sogenannte Pflegelücke in einer alternden Gesellschaft zu überbrücken, indem sie dem Pflegepersonal Arbeit abnehmen. Dennoch sollten wir nicht so sorglos sein und wichtige ethische Fragen vernachlässigen, wenn es um Roboterassistenten geht. Einer der drängendsten Aspekte ist der mögliche Konflikt zwischen den Werten Autonomie und Wahlfreiheit seitens der Nutzenden und dem Level des Einmischens in dem Leben der Älteren. Wie hartnäckig soll der Roboter beispielsweise sein, wenn eine Person ihre Medikamente nicht nehmen will? Ein weiteres offensichtliches Problem betrifft den Datenschutz. Roboterassistenten werden in einer empfindlichen Umgebung verwendet und können auch Zugang zu medizinischen und anderen persönlichen Daten des Besitzers haben, weshalb sichergestellt werden muss, dass diese sicher sind und nicht in fremde, ausnutzende Hände gelangen. Außerdem können Roboterassistenten zu einem reduzierten Sozialkontakt der Senioren führen, da Verwandte eventuell eher einen Roboter anstellen als menschliches Pflegepersonal oder seltener einen Besuch abstatten, da die Großmutter bereits Gesellschaft hat. Weiterhin können sich von Roboterassistenten versorgte Menschen objektifiziert fühlen, weil sich eine Maschine um sie kümmert. Es lauert auch das Problem der Täuschung, wie bereits oben bei den Begleitrobotern angesprochen. Man könnte den Standpunkt vertreten, dass Roboter die Illusion einer Beziehung schaffen: Sie könnten die Nutzenden oder Behandelten "enttäuschen", da sie als Begleiter oder Freund aufgefasst werden können, obwohl der Mensch ihnen eigentlich egal ist. Letztlich müssen im Zusammenhang mit Roboterassistenten einige gesellschaftliche Aspekte berücksichtigt werden. Wir sollten uns fragen, in was für einer Gesellschaft wir leben möchten. Wollen wir die verletzlichsten Mitglieder unserer Gesellschaft der Pflege von Robotern übergeben und wenn ja, in welchem Umfang genau? Die Antworten zu Fragen wie diesen sollten jeden betreffen und nicht exklusiv den Leuten vorbehalten werden, die technologische Entwicklung betreiben. Die letzte Robotertechnologie, die wir genauer betrachten, ist die der selbstfahrenden Autos. ## Autonome Fahrzeuge Wenn man die Medien verfolgt, ist man höchstwahrscheinlich vertraut mit den selbstfahrenden Autos von Tesla und Google. Dennoch ist angesichts des Preises eines Tesla-Autos vielleicht das selbstfahrende Auto eines Pizza-Lieferdienstes ein realitätsnäheres Beispiel. Es wurde in einer [Kooperation von Ford und der Pizza-Kette Dominos getestet](https://medium.com/self-driven/how-pizza-is-helping-us-design-our-self-driving-future-a78720818e99). Und so soll das selbstfahrende Pizza-Auto funktionieren: Man bestellt die Pizza und ein/e Angestellte/r deponiert sie in dem selbstfahrenden Lieferungsfahrzeug. Dieses findet dann selbstständig den Weg zu der angegebenen Adresse. Sobald das Auto mit der Pizza dort ankommt, kann die Pizza herausgenommen werden und das Auto fährt zurück zum Sitz des Lieferdienstes. Es ist nicht abwegig, dass wir tatsächlich selbstfahrende Pizza-Autos in naher Zukunft sehen werden, weil andere Unternehmen ins Rennen kommen. [Kürzlich hat sich Pizza Hut mit Toyota zusammengetan, um an einer eigenen Version eines autonomen Pizza-Lieferungsfahrzeugs zu arbeiten] (https://www.eater.com/2018/1/8/16865982/pizza-hut-toyota-self-driving-truck). Diese wohlbekannten Vorteile, die sich bei einem Pizza-Lieferdienst zeigen, lassen sich auch auf selbstfahrende Autos im Allgemeinen anwenden. Die meisten Verkehrsunfälle sind menschlichen Fehlern geschuldet. Es gibt einige Schätzungen, [dass selbstfahrende Autos die Anzahl Verkehrstoter um 90% reduzieren könnten](https://www.theatlantic.com/technology/archive/2015/09/self-driving-cars-could-save-300000-lives-per-decade-in-america/407956/?utm_source=SFTwitter). Leben zu retten ist etwas Wertvolles, das spricht also für selbstfahrende Autos. Außerdem führen sie möglicherweise zu weniger Autos auf der Straße und aufgrund der potentiellen Verbindungs- bzw. Kommunikationsfähigkeit der Autos untereinander zu einem besseren Verkehrsfluss. Davon würden Städte, Umwelt und Individuen profitieren, da dies letztendlich weniger verkehrsbedingte Schadstoffe (die zu den Auslösern von Krankheiten wie Asthma zählen) bedeutet. Trotz der Vorteile von selbstfahrenden Autos müssen einige ethische Probleme diskutiert werden. Ähnlich wie in der Technologie der Militärroboter, die oben thematisiert wurde, besteht die Frage der Zuschreibung bzw. Verteilung von Verantwortlichkeiten. Wer ist verantwortlich, wenn ein selbstfahrendes Auto einen Unfall verursacht? Damit einher geht die Frage, was für Entscheidungsfähigkeiten wir einem solchen Auto zuschreiben wollen. Denkt man an eine kritische Verkehrssituation, z.B. eine Version des Straßenbahn-Szenarios, das wir in dem Abschnitt zu den Asimovschen Gesetzen behandelt haben: Stellt man sich hier eine Gruppe Menschen auf den Schienen geradeaus vor, müsste die Wahl dazwischen getroffen werden, ob man diese überfährt, nach links lenkt und eine Person überfährt oder nach rechts lenkt und gegen eine Wand steuert, wobei man die Insassen wohl verletzen würde. Dabei kommt natürlich die Frage auf, nach welchen Kriterien das autonome Fahrzeug entscheiden soll. Eine Option ist, ihm in solchen Situationen keine Entscheidungsmacht zuzuteilen und die Wahl dem/der Fahrer/in zu überlassen. Was ist aber, wenn diese Person nicht aufmerksam ist? Soll das Auto dann die Erlaubnis haben, eine Option zu wählen? Letzten Endes müssen wir uns selbst fragen, welches Risiko wir als Gesellschaft eingehen möchten und ob der Nutzen selbstfahrender Autos auf der Straße die Gefahren und Risiken überwiegt. Ein weiteres wichtiges und nicht zu vernachlässigendes Problem ist der mögliche Verlust von Arbeitsplätzen, der mit den selbstfahrenden Autos einher geht. [Laut den American Trucking Associations gibt es 3,5 Millionen LKW-Fahrer/innen in den USA](http://www.trucking.org/News_and_Information_Reports_Industry_Data.aspx). Man würde sie nicht mehr benötigen, wenn LKW allein fahren könnten. Dasselbe gilt für das selbstfahrende Fahrzeug des Pizza-Lieferdienstes, da es das menschliche Element im Lieferservice ersetzt. In dem zusammenfassenden Abschnitt werden wir sehen, dass Roboter nicht nur unsere Arbeitsplätze einnehmen, sondern auch unsere Rechte. ## Ethischer Umgang mit Robotern? Zu Beginn dieses Kapitels wurde gesagt, dass Ethik nicht nur mit vertretbarem Verhalten gegenüber anderen Menschen und Tieren zutun hat, sondern heutzutage auch das Verhalten gegenüber künstlichen Produkten betrifft. Beispielsweise hat Saudi-Arabien im Oktober 2017 dem gebildeten, menschenartigen Roboter mit dem Namen Sophia Bürgerrechte gewährt. [Es ist der erste Roboter mit einer Staatsbürgerschaft weltweit](http://www.hansonrobotics.com/robot/sophia/). Dieses Ereignis zeigt einmal mehr, dass wir anfangen sollten, über unseren Umgang mit Robotern nachzudenken und uns zu fragen, welche Rolle sie in unserer sozialen Welt spielen sollen. Müssen wir sie als Personen betrachten und ihnen Rechte einräumen? Schließlich betrachten wir Unternehmen als Personen und gewähren ihnen bestimmte Rechte. Ist es möglich, Roboter auf unethische Weise zu behandeln (z.B. indem man ihnen Schaden zufügt)? Wir werden künftig vermutlich mit diesen und ähnlichen Fragen konfrontiert werden. Dies ist umso wahrscheinlicher, wenn Roboter ein Niveau an Kultiviertheit erreichen, das uns die Unterschiede zwischen ihnen und uns überdenken lässt. Wir sollten also besser endlich damit anfangen, über diese Angelegenheiten nachzudenken, anstatt die technische Entwicklung aufzuarbeiten. [^1]: Es gibt zahlreiche exzellente Einführungen in das Feld der Roboterethik. Das Buch *Robot ethics: the ethical and social implications of robotics* (Lin, Abney \& Bekey 2012) ist eine sehr gute Einführung in die ethischen Probleme der Robotik. Kürzlich hat Spyros Tzaphestas (2016) eine Einführung in die Roboterethik veröffentlicht, die viele wichtige Thematiken abdeckt und der allgemeinen Öffentlichkeit zugänglich ist. [^2]: Wenn Sie tiefer in die Geschichte der Automaten (wie wir Roboter heute nennen) eintauchen wollen, bietet sich *Sublime Dreams of Living Machines: The Automaton in the European Imagination* von Kang (2011) als intellektuelle Geschichte mechanischer Wesen an. Der tschechische Autor Karel Čapek war der Erste, der den Begriff "Roboter" in seinem Stück "Rossum's Universal Robots" (1920) einführte. Interessanterweise versuchen die Roboter in diesem Stück, ihre menschlichen Meister zu übertreffen. Dies ist ein weiteres Beispiel, wie Olimpia in Fritz Langs Film oder der menschenartige Roboter in "Ex Machina", für unsere Besessenheit einerseits und unsere Angst vor unseren eigenen Schaffungen andererseits. [^3]: Wenn Sie mehr über die Unterscheidung von Moral und Ethik erfahren wollen, ist eine Internetseite des BBC zu empfehlen, die sich der Frage ["Was ist Ethik" widmet](http://www.bbc.co.uk/ethics/introduction/). Wenn Sie tiefergehendes Material zu Ethik und ihren Theorien wünschen, konsultieren Sie bitte die [Internet Encyclopedia of Philosophy und ihren Beitrag zu Ethik](https://www.iep.utm.edu/ethics/). [^4]: Wegen der [Risiken und moralischen Dilemmata](http://hir.harvard.edu/article/?a=14494), die in der Thematik der Militärroboter involviert sind, verlangen einige Leute – darunter Stephen Hawking und Elon Musk – ein [Verbot von "Killerrobotern"](https://www.technologyreview.com/s/539876/military-robots-armed-but-how-dangerous/). ## Weiterführende Literatur Bemelmans, R. et al. (2012). Socially Assistive Robots in Elderly Care: A Systematic Review into Effects and Effectiveness, Journal of the American Medical Directors Association , 13 (2), 114 - 120. Kang, M. (2011). Sublime dreams of living machines: the automaton in the European imagination. Cambridge, Mass: Harvard University Press. Kopacek, P. (2013). Development trends in robotics, Elektrotechnik und Informationstechnik “e&i”, 2, 42-47. Lin, P., Abney, K., \& Bekey, G. A. (2012). Robot ethics: the ethical and social implications of robotics. Cambridge, Mass.: MIT Press. Murphy, R., & Woods, D. D. (2009). Beyond Asimov: The Three Laws of Responsible Robotics. IEEE Intelligent Systems, 24(4), 14–20. https://doi.org/10.1109/MIS.2009.69 Scassellati, B., Admoni, H., Matarić, M. (2012). Robots for Use in Autism Research, Annual Review of Biomedical Engineering 14 (1), 275-294. Schulzke, M. (2013). Autonomous Weapons and Distributed Responsibility. Philosophy & Technology, 26(2), 203–219. https://doi.org/10.1007/s13347-012-0089-0 Sparrow, R. (2007), Killer Robots. Journal of Applied Philosophy, 24: 62–77. Sparrow, R., & Sparrow, L. (2006). In the hands of machines? The future of aged care. Mind and Machine, 16, 141–161. Tzaphestas, S. G. (2016). Roboethics: a navigating overview. Springer. ## Dazugehörige Videos Dr. Steffen Steinert - Roomba, Drones and Terminator - The ethical implications of robotic technology https://www.youtube.com/watch?v=5tTEEGRAHsI&t=11s