Commit 72c335d0 authored by Axel Dürkop's avatar Axel Dürkop
Browse files

Update content

parent 27c024b7
......@@ -83,12 +83,26 @@ Um zu klären, wer bei einem durch den Fehler eines Roboters verursachten Unfall
Technologie-Enthusiasten behaupten stattdessen, dass dies der richtige Weg zu mehr sozialer Gerechtigkeit und individuellem Wachstum ist; indem man Robotern erlaubt, selbstständig mechanische und befremdende Vorgänge zu erledigen, werden wir für Menschen mehr Möglichkeiten schaffen, ihrer eigenen Kreativität zu folgen und sich in einem einzigartigen Beruf zu verwirklichen. Diese optimistische Sichtweise ist natürlich sehr verlockend, aber das jüngste Scheitern des *Internet-Experiments* (von dem man eine drastische Stärkung der Demokratie und des moralischen Wachstums für die Menschheit erwartet hatte) verlangt von uns, bei der Beurteilung der nächsten Schritte vorsichtig zu sein.
\newpage
## Weiterführende Literatur
Pitsch, K. 2016. Limits and opportunities for mathematizing communicational conduct for social robotics in the real world? Toward enabling a robot to make use of the human’s competences. *AI & Society* 31(4), pp. 587-593. <https://doi.org/10.1007/s00146-015-0629-0>
Scheutz, M. & T. Arnold. 2016. Feats without Heroes: Norms, Means, and Ideal Robotic Action. *Frontiers in Robotics and AI*. <https://doi.org/10.3389/frobt.2016.00032>
Veruggio, G., Solis, J. & M. Van der Loos. 2011. Roboethics: Ethics Applied to Robotics, *IEEE Robotics & Automation Magazine* 18(1), pp.21-22. <https://doi.org/10.1109/MRA.2010.940149>
Weiss, S. 2013. Raunchy robotics: the ethics of sexbots. <https://hcri.brown.edu/2013/06/18/raunchy-robotics-the-ethics-of-sexbots/>
## Dazugehörige Videos
Mirko Garasic - What kind of ethical problems relate to AI and Robotics?
<https://www.youtube.com/watch?v=jbL7F7kJRc8>
Mirko Garasic - Robots and Automation
<https://www.youtube.com/watch?v=6FOKx41e_y0>
## Dazugehörige Diskussion
Siehe auch die Diskussion zu diesem Kapitel unter
\ No newline at end of file
Siehe auch die englische Diskussion zu diesem Kapitel unter <https://community.tuhh.de/t/1-chapter-intelligent-machines-are-on-the-rise-do-we-believe-in-technology-as-inherently-representative-of-progress-or-should-we-fear-that-a-terminator-is-on-its-way/525>.
\ No newline at end of file
......@@ -86,4 +86,29 @@ Besonders heftig sind Fälle von romantischer Liebe, die in einem Menschen (Abh
[^4]: Ich bedanke mich bei Andrea Lavazza für seinen Beitrag zur Verfassung der Abhandlung unseres Co-Autorenteams, auf die ich mich in diesem Teil ausführlich bezogen habe. A. Lavazza, und Dr. med. Garasic. 2017. Wege zur Durchdringung unserer Sphären der Gerechtigkeit durch die nicht-invasive Hirnstimulation, *Journal of Cognitive Enhancement* 1, Seiten 1 - 8.
[^5]: J. Harris 2010. Moralische Verbesserung und Freiheit, http://onlinelibrary.wiley.com/doi/10.1111/j.1467-8519.2010.01854.x/full
\ No newline at end of file
[^5]: J. Harris 2010. Moralische Verbesserung und Freiheit, http://onlinelibrary.wiley.com/doi/10.1111/j.
## Weiterführende Literatur
Agar, N. 2005. Liberal eugenics: in defence of human enhancement. Malden: Blackwell Pub.
Bostrom, N. 2010. Letter from Utopia, *Studies in Ethics, Law, and Technology* 2(1), pp.1-7. <http://www.nickbostrom.com/utopia.pdf>
Garasic, M. D. & A. Lavazza. 2016. Moral and social reasons to acknowledge the use of cognitive enhancers in competitive-selective contexts, *BMC Medical Ethics* 17(1) <https://doi.org/10.1186/s12910-016-0102-8>
Garasic, M. D. 2017. Enhancements 2.0: self-creation might not be as lovely as some think, *Topoi* <https://doi.org/10.1007/s11245-017-9469-5>
Habermas, J. 2006. The future of human nature. Camebridge: Polity Press. http://doi.org/10.1080/15017410500246111
Sandel, M.J. 2002. What’s Wrong with Enhancement <https://bioethicsarchive.georgetown.edu/pcbe/background/sandelpaper.html>
Savulescu, J. & I. Persson. 2012. Moral Enhancement, *Philosophy Now*, Issue 91 <https://philosophynow.org/issues/91/Moral_Enhancement>
## Dazugehörige Videos
Mirko Garasic - What do we mean when we talk about Human Enhancement?
<https://www.youtube.com/watch?v=nDIAigxw2oM>
## Dazugehörige Diskussion
Siehe auch die englische Diskussion zu diesem Kapitel unter <https://community.tuhh.de/t/2-chapter-how-far-should-human-enhancement-go/541>.
\ No newline at end of file
......@@ -18,7 +18,7 @@ Ohne in die tiefe Dimension einzutauchen, die ein Versuch der Beantwortung diese
Für manche stellt diese Haltung ein Problem dar. Die Tatsache, dass Menschen in einigen Traditionen die einzigen sind, denen eine moralische Bedeutung zustehen soll, wurde von einigen Umweltschützern als strukturelles Problem angesehen, das uns gegenüber Tieren und Pflanzen nicht ausreichend einfühlsam hat werden lassen. Es hat dazu beigetragen, dass wir die Natur als etwas Äußeres betrachten, das wir folglich ausbeuten können aber dennoch erhaltenswert ist.
Unabhänhig davon, ob wir bei der Bestimmung dessen, was in Bezug auf die Umwelt als ethisches Verhalten angesehen werden kann, eine anthropozentrische oder nicht-anthropozentrische Argumentation anwenden: wir scheinen ein Stadium erreicht zu haben, in dem wir gegen Verschmutzung und globale Erwärmung ohnehin etwas unternehmen müssen. Allerdings könnte unsere Sichtweise die Bewertung unserer sonstigen Möglichkeiten zur Implementierung von Technologie im Zusammenhang mit Umweltproblemen (im weitesten Sinne) prägen.
Unabhängig davon, ob wir bei der Bestimmung dessen, was in Bezug auf die Umwelt als ethisches Verhalten angesehen werden kann, eine anthropozentrische oder nicht-anthropozentrische Argumentation anwenden: wir scheinen ein Stadium erreicht zu haben, in dem wir gegen Verschmutzung und globale Erwärmung ohnehin etwas unternehmen müssen. Allerdings könnte unsere Sichtweise die Bewertung unserer sonstigen Möglichkeiten zur Implementierung von Technologie im Zusammenhang mit Umweltproblemen (im weitesten Sinne) prägen.
## Gentechnik
......@@ -31,7 +31,7 @@ Natürlich haben Transgenetik und Gentechnik, sowohl kommerziell als auch wissen
Gentechnik ist bereits eine Realität, die den meisten Lesern unter dem Namen *GMO* (genetisch modifizierte Organismen) bekannt sein dürfte. Wenn wir von GMO sprechen, denken wir meist an modifiziertes Obst und Gemüse (deren genaueste Nomenklatur genetisch veränderte Nahrung lauten sollte), obwohl GMO viel mehr umfassen. Anstatt neue genetische Variablen von anderen Arten hinzuzufügen (es wäre z.B. nützlich, eine fluoreszierende Tomate im Dunkeln finden zu können, aber laut der wissenschaftlichen Gemeinschaft ist es immer noch nicht das Risiko wert, sie zu kosten), werden lediglich nur einige schwache Merkmale entfernt (z.B. die Tendenz zu einer zu schnellen Reifung). In jüngerer Zeit wurde bei gentechnisch veränderten Lebensmitteln auch die Einfügung von synthetischen Genen angewendet, aber selbst eine weniger invasive Art der Veränderung der Nahrung bedarf der Klärung verschiedener Fragen. Sollten beispielsweise diese neuen Varianten von Lebensmitteln den alten vorgezogen werden?
Genmanipulierte Nahrungsmittel, wie zum Beispiel Getreide, sind gegenüner der *altmodischen* Küche extrem aggressiv: es wird sich innerhalb einer relativ kurzen Zeit herausstellen, dass der Anbau zweier Getreidearten nebeneinander zu einem Angriff auf die biologische Variante durch die die genetisch veränderte Variante führt und dass dies mindestens zwei Probleme schafft. Auf der einen Seite muss Landwirten, die die biologischen Produkte erhalten wollen eine ausreichend große Pufferzone garantiert werden, aber wo soll dieses Ackerland sein? Auf wessen Acker? Auf der anderen Seite sollte uns dieses Bewusstsein dazu veranlassen, die weitreichende Frage nach den Risiken zu stellen, mit denen GMO verbunden sind. Diese lautet: werden uns letztendlich alle nicht gentechnisch veränderten Lebensmittel verloren gehen?
Genmanipulierte Nahrungsmittel, wie zum Beispiel Getreide, sind gegenüber der *altmodischen* Küche extrem aggressiv: es wird sich innerhalb einer relativ kurzen Zeit herausstellen, dass der Anbau zweier Getreidearten nebeneinander zu einem Angriff auf die biologische Variante durch die die genetisch veränderte Variante führt und dass dies mindestens zwei Probleme schafft. Auf der einen Seite muss Landwirten, die die biologischen Produkte erhalten wollen eine ausreichend große Pufferzone garantiert werden, aber wo soll dieses Ackerland sein? Auf wessen Acker? Auf der anderen Seite sollte uns dieses Bewusstsein dazu veranlassen, die weitreichende Frage nach den Risiken zu stellen, mit denen GMO verbunden sind. Diese lautet: werden uns letztendlich alle nicht gentechnisch veränderten Lebensmittel verloren gehen?
## Transgenetik als Chimäre
......@@ -83,4 +83,34 @@ Die Idee ist hier folgende: indem wir Sulfatpartikel in die Stratosphäre verspr
Die andere geotechnische Technologie, die wir betrachten sollten, ist die sogenannte *Entfernung von Kohlendioxid* (CDR, für Carbon Dioxide Removal).
Diese Technik zielt stattdessen auf die Entfernung der Treibhausgase aus der Atmosphäre mithilfe einer Reihe von Mitteln (von der direkten Luftansaugung bis hin zur Ozeandüngung durch die Züchtung bestimmter Algen). Der große Unterschied zwischen der Entfernung von Kohlendioxid und anderen Formen der Verschmutzungsprävention (wie die Entfernung von CO2 aus den Emissionen) liegt darin, dass mit ihr auch das bereits in der Atmosphäre befindliche Kohlendioxid bekämpft werden kann.
Diese kurze Reise können wir dank dieser Innovation mit zwei positiven Anmerkungen abschließen: die Verbindungen zwischen Technologie und verantwortungsvollen, ethischen Ansätzen sind nicht nur sehr zahlreich und notwendig. Wir haben vielleicht auch begonnen zu verstehen, wie wir diese nutzen können, um uns Grenzen zu setzen – anstatt noch mehr irgendetwas hinterherzujagen, was nicht notwendig ist.
\ No newline at end of file
Diese kurze Reise können wir dank dieser Innovation mit zwei positiven Anmerkungen abschließen: die Verbindungen zwischen Technologie und verantwortungsvollen, ethischen Ansätzen sind nicht nur sehr zahlreich und notwendig. Wir haben vielleicht auch begonnen zu verstehen, wie wir diese nutzen können, um uns Grenzen zu setzen – anstatt noch mehr irgendetwas hinterherzujagen, was nicht notwendig ist.
## Weiterführende Literatur
Brennan, A. & Y. S. Lo. 2016. Environmental Ethics *The Stanford Encyclopedia of Philosophy* <https://plato.stanford.edu/entries/ethics-environmental/>
Corner, A. & N. Pidgeon. 2014. Geoengineering, climate change scepticism and the ‘moral hazard’ argument: an experimental study of UK public perceptions *Phil. Trans. R. Soc.* A 372: 20140063 <https://doi.org/10.1098/rsta.2014.0063>
Garasic, M. D. & D. Sperling. 2015. Mitochondrial replacement therapy and parenthood *Global Bioethics* (26(3-4), pp. 198-205. <https://doi.org/10.1080/11287462.2015.1066082>
Palacios-González, C. 2015. Human dignity and the creation of human–nonhuman chimeras *Med Health Care* Philos 18(4), pp. 487–499. <https://doi.org/10.1007/s11019-015-9644-7>
Pasztor, J. & S. Sy. 2016. The Ethics and Governance of Geoengineering *Ethics Matter* <https://www.carnegiecouncil.org/studio/multimedia/20161212-the-ethics-and-governance-of-geoengineering>
## Dazugehörige Videos
Mirko Garasic - Engineering and Environment
<https://www.youtube.com/watch?v=QyhFV27g4IM>
Mirko Garasic - Environmental ethics
<https://www.youtube.com/watch?v=5xBzpL_UGas>
Aubrey de Grey - Life extension
<https://www.ted.com/talks/aubrey_de_grey_says_we_can_avoid_aging>
Playing God With the Planet: The Ethics & Politics of Geoengineering
<https://www.youtube.com/watch?v=sTwqJtPFizM>
## Dazugehörige Diskussion
Siehe auch die englische Diskussion zu diesem Kapitel unter <https://community.tuhh.de/t/3-chapter-what-kind-of-duties-do-we-have-towards-nature-and-why/547>.
......@@ -49,4 +49,25 @@ In rechtlicher Hinsicht hätte die Erschaffung einer solchen Technik direkte Aus
Ein noch aggressiverer Umgang mit dieser passiven Rolle des Individuums spiegelt sich in Erinnerungen wider. Es wurden bereits an einer Reihe von Gerichten auf der ganzen Welt MRT-Scans zur Extraktion von Erinnerungen zugelassen, die helfen können, empfindliche Informationen über einen Fall zu sammeln. Dies öffnet die Tür zu vielen ethischen Fragen in Bezug auf den Einsatz dieser Technologie. Sollten wir ihrer Verwendung Grenzen setzen?
Da ihre Genauigkeit ständig verbessert wird, werden wir bald in der Lage sein, das Gesicht einer dritten Person aus den Erinnerungen eines Angeklagten oder eines Gefangenen – oder sogar einer freien Person – zu extrahieren. Auch gegen ihren Willen. Sollten wir dies mit Wohlwollen als eine Möglichkeit zur unbedingten Gewährleistung der Wahrheit sehen oder sollten wir dem *Recht auf kognitive Freiheit* und den davon abgeleiteten Rechten gestatten, bestimmte Bereiche unseres Gehirns nur mit ausdrücklicher Erlaubnis zu betreten?
\ No newline at end of file
Da ihre Genauigkeit ständig verbessert wird, werden wir bald in der Lage sein, das Gesicht einer dritten Person aus den Erinnerungen eines Angeklagten oder eines Gefangenen – oder sogar einer freien Person – zu extrahieren. Auch gegen ihren Willen. Sollten wir dies mit Wohlwollen als eine Möglichkeit zur unbedingten Gewährleistung der Wahrheit sehen oder sollten wir dem *Recht auf kognitive Freiheit* und den davon abgeleiteten Rechten gestatten, bestimmte Bereiche unseres Gehirns nur mit ausdrücklicher Erlaubnis zu betreten?
## Weiterführende Literatur
De Caro, M. & A. Lavazza. 2014. Free Will as an Illusion: Ethical and Epistemological Consequences of an Alleged Revolutionary Truth *Social Epistemology Review and Reply Collective* 3(12), pp. 40-50. <https://social-epistemology.com/2014/11/03/free-will-as-an-illusion-ethical-and-epistemological-consequences-of-an-alleged-revolutionary-truth-mario-de-caro-and-andrea-lavazza/>
Ienca, M. & R. Andorno. 2017. Towards new human rights in the age of neuroscience and neurotechnology *Life Sciences, Society and Policy* 13(5) <https://doi.org/10.1186/s40504-017-0050-1>
Langleben, D. D. & J. Campbell Moriarty. 2013. Using Brain Imaging for Lie Detection: Where Science, Law and Research Policy Collide *Psychol Public Policy Law* 19(2), pp. 222-234. <https://dx.doi.org/10.1037/a0028841>
Santoni de Sio F., Faulmüller, N. & N. A. Vincent. 2014. How cognitive enhancement can change our duties *Front. Syst. Neurosci.* 8(131) <https://doi.org/10.3389/fnsys.2014.00131>
## Weiterführende Videos
Mirko Garasic - Neuroscience and the Law
<https://www.youtube.com/watch?v=FUZaVVJ_c1w>
## Weiterführende Diskussion
Siehe auch die englische Diskussion zu diesem Kapitel unter <https://community.tuhh.de/t/4-chapter-neuroscience-and-the-law/548>.
......@@ -14,13 +14,13 @@ In Anbetracht unserer Obsession von künstlichen Kreaturen dürfte es also nicht
### (2) Roboterethik
Bevor wir zur Roboterehtik kommen, zunächst ein Wort über die Klassifizierung von Robotertechnologie. Wie zu erwarten ist, gibt es viele Wege, Robotertechnologie zu klassifizieren. Hier ein Beispiel von Kopacek (2013):
Bevor wir zur Roboterethik kommen, zunächst ein Wort über die Klassifizierung von Robotertechnologie. Wie zu erwarten ist, gibt es viele Wege, Robotertechnologie zu klassifizieren. Hier ein Beispiel von Kopacek (2013):
Für dieses Kapitel soll allerdings eine simplere Klassifizierung dienen, die Roboter in industriell (was wir hier nicht thematisieren) und nicht-industriell unterteilt und darin weitere Unterkategorien stellt. Hier eine Visualisierung dieser einfachen Klassifizierung:
Dementsprechend kann Roboterethik also unterteilt werden in assistierende Roboterethik, militärische Roboterethik, usw.
Was ist also Roboterethik? Um dies zu beantworten, werfen wir zunächst einen Blick auf Ethik im Allgemeinen und gehen im Anschluss über zur Roboterethik. Obwohl in gewöhnlichen Kontexten Ethik und Moral austauschbar verwendet werden, ist es zumindest in der Pilosophie gebräuchlich, diese beiden zu unterscheiden. Moral bezieht sich auf die Sammlung von Normen und Werten, die Menschen halten, während Ethik die Erforschung von Moral und die Reflexion darüber darstellt. Einfach ausgedrückt bestimmt Ethik über richtigen und falschen Verhaltenskodex; also muss berücksichtigt werden, dass Ethik die Rechtfertigung unseres Kodexes betrifft. Das bedeutet, für oder gegen etwas Gründe vorzubringen. Also wenn wir z.B. sagen "Kinder zu schlagen ist falsch", geben wir ein normatives Urteil. Auf der anderen Seite ist es nicht genug, etwas als gut oder schlecht zu beurteilen. Wir müssen auch die Gründe (d.h. eine Rechtfertigung) angeben, aus denen wir den Verhaltenskodex als richtig oder falsch beurteilen[^3] .
Was ist also Roboterethik? Um dies zu beantworten, werfen wir zunächst einen Blick auf Ethik im Allgemeinen und gehen im Anschluss über zur Roboterethik. Obwohl in gewöhnlichen Kontexten Ethik und Moral austauschbar verwendet werden, ist es zumindest in der Philosophie gebräuchlich, diese beiden zu unterscheiden. Moral bezieht sich auf die Sammlung von Normen und Werten, die Menschen halten, während Ethik die Erforschung von Moral und die Reflexion darüber darstellt. Einfach ausgedrückt bestimmt Ethik über richtigen und falschen Verhaltenskodex; also muss berücksichtigt werden, dass Ethik die Rechtfertigung unseres Kodexes betrifft. Das bedeutet, für oder gegen etwas Gründe vorzubringen. Also wenn wir z.B. sagen "Kinder zu schlagen ist falsch", geben wir ein normatives Urteil. Auf der anderen Seite ist es nicht genug, etwas als gut oder schlecht zu beurteilen. Wir müssen auch die Gründe (d.h. eine Rechtfertigung) angeben, aus denen wir den Verhaltenskodex als richtig oder falsch beurteilen[^3] .
Im traditionellen Sinne hat Ethik mit dem eigentlichen Verhaltenskodex gegenüber anderen menschlichen und nicht-menschlichen Lebewesen zutun. Allerdings schließt Ethik heutzutage ebenso die Reflexion über richtiges und falsches Handeln bzgl. der Umwelt ein und umfasst nun auch die Reflexion darüber, wie wir unsere Roboter behandeln sollten. Auf das Verhalten zu den von uns geschaffenen Kreaturen kommen wir im letzten Abschnitt zurück. Zunächst widmen wir uns der Roboterethik.
......@@ -43,18 +43,18 @@ Zu guter Letzt stellt sich das Problem, dass die Asimovschen Gesetze in manchen
Es ist nicht überraschend, dass das Militär an vorderster Front steht, wenn es um Robotertechnologie geht. Militärroboter sind hier, um hier zu bleiben. Z.B. berichteten die New York Times 2005 von Plänen des Pentagons, Soldaten durch Roboter zu ersetzen und [nur fünf Länder unterstützten eine UN-Resolution zum Verbot von Killerrobotern](https://www.theverge.com/2014/5/16/5724538/what-happened-at-the-un-killer-robot-debate). Hier ist es wichtig, darauf hinzuweisen, dass vollautonome Waffen bereits existieren (in diesem Kontext bedeutet "autonom", dass der Roboter ohne menschliche Intervention über seine Aufgaben hinausgeht). Südkorea besitzt ein automatisches Maschinengewehr, [das ohne menschliche Befehle Ziele identifizieren und beschießen kann](http://www.dailymail.co.uk/sciencetech/article-2756847/Who-goes-Samsung-reveals-robot-sentry-set-eye-North-Korea.html). Ein weiteres Beispiel stammt aus Russland, wo das Militär autonome Panzer einsetzt, [um kritische Gebiete abzupatrouillieren](https://www.newscientist.com/article/mg22229664-400-armed-russian-robocops-to-defend-missile-bases/).
Nur zum Vergnügen, hier noch zwei weitere Beispiele: Dubai stellte neulich einen seiner neuen [Robo-Polizisten unter Beweis, die in naher Zukuft auf der Straße patrouillieren sollen](http://www.dailymail.co.uk/sciencetech/article-4530260/Real-life-Robocop-starts-work-Dubai-tomorrow-onward.html). Russland ist dabei, etwas Terminatorähnliches zu entwickeln, [das tatsächlich ein Gewehr bedienen kann (oder zwei, wenn nötig)!](https://www.popularmechanics.com/military/research/news/a26140/russia-robot-gunslinger/)
Nur zum Vergnügen, hier noch zwei weitere Beispiele: Dubai stellte neulich einen seiner neuen [Robo-Polizisten unter Beweis, die in naher Zukunft auf der Straße patrouillieren sollen](http://www.dailymail.co.uk/sciencetech/article-4530260/Real-life-Robocop-starts-work-Dubai-tomorrow-onward.html). Russland ist dabei, etwas Terminatorähnliches zu entwickeln, [das tatsächlich ein Gewehr bedienen kann (oder zwei, wenn nötig)!](https://www.popularmechanics.com/military/research/news/a26140/russia-robot-gunslinger/)
Trotz ihrer Fähigkeit, Menschen zu erschießen und trotz ihres gelegentlich einschüchternden Aussehens könnte die Anwendung von Militärrobotern einige nützliche Folgen haben, die die ethische Rechtfertigung ihres Einsatzes unterstützen. Z.B. können Militärroboter die Anzahl von Verletzten reduzieren, da weniger Menschen in den Krieg geschickt werden müssen. Natürlich lässt sich dieser Vorteil nur auf der Seite anwenden, die Militärroboter besitzt. Außerdem unterliegen Roboter nicht psychologischem Stress, wie es bei Menschen der Fall ist. In Anbetracht der Tatsache, dass viele Soldaten nach ihrer Rückkehr aus Kriegsgebieten an PTBS (Posttraumatische Belastungsstörung) leiden, scheint es eine gute Idee, diese Art von Leiden durch den Gebrauch von Robotern anstelle von Menschen zu reduzieren. Ein weiterer Vorteil ist, dass Roboter keinen Emotionen wie Wut nachgeben und, anders als menschliche Soldaten, blind den gegebenen Befehlen gehorchen.
Trotz dieser (potentiellen) Vorteile müssen einige wichtige ethische Aspekte angesprochen werden: Eine der drängenden Fragen ist, ob Militärroboter die Autorität innehaben sollten, auf Menschen zu schießen, ohne dass ein Mensch darüber informiert ist. Dies ist besonders relevant, weil wir die Fähigkeit der Roboter sicherstellen müssen, zwischen Streitkräften und Zivilisten zu unterscheiden. Weiterhin könnte die Verfügbarkeit von Militärrobotern die Schwelle zu bewaffneten Konflikten senken. Denn hat man eine Gruppe Roboter, die für die eigene Seite kämpfen und somit keine menschlichen Verluste entstehen lassen (!), könnte dies die Motivation für bewaffnete Konflikte erhöhen. Im Zusammenhang damit steht das Problem der möglichen Bequemlichkeit im Verwenden von Robotern, wodurch die Haltung gefördert wird, dass Militärroboter die "technische Standardlösung" für Probleme werden und andere, friedvollere Lösungen außer Sicht geraten. Außerdem stellt sich die Frage, wie die Verantwortung zu verteilen ist, v.a. wenn ein Militärroboter Menschen verletzt, die nicht verletzt werden sollten. Wie bestimmen wir, wer für das Verhalten von Militärrobotern verantwortlich ist, insbesondere wenn sie autonom sind? Diese Angelegenheit ist sehr komplex, da wir die Vielzahl der beteiligten Rollen berücksichtigen müssen: Die Schöpfer des Roboters (inkl. IT-Unternehmen, die die Software herstellen sowie andere Forschungsinstitutionen) oder das Militär (z.B. die Leute in der Befehlskette wie Kommandeure und Soldaten). Vielleicht könnten wir aber auch dem Roboter selbst die Verantwortklichkeiten zuschreiben? Natürlich ist es nicht überraschend, dass Philosophen einiges zu diesem Thema zu sagen haben. Manche Autoren haben dafür plädiert, dass es unmöglich ist, die Verantwortung irgendeiner dieser Rollen zuzuteilen, wenn es um Militärroboter geht (z.B. Sparrow 2007). Andere Autoren hingegen haben genau diesen Weg zur Zuteilung dieser Verantwortung vorgeschlagen (z.B. Schulzke 2013)[^4] .
Trotz dieser (potentiellen) Vorteile müssen einige wichtige ethische Aspekte angesprochen werden: Eine der drängenden Fragen ist, ob Militärroboter die Autorität innehaben sollten, auf Menschen zu schießen, ohne dass ein Mensch darüber informiert ist. Dies ist besonders relevant, weil wir die Fähigkeit der Roboter sicherstellen müssen, zwischen Streitkräften und Zivilisten zu unterscheiden. Weiterhin könnte die Verfügbarkeit von Militärrobotern die Schwelle zu bewaffneten Konflikten senken. Denn hat man eine Gruppe Roboter, die für die eigene Seite kämpfen und somit keine menschlichen Verluste entstehen lassen (!), könnte dies die Motivation für bewaffnete Konflikte erhöhen. Im Zusammenhang damit steht das Problem der möglichen Bequemlichkeit im Verwenden von Robotern, wodurch die Haltung gefördert wird, dass Militärroboter die "technische Standardlösung" für Probleme werden und andere, friedvollere Lösungen außer Sicht geraten. Außerdem stellt sich die Frage, wie die Verantwortung zu verteilen ist, v.a. wenn ein Militärroboter Menschen verletzt, die nicht verletzt werden sollten. Wie bestimmen wir, wer für das Verhalten von Militärrobotern verantwortlich ist, insbesondere wenn sie autonom sind? Diese Angelegenheit ist sehr komplex, da wir die Vielzahl der beteiligten Rollen berücksichtigen müssen: Die Schöpfer des Roboters (inkl. IT-Unternehmen, die die Software herstellen sowie andere Forschungsinstitutionen) oder das Militär (z.B. die Leute in der Befehlskette wie Kommandeure und Soldaten). Vielleicht könnten wir aber auch dem Roboter selbst die Verantwortlichkeiten zuschreiben? Natürlich ist es nicht überraschend, dass Philosophen einiges zu diesem Thema zu sagen haben. Manche Autoren haben dafür plädiert, dass es unmöglich ist, die Verantwortung irgendeiner dieser Rollen zuzuteilen, wenn es um Militärroboter geht (z.B. Sparrow 2007). Andere Autoren hingegen haben genau diesen Weg zur Zuteilung dieser Verantwortung vorgeschlagen (z.B. Schulzke 2013)[^4] .
## Begleitroboter
Nach dem eher trostlosen Thema der Killermaschinen können wir uns nun den erbaulicheren Maschinen widmen: Begleitroboter. Normalerweise dienen diese Roboter irgendeiner Art von Interaktion, wie z.B. Sprache oder Gestik. Kurz gesagt sind Begleitroboter Roboter, die – wie der Name schon vermuten lässt – Leuten zuhause, auf der Arbeit, im Krankenhaus oder Altenheim Gesellschaft leisten. Das klassische Beispiel ist hier Paro, die flauschige Roboterrobbe, die in Altenheimen zur kognitiven Stimulierung oder Beruhigung demenzkranker Personen genutzt wird. Zwei neuere Begleitroboter sind Kuri und Buddy. Diese beiden sollen eine Allround-Begleitung darstellen, die Musik abspielen, an Aufgaben und Pflichten erinnern sowie [mit der eingebauten Kamera zu bestimmten Orten im Haus gechickt werden können, um dort etwas zu überprüfen](https://www.wired.com/story/companion-robots-are-here/).
Nach dem eher trostlosen Thema der Killermaschinen können wir uns nun den erbaulicheren Maschinen widmen: Begleitroboter. Normalerweise dienen diese Roboter irgendeiner Art von Interaktion, wie z.B. Sprache oder Gestik. Kurz gesagt sind Begleitroboter Roboter, die – wie der Name schon vermuten lässt – Leuten zuhause, auf der Arbeit, im Krankenhaus oder Altenheim Gesellschaft leisten. Das klassische Beispiel ist hier Paro, die flauschige Roboterrobbe, die in Altenheimen zur kognitiven Stimulierung oder Beruhigung demenzkranker Personen genutzt wird. Zwei neuere Begleitroboter sind Kuri und Buddy. Diese beiden sollen eine Allround-Begleitung darstellen, die Musik abspielen, an Aufgaben und Pflichten erinnern sowie [mit der eingebauten Kamera zu bestimmten Orten im Haus geschickt werden können, um dort etwas zu überprüfen](https://www.wired.com/story/companion-robots-are-here/).
Es gibt ein paar Dinge, die für Begleitroboter sprechen. Einige Hinweise liegen dafür vor, dass Begleitroboter die Interaktion und Kommunikation autistischer Kinder erhöhen (Scassellati, Admoni, Matarić 2012). Darüber hinaus können Begleitroboter auch die Einsamkeit mancher Menschen lindern, insbesondere wenn sie älter oder sozial isoliert sind (Bemelmans et al. 2012). Dennoch sollten uns die süßen und knuddeligen Begleitroboter nicht über die ethischen Probleme hinwegsehen lassen. Eins darunter betrifft Sympathie und Täuschung: Sollten wir wirklich Dinge schaffen, die für die Seite der Nutzenden ein hohes Sympathie-Potential besitzen, wobei diese Sympathie letztlich auf Täuschung hinausläuft? Schließlich gibt der Roboter vor etwas zu sein, was er nicht ist: ein Freund oder Begleiter. In anderen Worten: Machen die möglichen Vorteile des Begleitroboters die Kosten der Tatsache wieder wett, dass besagte Vorteile durch die Täuschung eines Menschens erreicht werden und ihn an eine gegenseitige Beziehung glauben lassen (Sparrow & Sparrow 2006)? Eine weitere ethisch relevante Angelegenheit ist der Datenschutz, da Menschen mit Begleitrobotern in intimen Rahmen, wie z.B. deren Zuhause, interagieren und kommunizieren. Die dort gewonnene Information sollte geschützt und sicher aufbewahrt werden, sodass sie unberechtigten Dritten nicht zugänglich ist. Es ist auch lohnenswert, über das Eigentumsrecht der in privaten Kontexten gewonnenen Daten nachzudenken. Sollte dieses Eigentumsrecht bei der Person verbleiben, die mit dem Begleitroboter interagiert oder ist es legitim, es dem Unternehmen zuzugestehen, das den Roboter hergestellt hat? (Eine ähnliche Frage kann bei anderen Technologien ebenfalls aufkommen. Hier ist z.B. an Geräte oder Services wie Amazons Alexa oder Microsofts Cortana zu denken).
Es gibt ein paar Dinge, die für Begleitroboter sprechen. Einige Hinweise liegen dafür vor, dass Begleitroboter die Interaktion und Kommunikation autistischer Kinder erhöhen (Scassellati, Admoni, Matarić 2012). Darüber hinaus können Begleitroboter auch die Einsamkeit mancher Menschen lindern, insbesondere wenn sie älter oder sozial isoliert sind (Bemelmans et al. 2012). Dennoch sollten uns die süßen und knuddeligen Begleitroboter nicht über die ethischen Probleme hinwegsehen lassen. Eins darunter betrifft Sympathie und Täuschung: Sollten wir wirklich Dinge schaffen, die für die Seite der Nutzenden ein hohes Sympathie-Potential besitzen, wobei diese Sympathie letztlich auf Täuschung hinausläuft? Schließlich gibt der Roboter vor etwas zu sein, was er nicht ist: ein Freund oder Begleiter. In anderen Worten: Machen die möglichen Vorteile des Begleitroboters die Kosten der Tatsache wieder wett, dass besagte Vorteile durch die Täuschung eines Menschen erreicht werden und ihn an eine gegenseitige Beziehung glauben lassen (Sparrow & Sparrow 2006)? Eine weitere ethisch relevante Angelegenheit ist der Datenschutz, da Menschen mit Begleitrobotern in intimen Rahmen, wie z.B. deren Zuhause, interagieren und kommunizieren. Die dort gewonnene Information sollte geschützt und sicher aufbewahrt werden, sodass sie unberechtigten Dritten nicht zugänglich ist. Es ist auch lohnenswert, über das Eigentumsrecht der in privaten Kontexten gewonnenen Daten nachzudenken. Sollte dieses Eigentumsrecht bei der Person verbleiben, die mit dem Begleitroboter interagiert oder ist es legitim, es dem Unternehmen zuzugestehen, das den Roboter hergestellt hat? (Eine ähnliche Frage kann bei anderen Technologien ebenfalls aufkommen. Hier ist z.B. an Geräte oder Services wie Amazons Alexa oder Microsofts Cortana zu denken).
Ein anderes ethisches Problem betrifft das Autoritäts- und Autonomielevel, das wir den Begleitrobotern geben. Soll ein Begleitroboter, der mit der Begleitung eines kleinen Kindes beauftragt ist, einschreiten können, wenn das Kind etwas Unerlaubtes tut und beispielsweise Süßigkeiten isst?
Einige dieser oben angesprochenen Aspekte treffen auch auf Roboterassistenten zu, auf die wir im Folgenden zu sprechen kommen.
......@@ -119,4 +119,4 @@ Tzaphestas, S. G. (2016). Roboethics: a navigating overview. Springer.
## Dazugehörige Videos
Dr. Steffen Steinert - Roomba, Drones and Terminator - The ethical implications of robotic technology
https://www.youtube.com/watch?v=5tTEEGRAHsI&t=11s
\ No newline at end of file
https://www.youtube.com/watch?v=5tTEEGRAHsI&t=11s
This diff is collapsed.
\newpage
# Imprint
# Impressum
\footnotesize
This work "Ethics and Technology: Some Issues - A Booklet" is part of tekethics, a project of Hamburg Open Online University (HOOU) and Hamburg University of Technology. It was created by Dr. Mirko Garasic, Dr. Steffen Steinert, Dr. Tina Ladwig, Axel Dürkop and Michael Heinemann. The website of the main project **tekethics** can be found at <https://tekethics.rz.tuhh.de/>
Dieses Werk "Ethics and Technology: Some Issues - A Booklet" in der deutschen Übersetzung ist Teil von tekethics, einem Projekt der Hamburg Open Online University (HOOU) und der Technischen Universität Hamburg. Es wurde entwickelt von Dr. Mirko Garasic, Dr. Steffen Steinert, Dr. Tina Ladwig, Axel Dürkop und Michael Heinemann.
Die Website des Projekts **tekethics** ist zu finden unter <https://tekethics.rz.tuhh.de/>.
Dieses Booklet wurde erstellt durch eine Sammlung vorzüglicher freier und quelloffener Software. Wir verwenden Atom/MS Visual Studio Code und Markdown, um den Text zu schreiben, Pandoc und \LaTeX, um das PDF zu erzeugen, sowie GitLab und Docker, um das Ganze kontinuierlich online zusammenzubauen. Vielen Dank den Communitys, die diese Tools entwickeln und am Leben erhalten. Das Booklet ist eine Open Educational Resource (OER) und kann geforkt, geremixt und weitergegeben werden unter <https://collaborating.tuhh.de/hoou/tekethics-booklet>.
This booklet was generated using a stack of fine free and open source software. We use Atom and Markdown to write the text, Pandoc and \LaTeX\ to render the PDF, and GitLab as well as Docker to build the whole thing continuously online. Thanks to the communities that keep these tools up and running. The booklet is an Open Educational Resource (OER) and can be forked, remixed and redistributed at <https://collaborating.tuhh.de/hoou/tekethics-booklet>.
You will find a documentation of the production process of this booklet at <https://collaborating.tuhh.de/hoou/tekethics-booklet/wikis/How-We-Did-It>.
Eine Dokumentation des Produktionsprozesses dieses Booklets ist zu finden unter <https://collaborating.tuhh.de/hoou/tekethics-booklet/wikis/How-We-Did-It>.
\includegraphics[width=1.5cm]{./assets/OER_Logo.pdf}
\tiny OER Logo by Jonathasmello CC BY 3.0
Markdown is supported
0% or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment