Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Roboter als moralische Akteure? Kleine Einführung in die Roboterethik

Ähnliche Präsentationen


Präsentation zum Thema: "Roboter als moralische Akteure? Kleine Einführung in die Roboterethik"—  Präsentation transkript:

1 Roboter als moralische Akteure? Kleine Einführung in die Roboterethik
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie Roboter als moralische Akteure? Kleine Einführung in die Roboterethik vhs.Webinar Volkshochschule Böblingen-Sindelfingen Live-Online-Veranstaltung, 4. Dezember 2017

2 Agenda: Präludium – Warum überhaupt Roboterethik?
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie Agenda: Präludium – Warum überhaupt Roboterethik? Was ist Roboterethik? 2.1 Roboter als moral patients bzw. Wertträger 2.2 Roboter als moral agents bzw. Handlungssubjekte 2.3 Moral implementieren – drei Ansätze Roboter als moral agents bzw. Handlungssubjekte Roboter als moral patients bzw. Wertträger Fazit

3 1. Präludium – Warum überhaupt Roboterethik?
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 1. Präludium – Warum überhaupt Roboterethik? Überall wo Menschen sind, gibt es Werte – der Mensch ist ein wertendes Wesen. Die Ethik fragt danach, was das gute Leben ist und wie Menschen miteinander umgehen und welche Werte hier eine Rolle spielen sollten. Es gibt Bereichsethiken für… a) den Umgang mit nicht-menschlichen Wesen – mit Tieren (Tierethik) sowie mit Pflanzen (Pflanzenethik) und der Umwelt (Umweltethik). b) spezifische Bereiche des menschlichen Lebens – in der Medizin (Medizinethik), in der internationalen Politik (z.B. Ethik des Krieges, Ethik humanitärer Interventionen). Eine verhältnismäßig junge Bereichsethik für den Umgang mit artifiziellen Systemen – also aus dem Bereich a) – ist die Roboterethik.

4 1. Präludium – Warum überhaupt Roboterethik?
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 1. Präludium – Warum überhaupt Roboterethik? Es gibt drei große Ethiktraditionen: Tugendethik: Der moralische Wert einer Handlung wird über den Charakter eine Person ermittelt – Aristoteles. Deontologische Ethik (griech. deon, das Gesollte, die Pflicht): Der moralische Wert einer Handlung wird über die Intention der bzw. des Handelnden ermittelt – Immanuel Kant. Konsequentialismus: Der moralische Wert einer Handlung wird über die Konsequenzen der Handlung ermittelt; Utilitarismus (lat. utilitas, der Nutzen) – Jeremy Bentham.

5 2. Was ist Roboterethik? Definition – grundlegende Begriffe
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? Definition – grundlegende Begriffe  Janina Loh (2016): „Roboterethik“. In: Matthias Maring (Hrsg.) (2016): Zur Zukunft der Bereichsethiken – Herausforderungen durch die Ökonomisierung der Welt. KIT Scientific Publishing: Karlsruhe, S Der Begriff „Roboter“ stammt von tschechisch „robota“ (Arbeit, Frondienst, Zwangsarbeit); „robot“ durch Künstler Josef Čapek geprägt (1920); bei Karel Čapek in Theaterstück Rossum‘s Universal Robots (1921) für humanoide Apparaturen, die Arbeit für Menschen übernehmen. Catrin Misselhorn: Roboter bestehen aus einer Einwicklungseinheit (einem Prozessor), aus Sensoren, die Daten oder Informationen über die Welt sammeln und aus einem Effektor oder Aktor (als Gegenstück zu den Sensoren), die Signale in zumeist mechanische Abläufe umsetzen. Das Verhalten eines Roboters ist oder wirkt zumindest bis zu einem gewissen Grad autonom. Roboter können in einer Weise auf die Umgebung Einfluss nehmen und in sie hinein wirken, in der Computer nicht in der Lage sind.

6 2. Was ist Roboterethik? Definition – grundlegende Begriffe
Dr. Janina Sombetzki Kontakt und Informationen: Universitätsassistentin Technik- und Medienphilosophie 2. Was ist Roboterethik? Definition – grundlegende Begriffe Im Folgenden gebrauche ich die Begriffe „Roboter“ und „artifizielles System“ synonym. Neben der Roboter- gibt es auch noch die allgemeinere Maschinenethik (vgl. O. Bendel). Weitere Verwandte und Bekannte des Roboters, die auch in der Roboterethik auftauchen: Mechanismen: äußere Energiezufuhr Maschinen: durch Antriebssystem bewegt Automaten: keine äußere Energiezufuhr mehr Computer: agiert nicht in die Umgebung hinein (vgl. Misselhorn) Soziale Medien: digitale Kommunikationsmedien und -technologien Software: Sammelbegriff für Programme und Daten, Komplement zu „Hardware“ Algorithmen: computationale und sprachliche Handlungsvorschriften

7 2. Was ist Roboterethik? Zwei Arbeitsfelder
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? Zwei Arbeitsfelder 2.1 Roboter als „moral patients“: passive Träger moralischer Rechte, Wertträger; „entities that can be acted upon for good or evil“ (Floridi & Sanders 2004, 349). 2.2 Roboter als „moral agents“: aktive Träger moralischer Pflichten, moralische Handlungssubjekte; „entities that can perform actions“ (ebd.)  diese Gruppe ist gegenüber der Gruppe der moral patients exklusiver.

8 2. Was ist Roboterethik? Zwei Arbeitsfelder
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? Zwei Arbeitsfelder 2.1 Roboter als moral patients bzw. Wertträger Artifizielle Systeme als Werkzeuge oder Ergänzungen des Menschen Fragen, die den Umgang mit Robotern betreffen Ethikkodizes in Unternehmen für den Umgang mit Robotern Beziehungen mit und zu Robotern „Versklavung“ von Robotern Einsatz von Robotern zu Therapiezwecken

9 2. Was ist Roboterethik? Zwei Arbeitsfelder
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? Zwei Arbeitsfelder 2.1 Roboter als moral patients bzw. Wertträger Innerhalb dieses Arbeitsbereichs verbleibt die moralische Kompetenz bei den menschlichen Nutzer*innen und Kompetenzkompetenz bei den menschlichen Designer*innen artifizieller Systeme. Die menschlichen ‚Eltern‘ entscheiden über die Moral ihrer Geschöpfe und darüber, wer im Falle eines Unfalls Verantwortung trägt. Sicher ist, dass den Robotern keinerlei oder zumindest nur wenig Moralfähigkeit zuzuschreiben ist, da es ihnen an den Kompetenzen mangelt, die als Bedingung für die Möglichkeit einer Zuschreibung von Moralität gelten.

10 2. Was ist Roboterethik? Zwei Arbeitsfelder
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? Zwei Arbeitsfelder 2.2 Roboter als moral agents bzw. Handlungssubjekte Inwiefern sind Roboter zu moralischem Handeln in der Lage? Inwiefern sind sie als eigenständige Akteure vorstellbar? Über welche Kompetenzen müssen sie dafür in welchem Maße verfügen? Freiheit als Bedingung für moralisches Handeln Kognition (Denken, Verstehen, Geist, Intelligenz, Bewusstsein, Wahrnehmung, Kommunikation) als Bedingung für moralisches Handeln Emotionen und Empathie als Bedingung für moralisches Handeln

11 2. Was ist Roboterethik? Zwei Arbeitsfelder
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? Zwei Arbeitsfelder 2.2 Roboter als moral agents bzw. Handlungssubjekte Wendell Wallach und Colin Allen schlagen in ihrem Werk Moral Machines. Teaching Robots Right from Wrong (2009) vor, allen Wesen Moralfähigkeit zuzuschreiben, die in Situationen geraten, in denen moralische Entscheidungen zu treffen sind. Sie beschreiben den Fall von „‚driverless‘ train systems“, in denen in London, Paris und Kopenhagen bereits seit Mitte der 1960er Jahre Menschen nur als Fahrgäste anzutreffen sind. Eine moralische Entscheidung wird bereits dann gefällt, wenn sich auf den Gleisen Menschen befinden, die der Zug zu überrollen droht. Der Zug ‚urteilt‘ (wenn auch natürlich nicht wie ein Mensch), indem er dazu programmiert ist, immer dann unverzüglich zu stoppen, wenn sich Menschen auf den Gleisen aufhalten, selbst wenn damit ggf. Unfälle im Zuginnern in Kauf genommen werden müssen.

12 2.3 Moral implementieren – drei Ansätze
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 2. Was ist Roboterethik? 2.3 Moral implementieren – drei Ansätze Top-Down-Ansätze: Implementierung einer Reihe ethischer Prinzipien oder Regeln, nach denen sich der Roboter in einer fraglichen Situation richtet; bspw. die Asimovschen Robotergesetze, die Zehn Gebote, der Kategorische Imperativ. Bottom-Up-Ansätze: auf der Grundlage von Lernalgorithmen/evolutionären Algorithmen; Evolutionsmodelle und Modelle menschlicher Sozialisation; Implementierung von Kompetenzen, aus denen selbständig – bspw. durch Trial and Error – konkrete Handlungsanweisungen und Prinzipien abgeleitet werden; moralisches Lernen. Hybride Ansätze: Kombination beider Ansätze, indem ein ethischer Rahmen basaler Werte vorgegeben wird, der dann durch Lernprozesse an spezifische Kontexte angepasst und verfeinert wird.

13 3. Roboter als moral agents bzw. Handlungssubjekte
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte Häufig wird die Möglichkeit einer Moralfähigkeit von artifiziellen Systemen mit dem Verweis auf die Kompetenzen als Bedingung für die Zuschreibung von Moralität bestritten, die bei den fraglichen Maschinen nicht vorlägen: Roboter würden ganz einfach nicht über die Fähigkeiten verfügen, die für moralisches Handeln eine Rolle spielen. Wallach und Allen stellen die Frage, inwiefern Roboter als artifizielle moralische Akteure zu verstehen sind und definieren moral agency als graduell zuschreibbares Konzept mit zwei Bedingungen, nämlich Autonomie und Empfänglichkeit bzw. Empfindlichkeit für moralische Werte (sensitivity to values).

14 3. Roboter als moral agents bzw. Handlungssubjekte
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte Menschen gelten als moralische Akteure im genuinen Sinne. Allerdings sind einige Maschinen – bspw. ein Autopilot, oder das artifizielle System Kismet – operationale moralische Akteure zu nennen. Sie sind autonomer und ethisch empfänglicher als andere nicht-mechanisches Werkzeuge wie z. B. ein Hammer, und dennoch verbleiben sie immer noch „totally within the control of [the] tool’s designers and users” (Wallach & Allen 2009, 26). In diesem Sinne sind operationale moralische Akteure „direct extensions of their designers’ values” (Wallach & Allen, 30). Nur besondere artifizielle Systeme haben bereits den Status funktionaler moralischer Akteursfähigkeit – so wie bspw. das medizinische ethische Expertensystem MedEthEx. Sie verfügen (wenn auch begrenzt) über Lernfähigkeit.

15 3. Roboter als moral agents bzw. Handlungssubjekte
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte Funktionale Moralität bedeutet, dass das fragliche artifizielle System insofern entweder autonomer und/oder Werte-sensitiver ist als ein operationaler moralischer artifizieller Akteur, als funktionale moralische Maschinen „themselves have the capacity for assessing and responding to moral challenges” (Wallach & Allen 2009, 9). „Just as a computer system can represent emotions without having emotions, computer systems may be capable of functioning as if they understand the meaning of symbols without actually having what one would consider to be human understanding.” (Wallach & Allen 2009, 69) Wallach & Allen 2009, S. 26

16 3. Roboter als moral agents bzw. Handlungssubjekte
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte Schwache KI: Mit ihrem Ansatz funktionaler Äquivalenz beschreiben Wallach und Allen eine Version der schwachen KI-These, der an der Simulation spezifischer Kompetenzen in artifiziellen Systemen gelegen ist und nicht daran, Maschinen tatsächlich im genuinen Sinne des Wortes mit Intelligenz, Bewusstsein und Autonomie zu konstruieren (starke KI). Funktionalismus: Wallach und Allen zufolge stellt eine Annahme starker KI und der daran geknüpften Kompetenzen keine notwendige Bedingung für artifizielle moralische Akteure dar, sondern sie fokussieren die Zuschreibung von funktional äquivalenten Bedingungen und Verhaltensweisen. Funktionale Äquivalenz: bedeutet, dass spezifische Phänomene verstanden werden, „als ob“ sie kognitiven, emotionalen oder anderen Kompetenzen und Fähigkeiten entsprechen.

17 3. Roboter als moral agents bzw. Handlungssubjekte Beispiel Kismet
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte Beispiel Kismet Ethische Sensitivität: sehr begrenzt vorliegend, da nur Reaktion auf sehr einfache Fragen. Autonomie: sehr begrenztes Wissen, Historizität, Personalität und Einflussmöglichkeit, keine Lernfähigkeit.  Fazit: Kismet ist immer noch vollständig in der Kontrolle seiner Designer*innen und Nutzer*innen; kein artifizielles Lernen. Kismet ist ein operationaler moral agent.

18 3. Roboter als moral agents bzw. Handlungssubjekte
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte Beispiel MedEthEx (medizinisch-ethisches Expertensystem) Ethische Sensitivität: deutlich gesteigert, da gefüttert mit zahlreichen Patient*innendaten. Autonomie: deutlich gesteigert, da Lernen durch Erfahrung.  Fazit: MedEthEx untersteht nicht mehr vollständig der Kontrolle seiner Designer*innen und Nutzer*innen. MedEthEx ist ein (schwach) funktionaler moral agent.

19 3. Roboter als moral agents bzw. Handlungssubjekte – Fazit
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte – Fazit Artifizielle Moralfähigkeit ist bislang nur in begrenztem Maße möglich. Die besten Aussichten gewähren evolutionäre Lernmodelle; maschinelles Lernen wird hier äquivalent zum kindlichen Lernen untersucht. Diese Ansätze beruhen auf einer meta-ethischen Annahme über die Kontextsensitivität von Moral: Moralisches Handeln bedarf der Erfahrung und eines situativen Urteilsvermögens. Beides kann sich ein artifizielles System nur verkörpert aneignen. In den 1990er Jahren war es u.a. Brooks, der als einer der ersten das Zusammenwirken von artifiziellem System und Umwelt als Bedingung für die Entwicklung von Vermögen betrachtete und von dieser Annahme ausgehend das Feld der „behavior-based robotics“ begründete.

20 3. Roboter als moral agents bzw. Handlungssubjekte – Fazit
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 3. Roboter als moral agents bzw. Handlungssubjekte – Fazit Zahlreiche Projekte, die sich an dem Ansatz verkörperten menschlichen Lernens orientieren – wie bspw. die Lernplattformen iCub, Myon, Cb2, Curi, Roboy (die im Detail unterschiedlichen evolutionsbasierten Ansätze folgen) –, entwickeln Systeme, die sich ähnlich Kindern Kompetenzen aneignen, aus denen sie dann in spezifischen Kontexten konkrete Handlungsprinzipien ableiten. Bislang ist maschinelles Lernen jedoch nur in nicht moralischen bzw. schwach moralischen Kontexten möglich.

21 4. Roboter als moral patients bzw. Wertträger
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger Zusammenfassung: In Teil 3 dieses Vortrags wurde mit Hilfe von Wallachs und Allens Ansatz funktionaler Äquivalenz festgestellt, dass artifizielle Systeme bislang und in absehbarer Zukunft nicht als moral agents in einem starken (= funktional äquivalenten) Sinne zu identifizieren sind, insofern die zur Moralfähigkeit nötigen Kompetenzen (Autonomie und ethische Sensitivität) nur in einem schwach funktionalen oder gar nur in einem operationalen Sinne äquivalent simuliert werden können. Da wir Roboter gegenwärtig nicht im exklusiven Kreis der moral agents antreffen, sollen nun ein paar abschließende Überlegungen dazu angestellt werden, welche Rolle ihnen als moral patients – als Wertträgern – zuzugestehen ist.

22 4. Roboter als moral patients bzw. Wertträger
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger Was für Werte gibt es? Philosoph*innen unterscheiden für gewöhnlich zwischen instrumentellen und intrinsischen Werten. Ein instrumenteller Wert hat etwas für etwas anderes. Bspw. sprechen wir der Umwelt einen instrumentellen Wert zu, wenn sie der Erquickung und Freude des Menschen dient. Das Auto hat einen instrumentellen Wert für den Menschen, wie Technik für gewöhnlich insgesamt. Ein intrinsischer Wert ist ein Eigenwert, der unter der Perspektive des Anthropozentrismus nur dem Menschen zukommt. Laut dem Anthropozentrismus hat alles andere nur einen für den Menschen instrumentellen Wert. Unter der Perspektive des Biozentrismus aber kommt bspw. auch der Umwelt ein Eigenwert zu, den sie unabhängig vom Menschen innehat. Roboter als Wertträger: Es kommt also auf die Perspektive an, welchen Wert man Robotern zuschreiben möchte. Obwohl die Zuschreibung eines instrumentellen Wertes vielleicht der einfachste Weg ist, lässt sich immer noch darüber streiten, wie hoch dieser instrumentelle Wert im Vergleich mit anderen instrumentellen Werten ist.

23 4. Roboter als moral patients bzw. Wertträger
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger Anthropozentrische Zuschreibung eines instrumentellen Werts: Kate Darling setzt sich für Roboterrechte ein, da der Umgang des Menschen mit artifiziellen Systemen auf den Menschen zurückwirke – eine moralisch verwerfliche Behandlung von Robotern führe auf Dauer zu einer moralischen Verrohung des Menschen (vgl. Immanuel Kant, § 17 des zweiten Teils seiner Metaphy­sik der Sitten). Dem Ansatz von Kate Darling folgend könnte nun gesagt werden, dass wir (einigen) Robotern zumindest einen hohen instrumentellen Wert zuschreiben. Der jeweilige instrumentelle Wert könnte davon abhängig gemacht werden, welche Funktion ein spezifisches artifizielles System jeweils für den Menschen übernimmt.

24 4. Roboter als moral patients bzw. Wertträger
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger Beispiel Segensroboter BlessU-2 BlessU-2 kann sicherlich theoretisch einen gewissen Wert für die eine oder den anderen Menschen haben und es ist nicht per se ausgeschlossen, dass manch eine*r eine besondere Bindung zu BlessU-2 aufbaut. Allerdings ist BlessU-2 Handlungsspielraum und Einsatzbereich auf Segnungen und den Kontext Kirche eingeschränkt.

25 4. Roboter als moral patients bzw. Wertträger
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger Beispiel Roboterrobbe Paro Paro kann insbesondere für unsere älteren und ältesten Bürger*innen einen hohen Wert haben; bspw. in Fällen von Alterseinsamkeit und an Demenz erkrankten Menschen. Paros Einsatzbereich ist – obwohl er nicht ‚mehr‘ kann als BlessU-2 (also einen ähnlich großen Handlungsspielraum hat) – sehr viel weiter und auf den intimen und Nahbereich des Menschen ausgedehnt.

26 4. Roboter als moral patients bzw. Wertträger – Fazit
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger – Fazit Vorteil Anthropozentrismus: Unter einer anthropozentrischen Perspektive, wie sie auch Kate Darling unter Rekurs auf Immanuel Kant zu vertreten scheint, ist es leicht, artifiziellen Systemen einen immerhin instrumentellen Wert für den Menschen zuzuschreiben. Nachteil Anthropozentrismus: Es mag allerdings eine gewisse Herausforderung sein (wenn nicht gar unmöglich), den spezifischen instrumentellen Wert eines jeweiligen Roboters zu bemessen (ebenso wie es schwierig erscheinen mag, zu bemessen, ob eine Blume oder ein Strauch einen höheren Wert hat).

27 4. Roboter als moral patients bzw. Wertträger – Fazit
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 4. Roboter als moral patients bzw. Wertträger – Fazit Ein anderer Ismus? Vielleicht wollen wir (manchen) artifiziellen Systemen auch einen Eigenwert zuschreiben? Schließlich gibt es auch Menschen, die (einigen) Tieren (Pathozentrismus) oder der Umwelt (Biozentrismus) einen Eigenwert zuschreiben, der ihnen unabhängig vom Menschen zukommt. Vorschlag Mathenozentrismus: Der Einbezug von artifiziellen Systemen in den Horizont der mit einem Eigenwert ausgestatteten Dinge könnte vielleicht eine weitere Perspektive eröffnen, einen „Mathenozentrismus“ (von griech. „matheno“, „lernen“) etwa, der all das mit einem Eigenwert bemisst, das in einer spezifischen Weise gesteuert oder programmiert bzw. lernfähig ist.

28 Dr. Janina Loh. Kontakt und Informationen:
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 5. Fazit Teil 1: Die Roboterethik ist eine Bereichsethik, die sich mit dem maschinellen Gegenüber des Menschen befasst. Teil 2: Die Roboterethik gliedert sich in zwei Arbeitsbereiche, nämlich in den Bereich, in dem es darum geht, inwiefern Roboter moral patients/Wertträger sein können (2.1) sowie in den Bereich, in dem es darum geht, inwiefern Roboter moral agents/Handlungssubjekte sein können (2.2). Moral kann dabei top down, bottom up oder in Form hybrider Ansätze implementiert werden (2.3).

29 Dr. Janina Loh. Kontakt und Informationen:
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie 5. Fazit Teil 3: Unter Rekurs auf den Ansatz funktionaler Äquivalenz von Wallach und Allen können Roboter als operationale oder funktionale moral agents verstanden werden – abhängig davon, wie hoch ihre jeweilige Autonomie und ethische Werte-Sensitivität eingeschätzt wird bzw. abhängig von ihrer jeweiligen Lernfähigkeit. Teil 4: Unter Rekurs auf den Ansatz von Kate Darling (eine anthropozentrische Position) kann Robotern ein instrumenteller Wert zugeschrieben werden – abhängig von der Rolle, die sie jeweils für den Menschen spielen.

30 Herzlichen Dank für Ihre Aufmerksamkeit
Dr. Janina Loh Kontakt und Informationen: Universitätsassistentin (Post Doc) Technik- und Medienphilosophie Herzlichen Dank für Ihre Aufmerksamkeit


Herunterladen ppt "Roboter als moralische Akteure? Kleine Einführung in die Roboterethik"

Ähnliche Präsentationen


Google-Anzeigen