Die E-Books des Reclam Verlags verwenden entsprechend der jeweiligen Buchausgabe Sperrungen zur Hervorhebung von Textpassagen. Diese Textauszeichnung wird nicht von allen Readern unterstützt.
Enthält das E-Book in eckigen Klammern beigefügte Seitenzählungen, so verweisen diese auf die Printausgabe des Werkes.
Robota bedeutet auf Tschechisch ›Arbeit, Frondienst, Zwangsarbeit‹.
Es handelt sich um das Theaterstück R. U. R. (Rossumovi Univerzální Roboti). R. U. R. ist dabei der Name einer Firma, die Androiden herstellt (es gibt eine Übersetzung von Joachim Mols).
Im Zuge dieser Entwicklung entstanden die beiden maßgeblichen englischen Werke zur Maschinenethik, eine Monografie von Wallach/Allen (2009) sowie ein Sammelband von Anderson/Anderson (2011a); im deutschsprachigen Raum erscheint 2018 ein Handbuch Maschinenethik mit einführenden Artikeln verschiedener Autoren, siehe Bendel (2018), darin auch Misselhorn (2018a) und (2018b).
Vgl. Bendel (2017).
Während in diesem Fall das Kind nicht gerettet werden konnte, gelang dies im Jahr 2008 in einer ähnlich gelagerten Situation. Weltweit soll es nach Angaben aus dem Jahr 2009 weniger als 30 ähnliche Fälle geben, vgl. Focus Online (2009).
Vgl. Silver/Schrittwieser/Simonyan [u. a.] (2017).
Vgl. Silver/Hubert/Schrittwieser [u. a.] (2017).
Vgl. Future of Life Institute (2015a).
Im Unterschied zum alltäglichen Sprachgebrauch, in dem beide Begriffe zumeist gleichgesetzt werden, verwende ich den Begriff der Künstlichen Intelligenz im Folgenden, wenn ich von der Sache als solcher spreche, und KI, wenn es um die Disziplin geht.
Vgl. Gardner (1983 [dt. 1991]).
Bei verstorbenen Personen werden wie auch im Folgenden die jeweiligen Lebensdaten in Klammern angegeben, um nachvollziehbar zu machen, in welchem zeitlichen Diskussionskontext sie gesehen werden müssen.
Es handelt sich um einen Forschungsantrag für eine mehrwöchige Sommerkonferenz am Dartmouth College, die als Gründungsveranstaltung der KI in die Geschichte einging: Vgl. McCarthy/Minsky/Rochester [u. a.] (1955).
Vgl. Turing (1937).
Vgl. Copeland (2017).
Vgl. Turing (1937).
Dieses Problem wird gegen die Möglichkeit einer Maschinenethik vorgebracht von Englert/Siebert/Ziegler (2014). Es trifft jedoch nur auf Turingmaschinen mit unbegrenztem Speicher zu, während der Speicher aller real existierenden Computer begrenzt ist. Turingmaschinen lassen sich deshalb durch endliche Automaten simulieren, für die das Halteproblem grundsätzlich lösbar ist, vgl. James (2014).
In Frege (1879) arbeitete er zunächst seine Notation aus. Eine umfassende Weiterentwicklung erfolgte dann in Frege (1893) und (1903).
Die drei Bände erschienen 1910, 1912 und 1913. Im Jahr 1925 kam die zweite Auflage mit einer wichtigen neuen Einführung heraus, die auf grundlegende Veränderungen hinweist.
Umgangssprachlich lautet diese Aussage allerdings etwas anders als die ursprüngliche Prämisse 1: Für jedes x gilt, wenn x ein Mensch ist, dann ist x sterblich. Diese Formulierung hat den Vorteil, nicht vorauszusetzen, dass es tatsächlich Menschen gibt.
Vgl. Newell/Simon (1976). Es handelt sich um ihre Rede anlässlich der Verleihung des Turing Awards, dessen Stellenwert in der Informatik mit dem Nobelpreis vergleichbar ist.
Vgl. Clark (2001), S. 7.
Dieser Begriff geht zurück auf Haugeland (1985).
Vgl. Bechtel/Abrahamsen (2001); McLeod/Plunkett/Rolls (1998).
Vgl. McCulloch/Pitts (1943).
Vgl. Hebb (1949).
Vgl. Fodor/Pylyshyn (1988).
Vgl. Iida/Pfeifer/Steels [u. a.] (2004).
Vgl. Wilson/Foglia (2017).
Vgl. Brooks (1999).
Vgl. Dreyfus (1972) und (1992).
Vgl. dazu auch das Kap. »Ausblick: Maschinenethik und Singularität«.
Diese Unterscheidung geht auf Reichenbach (1938) zurück.
Vgl. Turing (1950 [dt. 1994]).
Vgl. Weizenbaum (1966).
Misselhorn (2009).
Vgl. Searle (1980a [dt. 1986]).
Zu dieser auf den Philosophen und Psychologen Franz Brentano (1838–1917) zurückgehenden These vgl. Crane (1998).
Vgl. Churchland/Churchland (1990).
Vgl. z. B. Harnad (1989) und (2002).
Vgl. z. B. Crane (2016), S. 89.
Vgl. Searle (1980b).
Vgl. Block (1995 [dt. 1996]).
Vgl. Chalmers (1995).
Vgl. Jackson (1982 [dt. 2001]) und (1986).
Allerdings sieht Jackson diese These mittlerweile etwas distanzierter, vgl. Jackson (1998).
Vgl. z. B. Dennett (1988).
Vgl. Dennett (1996).
Vgl. das Kap. »Maschinen als moralische Akteure«.
Vgl. das Kap. »Ausblick: Maschinenethik und Singularität«.
Zum letzten Punkt vgl. insb. Berninger (2017), die auf der Grundlage dieser Befunde eine adverbiale Emotionstheorie aufbaut.
Vgl. James (1884).
Wichtige Vertreter dieser Auffassung sind z. B. Solomon (1993) sowie Nussbaum (2004).
Vgl. Deonna/Teroni (2012), Kap. 5.
Vgl. Lazarus (1991).
Vgl. Scherer (2009).
Vgl. Roberts (2003), Kap. 1.
Vgl. Döring (2009), S. 31.
Vgl. Goldie (2000).
Vgl. Damasio (1994).
Vgl. Scheutz (2011).
Vgl. Lench [u. a.] (2013).
Vgl. Cãnamero (1997).
Vgl. Balkenius [u. a.] (2016).
Vgl. McCarthy/Hayes (1969).
Vgl. Shanahan (2009).
Vgl. Ketelaar/Todd (2001).
Vgl. de Sousa (1987).
Vgl. MacLennan (2014).
Vgl. MacLennan (1995).
Ich komme auf diese Fragen zurück im Kap. »Ausblick: Maschinenethik und Singularität«.
Vgl. Birnbacher (2003).
Der Begriff der Roboterethik geht zurück auf Veruggio (2005).
Vgl. bspw. Maner (1996), Bynum (1999) sowie Floridi (1999).
Eine immer noch gute Orientierung über die Debatte verschafft der Sammelband von Wallace/Walker (1970).
Vgl. Hare (1981 [dt. 1992]).
Vgl. Wimmer (1980) sowie Schroth (2001).
Vgl. Hare (1981[dt. 1992]).
Vgl. Dworkin (1984).
Vgl. Williams (1985) sowie Tugendhat (2003).
Vgl. Hume (2007 [dt. 2013]), Mackie (1990), Warnock (1971).
Gelegentlich wird zwar der moralische Egoismus als eigene ethische Position verstanden. Dieser besagt, dass jeder so handeln sollte, wie es in seinem eigenen Interesse ist. Diese Auffassung scheint allerdings von unserem alltäglichen Moralbegriff sehr weit entfernt zu sein.
Vgl. Gaut (2007), S. 45 f.
Vgl. Dancy (2004).
Vgl. Nussbaum (1990).
Vgl. Wittgenstein (1982).
Vgl. Burns (2005).
Vgl. Singer (1979 [dt. 1994]).
Vgl. Rawls (1971 [dt. 1975]).
Williams (1985), S. 68.
Vgl. Brink (2014).
Vgl. Kagan (1984).
Diese einflussreiche Formulierung geht auf John Rawls zurück, der seine Gerechtigkeitstheorie als eine Form des kantischen Konstruktivismus bezeichnet, vgl. Rawls (1980 [dt. 1994]).
Kant, GMS, S. 421.
Kant, GMS, S. 433. Kant scheint davon auszugehen, dass die verschiedenen Formulierungen des kategorischen Imperativs letztlich äquivalent sind. Dies ist in der Forschung jedoch umstritten.
Diese Thematik wird im Zusammenhang mit der formalen Aufbereitung von Maximen für künstliche Systeme im Kap. »Moralimplementation« noch einmal ausführlicher diskutiert.
Kant, GMS, S. 393.
Vgl. Ross (1930).
Vgl. bspw. Stemmer (2004).
Kant, GMS, S. 439.
Vgl. McDowell (1979 [dt. 2009]).
Vgl. Hursthouse (1999).
Vgl. Becker (1986).
Vgl. Hoppe (1992).
Vgl. Hursthouse (1999).
Vgl. MacIntyre (1985).
Vgl. Nussbaum (1993 [dt. 1998]).
Vgl. MacIntyre (1985).
Vgl. Rawls (1993), S. 56 f. [dt. 2003].
Wie wir später sehen werden, sind diese Bürden moralischen Urteilens auch für die Maschinenethik im Anwendungskontext von Bedeutung, und zwar insbesondere in der Pflege (vgl. das Kap. »Pflegesysteme«).
Vgl. Moor (2006).
Im Sinn der im Kapitel »Ethik und Moral« eingeführten Unterscheidung ziehe ich es vor, von moralischen im Unterschied zu ethischen Akteuren zu sprechen und modifiziere Moors Begrifflichkeit dementsprechend.
Aus diesem Grund kann man in diesem Fall nicht wirklich von Akteuren sprechen, wie ich weiter unten darlegen werde.
Vgl. Wallach/Allen (2009), S. 26.
Ich gehe darauf im Kap. »Mensch und Maschine« näher ein.
Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.
Letztere Strategie verfolgt bspw. McLaren (2003).
Vgl. Anderson (2011), S. 23.
Vgl. Anderson/Anderson/Armen (2005a). Im Kap. »Pflegesysteme« werden diese Systeme ausführlicher behandelt.
Vgl. das Kap. »Ethik und Moral«.
Im Kap. »Mensch und Maschine« komme ich auf diese Thematik zurück.
Vgl. Jonas (1968). Ich komme im »Ausblick: Maschinenethik und Singularität« auf dieses Thema zurück.
Vgl. Misselhorn (2015), S. 3–25.
Vgl. Darwall (2007).
Vgl. Misselhorn (2013).
Vgl. zur Akteurskausalität Chisholm (1964).
Ich komme im Abschnitt über Willensfreiheit (s. Kap. »Mensch und Maschine«) noch einmal auf diese Thematik zurück.
Vgl. Floridi/Sanders (2004).
Floridi und Sanders bezeichnen allerdings nur die zweite Bedingung als basale Autonomie, vgl. Floridi/Sanders (2004), S. 15. Aus meiner Sicht erfassen jedoch alle drei Bedingungen einen Aspekt unseres intuitiven Begriffs der Selbstursprünglichkeit. Alternativ könnte man die beiden anderen Bedingungen als Formen der Intelligenz bezeichnen, die weniger anspruchsvoll sind als das Handeln aus Gründen.
Ausführlicher wird diese Frage im Abschnitt Willensfreiheit im Kap. »Mensch und Maschine« thematisiert.
Vgl. zum Konnektionismus das Kap. »Künstliche Intelligenz«.
Zur Unterscheidung von überwachtem und nicht überwachtem Lernen vgl. das Kap. »Künstliche Intelligenz«.
Anders als bei Microsofts Chatbot Tay, der von seinen Gesprächspartnern systematisch mit rassistischen und sexistischen Daten gefüttert wurde, vgl. Wakefield (2016), können Vorurteile auch implizit im Datensatz enthalten sein.
Vgl. Bostrom/Yudkowsky (2014).
Vgl. Bratman (1987).
Vgl. zu dieser unter der Rubrik »Motivationaler Internalismus vs. Externalismus« geführten Diskussion z. B. Brink (1989) sowie Smith (1994).
Vgl. Davidson (1980 [dt. 1990]).
Vgl. Allen/Bekoff (1997).
Vgl. Dennett (1987).
Ich werde im folgenden Kapitel im Zusammenhang mit Maschinenethik als Forschungsprogramm noch eingehender auf Dennetts Auffassung eingehen (siehe S. 91–93).
Vgl. Lewis (1980).
Vgl. Shagrir (2005).
Vgl. Loar (1981).
Vgl. Putnam (1975a), Putnam (1975b).
Vgl. Churchland/Sejnowski (1992 [dt. 1997]).
Vgl. Fodor (1975).
Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.
Searle selbst spricht von »als-ob-Intentionalität« (vgl. Searle (1992 [dt. 1996]). Diese stellt für ihn jedoch lediglich eine interpretatorische Fiktion dar. Quasi-Intentionalität geht darüber hinaus, weil sie bestimmte strukturelle Eigenschaften der fraglichen internen Zustände miteinbezieht. Sie stellt also ein Mittleres dar zwischen Zuständen, die gar nicht intentional sind, und solchen, die intrinsisch intentional sind.
Vgl. Walton (1978).
Vgl. auch das Kap. »Denken, Bewusstsein und Emotionen«.
Vgl. das Kap. »Ausblick: Maschinenethik und Singularität«.
Vgl. Rao/Georgeff (1991, 1995).
Dieser Begriff ist enger gefasst als derjenige der funktionalen Moral, den Wallach und Allen vorschlagen: Sie fassen unter diesem Begriff auch solche Systeme, die nach Moor nur implizite moralische Akteure sind, vgl. Wallach/Allen (2009), S. 26.
Vgl. Allen/Varner/Zinser (2000).
Vgl. Arnold/Scheutz (2016).
Vgl. Dennett (1987).
Vgl. das Kap. »Maschinen als moralische Akteure«.
Vgl. Bermúdez (2005), S. 17.
Zur Unterscheidung zwischen personalen und subpersonalen Erklärungen vgl. Bermúdez (2005), S. 28.
Vgl. Marr (1982).
Vgl. ebd., S. 22 f.
Vgl. Wallach/Allen (2009), S. 79 f. Ich übernehme diese Terminologie, weiche aber in der inhaltlichen Bestimmung von Wallach und Allen etwas ab, da diese meines Erachtens nicht völlig kohärent ist.
Auf diese Alternative wird anhand eines Beispiels im Kap. »Pflegesysteme« näher eingegangen.
Vgl. Kap. »Ethik und Moral«.
Diese werden im Abschnitt »Top-Down-Ansatz III: Asimov’sche Gesetze« auf S. 108–114 näher erläutert.
Vgl. Anderson/Anderson/Armen (2005b).
Vgl. Gips (2011).
Dieser Ansatz geht wesentlich zurück auf Herbert Simon, einen der Gründerväter der KI und Nobelpreisträger, vgl. Simon (1959).
Vgl. Gigerenzer/Todd (1999).
Vgl. ebd., S. 43 f.
Einen entsprechenden Ansatz vertritt beispielsweise der Nobelpreisträger in den Wirtschaftswissenschaften, Harsanyi (1979).
Vgl. Powers (2011).
Vgl. Herman (1993), S. 142, die diese Auffassung allerdings in kritischer Absicht zitiert.
Kant, GMS, S. 421.
Vgl. das Kap. »Künstliche Intelligenz«.
Vgl. Powers (2011), S. 468.
Vgl. Hübner (2014), S. 154.
Vgl. Kant, GMS, S. 424.
Vgl. Korsgaard (1996), S. 80.
Vgl. Powers (2011), S. 469.
Kant, GMS, S. 422.
Ebd.
Vgl. ebd., S. 421 f. sowie den Abschnitt zu Kant im Kap. »Ethik und Moral«.
Vgl. Powers (2011), S. 473.
Vgl. das Kap. »Künstliche Intelligenz«.
Vgl. Powers (2011), S. 474.
Vgl. Tonkens (2009).
Vgl. Asimov (2011), S. 229–250, S. 229.
Vgl. Asimov (1985), S. 525.
Zu einer einfachen Implementation der Asimov’schen Gesetze mit einem Modul, das mögliche Handlungsfolgen simuliert, vgl. Vanderelst/Alan (2018).
Asimov (2011), S. 276–295, S. 286. Ein positronisches Gehirn gibt es natürlich nicht wirklich. Es handelt sich um eine fiktionale Technologie, die in Asimovs Geschichten als zentrale Verarbeitungseinheit (CPU) für androide Roboter fungiert und irgendwie dem menschlichen Gehirn nachempfunden ist.
Vgl. Brooks (2002), S. 72.
Vgl. Asimov (2011), S. 520.
Vgl. das sogenannte Trolley-Problem, auf das ich ausführlicher im Kap. »Autonomes Fahren« eingehe.
Vgl. Asimov (2011), S. 642–674, S. 673.
Vgl. Asimov (2011), S. 675–727. Es bietet sich an, eine Parallele zum antiken Paradoxon des Schiffs des Theseus zu ziehen, bei dem im Lauf der Zeit jede einzelne Planke ersetzt wird.
Ausführlicher wird auf dieses Thema im Kap. »Ausblick: Maschinenethik und Singularität« eingegangen.
Vgl. Asimov (2011), S. 180–202.
Vgl. Weizenbaum (1976 [dt. 1978]).
Vgl. Asimov (2011), S. 346–368.
Vgl. ebd., S. 367.
Vgl. ebd., S. 276–295.
Vgl. ebd., S. 293.
Zit. nach Grau (2011).
Zu möglichen Ergänzungen vgl. Clarke (2011), S. 275.
Vgl. Churchland (1995 [dt. 1997]), Casebeer (2003), Dancy (2004).
Vgl. Gips (2011).
Vgl. Guarini (2011).
Vgl. ebd., S. 322.
Vgl. Guarini (2006), S. 26.
Zur Erläuterung des BDI-Modells vgl. das Kap. »Maschinen als moralische Akteure«.
Vgl. Honarvar/Ghasem-Aghaee (2009).
Vgl. das Kap. »Maschinen als moralische Akteure«, S. 80.
Vgl. Matthias (2004).
Für die Entstehung von kooperativem Verhalten vgl. Axelrod (1984), in Richtung Moral weitergeführt wird dieser Ansatz von Danielson (1992).
Sollte man auch Tiere als Personen begreifen, dann wären sie passive moralische Personen. Wenn man darüber hinaus Tieren die Fähigkeit zum moralischen Handeln zuschreibt, was bspw. Bekoff/Pierce (2010) vorschlagen, so wären sie auch moralische Akteure, allerdings nicht im vollumfänglichen Sinn. Daher würde ich sie nicht als moralisch aktive Personen bezeichnen.
Vgl. Dennett (1976).
Vgl. Henrich (1966).
Vgl. Frank (2001) und (2016).
Vgl. im Anschluss an die Frühromantik Frank (2002), stärker im Kontext der gegenwärtigen Debatten in der Philosophie des Geistes argumentiert Bermúdez (1998).
Vgl. Eshleman (2016).
Vgl. Asaro (2014).
In diese Richtung geht bspw. Cahn (1977).
Vgl. Kapitel »Maschinen als moralische Akteure«, S. 77.
Vgl. Keil (2007), S. 151.
Vgl. Keil (1993).
Vgl. Frankfurt (1969 [dt. 2001]).
Vgl. Frankfurt (1971 [dt. 2001]).
Zum Begriff der Reflexion in der Informatik vgl. Maes (1988). Zum Zusammenhang mit (menschlicher) Metakognition vgl. Cox (2005).
Auch dieser Punkt erlangte im Kontext der klassischen deutschen Philosophie große Bedeutung, angefangen bei Kants transzendentaler Apperzeption, über Fichtes Reflexionsbegriff bis zu Hegels Rekonstruktion der Begriffsstruktur von Subjektivität, vgl. Wandschneider (1990).
Vgl. Lucas (1961), Penrose (1989) und (1994).
Gödel selbst hatte auch schon ähnliche Überlegungen angestellt.
Vgl. das Kap. »Künstliche Intelligenz«.
Vgl. bspw. Arkoudas/Bringsjord (2003).
Vgl. Strawson (1962 [dt. 1978]).
Vgl. Misselhorn (2009).
Doch gibt es Ausnahmen, vgl. Misselhorn (2013).
Vgl. Latour (2006).
Vgl. ausführlicher das Kap. »Militärroboter, Drohnen & Co«.
Vgl. Heidbrink (2017), S. 19.
Vgl. ebd., S. 13.
Vgl. ebd., S. 23 f.
Wie wir sowohl im nächsten Abschnitt als auch im folgenden Teil sehen werden, stellt sich das Problem der Kontrolle moralischer Maschinen jedoch weitgehend unabhängig von den unterschiedlichen Interpretationen der Kontrollbedingung.
Vgl. Nida-Rümelin (2011), S. 31.
Heidbrink (2013), S. 126 f.
Vgl. Ropohl (2009), S. 58 f.
Vgl. Latour (1996).
Vgl. Verbeek (2006), S. 364.
Vgl. Clark/Chalmers (1998).
Vgl. Adams/Aizawa (2008).
Vgl. Matthias (2004).
Vgl. Matthias (2004).
Vgl. schon Jonas (1979).
Vgl. Jonas (1979), Friedman (1990), Nissenbaum (1994).
Ein solcher Fall wird unter dem Begriff der ›Verantwortungslücke‹ im Kap. »Militärroboter, Drohnen & Co« am Beispiel autonomer Waffensysteme ausführlicher diskutiert.
Vgl. Misselhorn (2015), S. 4.
Vgl. Zuboff (1985).
Vgl. Rohrbeck (2018).
Matthias (2004).
Vgl. Parnas/van Schouwen (1990).
Vgl. Nissenbaum (1997).
Zur Thematik kollektiver Verantwortung vgl. Gerber (2010) und Isaacs (2011).
Vgl. Rothgang/Müller/Unger (2012).
Vgl. Veruggio/Operto (2008).
Vgl. Sorell/Draper (2014).
Vgl. Dautenhahn/Woods/Kaouri [u. a.] (2005).
Vgl. Ackerman (2015), Ott (2015).
Vgl. Anderson/Anderson/Armen (2006a).
Vgl. Cloos (2005).
Vgl. Anderson/Anderson/Armen (2006a).
Vgl. Ross (1930).
Vgl. Rawls (1951 [dt. 1976]).
Vgl. Beauchamp/Childress (1979).
Auf den ersten Blick erscheinen die Pflicht, dem Patienten keinen Schaden zuzufügen, und die Pflicht, zu seinem Nutzen zu handeln, in diesem Fall nicht als kategorial unterschiedlich, sondern im Sinn des Utilitarismus als ein Kontinuum derselben Pflicht. Es gibt jedoch Fälle, in denen dieser Unterschied deutlicher zutage tritt, beispielsweise wenn Handlung α darin besteht, dem Patienten ein Bein zu amputieren (Schaden), der Patient aber dadurch überlebt (Nutzen). Die Handlung würde dann die Pflicht zur Vermeidung von Schaden leicht verletzen, aber die Pflicht zur Beförderung des Patientennutzens stark befördern.
Diese Anzahl kommt zustande, weil für Autonomie aus Gründen, die sich mir nicht erschlossen haben, nur die Werte +2, +1 und –1 vergeben werden.
Vgl. Anderson/Anderson/Armen (2006b).
Vgl. Anderson/Anderson (2008).
Vgl. Anderson/Anderson (2010).
Vgl. Anderson/Anderson (2011b).
Vgl. Misselhorn (2018c).
Vgl. Misselhorn/Pompe/Stapleton (2013).
Vgl. das Kap. »Ethik und Moral«.
Vgl. Misselhorn (2018c).
Vgl. das Kap. »Moralimplementation«.
Vgl. Sparrow/Sparrow (2006), S. 152.
Vgl. Coeckelbergh (2013).
Vgl. ebd., S. 811.
Vgl. Coeckelbergh (2015), S. 276.
Vgl. Santoni de Sio/van Wynsberghe (2016).
Vgl. Decker (2008).
Wie auch kognitiv eingeschränkte Menschen mit einem Assistenzsystem länger selbstbestimmt zu Hause leben können, ohne in ihrer Autonomie eingeschränkt zu werden, wird gezeigt in: Behrendt/Misselhorn (2018).
Vgl. Parks (2010).
Vgl. Future of Life Institute (2017).
Vgl. Future of Life Institute (2015b).
Vgl. Ban Lethal Autonomous Weapons (2018).
Vgl. Leveringhaus (2016), S. 35.
Vgl. United States Department of Defense (2011).
Inwiefern programmierte Maschinen autonom und moralisch handeln können, wurde im Kap. »Maschinen als moralische Akteure« genauer diskutiert.
Wir werden auf die Frage der Autonomie noch einmal anhand unseres konkreten Beispiels zurückkommen.
Vgl. Arkin (2009).
Vgl. Wissenschaftlicher Dienst des Bundestages (2009).
Ob der Pazifismus richtig ist oder nicht, stellt eine weitreichende Frage dar. Da die Debatte um autonome Waffensysteme jedoch nicht einem generellen Pazifismus entspringt, sondern sich spezifisch auf diese Waffenform bezieht, wird auf eine ausführliche Diskussion des Pazifismus verzichtet.
Vgl. zur Einführung in die Theorie des gerechten Kriegs Walzer (1977).
Vgl. Arkin (2009), S. 72. Den Begriff des Kollateralschadens verwende ich im Folgenden nur für Schäden an geschütztem zivilem Eigentum, nicht an Personen.
Vgl. Arkin (2009), S. 46 f.
Vgl. Walzer (1977), S. 155.
Vgl. das Kap. »Maschinen als moralische Akteure«.
Vgl. Arkin (2009), Kap. 10.3.2.
Arkin bringt einerseits den ethischen Regler ins Spiel, vgl. Arkin (2009), S. 141. An anderer Stelle erwägt er andererseits den ethischen Adapter, vgl. ebd., S. 143.
Vgl. ebd., S. 190 ff.
Vgl. ebd., S. 192 ff.
Vgl. ebd., S. 186.
Vgl. ebd., S. 188.
Vgl. Leveringhaus (2016), S. 62.
Vgl. Sparrow (2007), S. 67.
Vgl. Leveringhaus (2016), S. 79. Leveringhaus bezieht diese Bedingungen vor allem auf das Bedienpersonal, ich denke jedoch, sie treffen grundsätzlich auch auf die anderen Beteiligten wie die Programmierer und Befehlshaber zu.
Eine interessante Frage lautet, ob immer alle drei Bedingungen vorliegen müssen, oder ob es ausreicht, wenn wenigstens zwei davon gegeben sind. Von besonderer Bedeutung ist die erste Bedingung, die wohl in jedem Fall erfüllt sein muss. Ansonsten ist die folgende Argumentation davon unabhängig, ob zwei oder drei der Bedingungen erfüllt sein müssen.
Vgl. das Kap. »Maschinen als moralische Akteure«.
Vgl. Leveringhaus (2016), S. 74 f.
Koch/Schörnig (2017), S. 49. Wie wir später sehen, sprechen allerdings prinzipielle Gründe gegen eine solche Aufrechnung.
Vgl. Leveringhaus (2016), S. 80.
Vgl. ebd., S. 84.
Zur Diskussion vgl. Birnbacher (1995).
Vgl. Nida-Rümelin (2012).
Vgl. Arkin (2009), S. 205.
Vgl. Matthias (2004), S. 28 f.
Vgl. Leveringhaus (2016), Kap. 4.
Vgl. Walzer (1977), S. 138 f.
Vgl. Leveringhaus (2016), S. 96 f.
Vgl. ebd.
Vgl. ebd., S. 103 f.
Vgl. Bundeswehr (2017).
Vgl. ausführlicher Leveringhaus (2016), S. 103 f., sowie das Kap. »Mensch und Maschine«.
Vgl. Leveringhaus (2016), S. 107 ff.
Vgl. ebd., S. 112 f.
Auf S. 181–184 komme ich noch einmal auf das Problem der Menschenwürde im Zusammenhang mit autonomen Waffensystemen zurück.
Vgl. Leveringhaus (2016), S. 114.
Vgl. Hoffmann (2004), z. B. S. 389 und S. 395.
Vgl. Arkin (2009), S. 96.
Vgl. ebd., S. 193.
Vgl. Childress (1979), S. 216 f. Zu den Schwierigkeiten, die schon bei der Begründung einer Erlaubnis zu töten entstehen, vgl. Eser (2011).
Kant, GMS, S. 429.
Vgl. Hill (1992), S. 220.
Vgl. Human Rights Watch / Harvard Law School’s International Human Rights Clinic (2014).
Hegel (1986), S. 436.
Vgl. Roff/Moyes (2016).
Vgl. Kröger (2015).
Vgl. Verband der Automobilindustrie (2015).
Vgl. Dahlmann (2016).
Vgl. Sokolov (2018).
Vgl. Bruckner [u. a.] (2018).
Vgl. Cacilo [u. a.] (2015), S. 47.
Vgl. Johanning/Mildner (2015).
Vgl. Goodall (2014).
Vgl. ebd.
Zu den Asimov’schen Gesetzen vgl. Kap. »Ansätze der Moralimplementation«.
Vgl. Gerdes/Thornton (2016), S. 96.
Vgl. ebd.
Vgl. Bendel (2014).
Wichtige Unterschiede benennen jedoch Nyholm/Smids (2016).
Vgl. Foot (2002), S. 19–32. Ausführlich zum gesamten Komplex vgl. Redfern (2015).
Vgl. Scalable Cooperation (2018).
Vgl. das Kap. »Kriegsroboter, Drohnen & Co«.
Vgl. Hevelke/Nida-Rümelin (2015).
Vgl. Lin (2016), S. 72.
Vgl. BVerfGE 115, 118, (160).
Vgl. Hilgendorf (2017), S. 155.
Vgl. ebd., S. 159.
Vgl. ebd., S. 155.
Zur Unterscheidung von vollkommenen und unvollkommenen Pflichten in Kants Ethik vgl. die Kap. »Ethik und Moral« sowie »Moralimplementation«.
Vgl. Williams (1981).
Vgl. Wolf (2012), S. 76.
Zitiert nach Grau (2011).
Vgl. Wolf (2012), S. 88.
Vgl. Williams (1981), S. 18.
Vgl. Kolmar/Booms (2016) sowie Loh/Loh (2017).
Diese »Vision Zero«, die das Ziel formuliert, bis spätestens 2050 mit Hilfe des autonomen Fahrens sämtliche Verkehrsunfälle zu eliminieren, ist das wichtigste Verkaufsargument des autonomen Fahrens sowohl seitens der Autoindustrie also auch seitens der Politik, vgl. Schreurs/Steuwer (2016), S. 155.
Vgl. Winkle (2016), S. 350.
Vgl. Sander/Hollering (2017).
Vgl. Dietmayer (2016).
Vgl. Winkle (2016), S. 354.
Vgl. ebd., S. 360.
Vgl. ebd., S. 357.
Vgl. Verkehrsclub Deutschland (2008).
Eine ausführlichere Auseinandersetzung mit diesem Gesetz erfolgt auf S. 202–204.
Vgl. Rannenberg (2016).
Bernard (2017) sieht einen interessanten Zusammenhang zwischen dem Umgang mit Daten im Kontext der Digitalisierung und Überwachungstechniken, die ursprünglich der Verhaltenssteuerung und Kontrolle anderer dienten, bspw. im Strafvollzug und in der Psychiatrie.
Vgl. Rannenberg (2016), S. 498.
Vgl. Glancy (2012).
Vgl. Di Fabio / Broy / Jungo Brüngger [u. a.] (2017).
Wegweisend war diesbezüglich das sog. »Volkszählungsurteil« des Bundesverfassungsgerichts (BVerfG, Urteil vom 15. Dezember 1983 – Az. 1 BvR 209, 269, 362, 420, 440, 484/83).
Vgl. Di Fabio / Broy / Jungo Brüngger [u. a.] (2017), S. 24.
Vgl. § 63 a Abs. 1 und 2 des Straßenverkehrsgesetzes (in der Fassung des Art. 1 Nr. 5 des Achten Gesetzes zur Änderung des Straßenverkehrsgesetzes vom 16. 6. 2017, BGBl. I, 2017, 1648).
Vgl. Bundesrats-Drucksache 69/17, S. 17 f.; Bundestags-Drucksache 18/11776, S. 11.
Vgl. Bundesrats-Drucksache 69/17, S. 17.
Vgl. Prantl (2018).
Vgl. Bundesrats-Drucksache 69/17, S. 17; Begründung zu § 6 Abs. 4 a des Straßenverkehrsgesetzes (in der Fassung des Art. 1 Nr. 2 b des Achten Gesetzes zur Änderung des Straßenverkehrsgesetzes vom 16. 6. 2017, BGBl. I, 2017, 1648).
Vgl. zu dieser sog. »Wesentlichkeitstheorie« etwa BVerfG, Urteil vom 8. 8. 1978 – 2 BvL 8/77, BVerfGE 49, 89 (126 f.) = NJW 1979, 359 mit weiteren Nachweisen zur Rechtsprechung des Bundesverfassungsgerichts; zum Grundrecht auf informationelle Selbstbestimmung vgl. BVerfG, Urteil vom 15. 12. 1983 – 1 BvR 209/83 [u. a.], BVerfGE 65, 1 = NJW 1984, 419.
Vgl. das Kap. »Mensch und Maschine«.
Der Begriff geht zurück auf Vernor Vinge, der damit an einen ursprünglich aus der Mathematik stammenden Terminus für eine bestimmte Art von Umschlagspunkt anknüpft, an dem sich mathematische Objekte unvorhersehbar verhalten, vgl. Vinge (1983) und (1993); einen analogen Umschlagpunkt soll auch die Singularität im technischen Sinn bezeichnen.
Vgl. Good (1966).
Vgl. Chalmers (2010), S. 11.
Vgl. Vinge (1993), Yudkowsky (1996), Kurzweil (2005 [dt. 2013]).
Vgl. Chalmers (2010), S. 13.
Vgl. Moore (1965).
Vgl. Yudkowsky (1996).
Vgl. Floridi (2016).
Zur Church-Turing-Hypothese vgl. das Kap. »Künstliche Intelligenz«.
Vgl. Chalmers 2010, S. 18.
Vgl. ebd., S. 41.
Vgl. Human Brain Project (2017).
Vgl. Artificial Brains (2012).
Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.
Putnam (1981 [dt. 1990]).
Vgl. Chalmers 2010, S. 15.
Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.
Vgl. Dennett (2012).
Vgl. Chalmers (1996).
Vgl. Levine (2001).
Zur Unterscheidung der verschiedenen Möglichkeitstypen vgl. Misselhorn (2005).
Vgl. Davidson (1980 [dt. 1990]), Hornsby (1997), McDowell (1998).
Vgl. Kyselo (2013), S. 197 sowie das Kap. »Maschinen als moralische Akteure«.
Vgl. Rohde (2010), S. 227.
Vgl. Prinz (2012), S. 82.
Es gibt mittlerweile ein amerikanisches Remake mit dem Titel Humans (England/USA, Staffel I: 2015 / Staffel II: 2016). Ich konzentriere mich jedoch auf die ursprüngliche schwedische Serie, der im Hinblick auf die für uns wesentlichen Fragen nichts hinzugefügt wird.
Vgl. das Kap. »Pflegesysteme«.
In eine ähnliche Richtung weist die amerikanische Serie Westworld, die auf dem Roman bzw. dem gleichnamigen Film Westworld von Michael Crichton (1942–2008) aus dem Jahr 1973 basiert (USA, Staffel I: 2016 / Staffel II: 2016). Menschen besuchen darin einen Vergnügungspark, in dem sie Androiden zu ihrem Vergnügen benutzen können (besonders beliebt ist der Wilde Westen mit für den Besucher ungefährlichen Duellsituationen, in dem sich jedoch die Androiden, sog. Hosts, zu wehren beginnen). Verletzte und tote Hosts werden eigentlich über Nacht repariert und die Erinnerungsspeicher gelöscht. Doch können sich bald einige Hosts erinnern und ziehen aus ihren Erfahrungen Konsequenzen.
Eine theoretische Begründung dieses Sachverhalts entwickelt Misselhorn (2019).
[6]Für Leonore
Seit jeher verbindet sich mit dem Einsatz von Maschinen die Hoffnung, dass sie MenschenMenschen von Tätigkeiten entlasten, die schwer, schmutzig, gefährlich oder einfach nur unangenehm sind. Manchmal sind die Leistungen von Maschinen auch einfach schneller oder präziser als diejenigen des Menschen. Das eröffnet die Aussicht, dass die Menschen freigestellt werden für kreative und sinnstiftende Aktivitäten, aber es bringt auch die Sorge mit sich, der Mensch könne von Maschinen verdrängt werden.
So geht der Begriff Roboter auf ein 1920 erschienenes tschechisches Theaterstück zurück, in dem es um menschenähnliche Maschinensklaven bzw. Androiden geht, die dafür geschaffen wurden, den MenschenMenschen das Arbeiten abzunehmen.1 Doch schlussendlich wenden sie sich gegen ihre Schöpfer und versuchen die Menschheit auszulöschen.2 Die Digitalisierung befeuert sowohl diese Hoffnungen als auch diese Ängste noch einmal, denn sie ermöglicht die Konstruktion von Maschinen, die intelligent genug sind, um auch komplexe Aufgaben zu meistern, ohne auf die permanente Überwachung durch den Menschen angewiesen zu sein.
Je intelligenterKünstliche Intelligenz (KI) und autonomerAutonomie Maschinen werden, desto größer ist die Wahrscheinlichkeit, dass sie in Situationen geraten, die ihnen moralische Entscheidungen abverlangen. Doch können Maschinen überhaupt moralisch handelnHandelnmoralisches und sollen sie es? Wie baut man eine moralische Maschine? Mit Fragen wie diesen beschäftigt sich die MaschinenethikEthikMaschinenethik, ein neues Forschungsgebiet an der Schnittstelle von PhilosophiePhilosophie, InformatikInformatik und Robotik.
[8]Die MaschinenethikEthikMaschinenethik unterscheidet sich von anderen Formen der Technikethik, weil ihr Gegenstand die Entwicklung einer Ethik für Maschinen im Gegensatz zu einer Ethik für MenschenMenschen im Umgang mit Maschinen ist. Es geht nicht nur um die Frage, wie die Menschen mit einer bestimmten Technologie (beispielsweise Atomkraft) aus moralischer Sicht umgehen sollten. Das Ziel ist vielmehr, darüber nachzudenken, ob und wie man Maschinen konstruieren kann, die selbst moralische Entscheidungen treffen und umsetzen können, und ob man dies tun sollte.
Dieses Thema ist in der Geschichte der Ethik neu, weil es erst mit der Entstehung des ComputerComputers überhaupt in den Bereich des Möglichen gerückt ist. Die rasante Entwicklung der künstlichen IntelligenzKünstliche Intelligenz (KI) im letzten Jahrzehnt beflügelte die MaschinenethikEthikMaschinenethik und macht sie zugleich unabdingbar, damit diese technologische Entwicklung segensreich verläuft.3 Man spricht analog zu Artificial Intelligence auch von Artificial MoralityArtificial Morality. Während Erstere das Ziel hat, intelligentes Verhalten zu modellieren oder zu simulierenSimulation, simulieren, geht es Letzterer darum, künstliche Systeme mit der Fähigkeit zum moralischen Entscheiden und HandelnHandeln auszustatten.
Lange Zeit stand die MaschinenethikEthikMaschinenethik zu Unrecht im Verdacht, bloß Science-Fiction zu sein. Doch schon eine so simple Maschine wie ein Staubsaugerroboter steht vor moralischen Entscheidungen: Soll er einen Marienkäfer einfach einsaugen oder soll er ihn verscheuchen bzw. umfahren? Und wie sieht es mit einer Spinne aus? Soll er sie töten oder ebenfalls verschonen? Ein solcher Roboter ist in einem minimalen Sinn autonomAutonomie, weil er im Unterschied zu einem konventionellen Staubsauger nicht von einem MenschenMenschen geführt wird. Die Entscheidung ist moralisch, weil sie sich darauf bezieht, ob man Tiere zu Reinigungszwecken töten darf. Gewöhnliche Staubsaugerroboter besitzen allerdings noch nicht die Fähigkeit, eine [9]solche Entscheidung zu treffen. Es gibt jedoch erste Ansätze, eine um ein Ethikmodul erweiterte Version des populären Modells Roomba zu schaffen, die das Leben von Insekten berücksichtigt (der Prototyp ist mit einem optionalen »Kill-Button« für Spinnen ausgestattet).4
Je komplexer die Einsatzbereiche autonomer Systeme sind, desto anspruchsvoller werden die moralischen Entscheidungen, die sie treffen müssen. Dies zeigt sich beispielsweise an Pflegesystemen, Kriegsrobotern und autonomen FahrzeugenAutonomautonomes Fahren, drei paradigmatischen Anwendungsfeldern der MaschinenethikEthikMaschinenethik, die auch in diesem Buch behandelt werden. In allen drei Bereichen stehen autonome Systeme vor grundlegenden moralischen Entscheidungen, in denen es manchmal sogar um Leben und Tod von MenschenMenschen geht. Kann man Maschinen solche Entscheidungen überlassen, darf man es oder sollte man es gar? Das sind die grundlegenden Fragen, um die es in diesem Buch gehen wird.
Wie wichtig dieses Thema ist, zeigt sich auch an der großen Aufmerksamkeit, die mögliche DilemmasituationenDilemma beim autonomen FahrenAutonomautonomes Fahren in einer breiteren Öffentlichkeit erhalten haben. Was ist, wenn ein autonomes Fahrzeug ausschließlich die Möglichkeit hat, entweder einen Menschen am Ende seines Lebens oder ein kleines Kind zu töten? Was, wenn es nur dadurch fünf Menschenleben retten kann, dass es eine auf dem Gehweg stehende Person anfährt? Ist ein besonderer Schutz für die Insassen moralisch legitim oder kommt den anderen Verkehrsteilnehmern vom moralischen Standpunkt mehr Gewicht zu?Autonomautonomes Fahren
Gelegentlich wird eingewandt, solche Szenarien seien bloß hypothetisch und würden aller Wahrscheinlichkeit nach nie eintreten. Doch die ethische Bewertung von Technologien bezieht sich häufig auf Fälle, deren Eintreten nicht sehr wahrscheinlich ist. So wurde auch eine nukleare Katastrophe lange Zeit für unwahrscheinlich gehalten, und doch gehört ein [10]solches Szenarium zu den Kernproblemen der ethischen Diskussion der Atomkraft. Ein anderes Beispiel ist der Fall des Erlanger Babys im Jahr 1992, bei dem eine hirntote Schwangere, die in der 15. Woche einen tödlichen Unfall erlitt, über mehrere Wochen auf der Intensivstation behandelt wurde, um das ungeborene Kind auszutragen.5 Eine solche Konstellation ist ebenfalls sehr selten, löste jedoch in der breiteren Öffentlichkeit eine heftige ethische Kontroverse aus.
Entscheidend ist also nicht die Eintrittswahrscheinlichkeit, sondern dass grundlegende ethische Fragen betroffen sind. An derartigen Fällen lässt sich die Überzeugungskraft unserer moralischen Grundsätze überprüfen, die in weniger extremen Situationen gar nicht in Zweifel gezogen würden. Genau das gilt auch für Pflegesysteme, Kriegsroboter und autonome FahrzeugeAutonomautonomes Fahren: Diese müssen, wie wir sehen werden, über die Fähigkeit zum moralischen Entscheiden und HandelnHandeln verfügen, sollen sie ihre FunktionFunktion, funktional erfüllen. Zugleich versteht es sich nicht von selbst, dass das überhaupt möglich ist. Und selbst wenn es geht, ist noch nicht ausgemacht, dass dies von einem moralischen Standpunkt aus auch gutzuheißen ist.
Ein anderer Einwand gegen die MaschinenethikEthikMaschinenethik lautet, dass es nicht die Maschine ist, welche die moralische Entscheidung trifft, sondern der Mensch, der sie programmiert. Doch je größer die Fortschritte der Künstlichen IntelligenzIntelligenz sind, desto stärker verwischt diese Grenze. Bereits bei einem SchachprogrammSchachprogramm ist die Vorstellung inadäquat, die Entwickler hätten es mit Anweisungen ausgestattet, die unmittelbar den bestmöglichen Zug bestimmen. Das zeigt sich schon daran, dass ein solches ProgrammProgramm weit besser SchachSchachprogramm spielt als seine ProgrammiererProgrammierer, die es sicherlich nicht mit einem Schachweltmeister aufnehmen könnten.
Das Gleiche trifft in noch höherem Maß auf das Brettspiel GoGo (Brettspiel) zu. Dieses galt lange Zeit als zu komplex und kognitivkognitiv, zu [11]anspruchsvoll für ein künstliches System. Doch dem von Google DeepMindGoogle DeepMind mit den Mitteln des maschinellen LernensLernenmaschinelles entwickelten ProgrammProgramm AlphaGoGo (Brettspiel)AlphaGo gelang es 2016, einige der weltbesten Spieler zu schlagen. Ende 2017 folgte AlphaGoGo (Brettspiel)AlphaGo Zero, das im Unterschied zu AlphaGoGo (Brettspiel)AlphaGo nur mit den Spielregeln ausgestattet war, und nicht mehr anhand einer großen DatenDatenmenge menschlicher Spiele trainiert werden musste.6 Das ProgrammProgramm spielte zu Beginn lediglich Partien gegen sich selbst und erreichte so eine Spielstärke, die die alte Version in kürzester Zeit weit übertraf. Die Entwickler sehen darin den Grundstein für die Entwicklung einer allgemeinen künstlichen IntelligenzKünstliche Intelligenz (KI), die ohne menschliches Expertenwissen auskommt und in allen möglichen Bereichen einsetzbar ist.7
Beide Systeme sind menschlichen Spielern überlegen, und auch die Entwickler können nicht unmittelbar bestimmen, für welche Züge sich das System entscheiden wird. Wie wir sehen werden, ist gerade dieser Mangel an KontrolleKontrolle und VorhersehbarkeitVorhersehbarkeit für die MaschinenethikEthikMaschinenethik entscheidend.
Dieser Mangel an KontrolleKontrolle gehört zu den Gründen, aus denen eine beeindruckende Zahl von KIKünstliche Intelligenz (KI)-Forschern und Wissenschaftlern vor einiger Zeit einen offenen Brief verfasst haben, in dem die MaschinenethikEthikMaschinenethik als eines der wichtigsten und drängendsten Forschungsgebiete der KIKünstliche Intelligenz (KI) hervorgehoben wird. Zu den prominentesten Unterzeichnern gehören Nick Bostrom, Stephen Hawking, Elon Musk und Stewart Russell.8
Dieses Buch hat das Ziel, die Grundfragen der MaschinenethikEthikMaschinenethik zu thematisieren und zur kritischen ReflexionReflexion der MöglichkeitMöglichkeit und Wünschbarkeit moralisch handelnHandelnmoralischesder Maschinen anzuleiten. Es richtet sich an die Vertreter der verschiedenen Disziplinen, die an der MaschinenethikEthikMaschinenethik beteiligt sind, aber auch an eine breitere Öffentlichkeit. Denn die MaschinenethikEthikMaschinenethik geht uns alle an, weil sie die grundlegenden Fragen betrifft, wie wir uns selbst sehen und in welcher Gesellschaft wir leben [12]wollen. Um die Verständlichkeit zu erleichtern, findet sich am Ende des Buchs ein Glossar, in dem wichtige Fachbegriffe, die häufiger vorkommen, fasslich erläutert werden.
Der erste Teil entfaltet die allgemeinen theoretischen Grundlagen der MaschinenethikEthikMaschinenethik in den verschiedenen Themenbereichen. Das erste Kapitel erklärt zunächst, was künstliche IntelligenzKünstliche Intelligenz (KI) ist, und führt in die unterschiedlichen Forschungsrichtungen ein (wer sich im Bereich der KIKünstliche Intelligenz (KI) schon ein wenig auskennt, kann dieses Kapitel getrost überspringen).
Im zweiten Kapitel werden die philosophischen Implikationen dargelegt und diskutiert, wie sich die künstliche IntelligenzKünstliche Intelligenz (KI) zur menschlichen IntelligenzIntelligenz verhält. Insbesondere ist zu prüfen, inwiefern Maschinen eigentlich über Fähigkeiten wie DenkenDenken, BewusstseinBewusstsein oder EmotionenEmotionen verfügen können, die für menschliche IntelligenzIntelligenz eine wichtige Rolle spielen. (Diejenigen, die in der PhilosophiePhilosophie des GeistesGeistPhilosophie des Geistes Bescheid wissen, brauchen dieses Kapitel nur zu überfliegen. Es ganz auszulassen, ist vielleicht nicht ratsam, weil einige Weichenstellungen getroffen werden, die später Bedeutung erlangen.)
Das dritte Kapitel stellt die ethischen Grundlagen bereit. Eine allgemeine Einführung legt dar, was unter Ethik und MoralMoral zu verstehen ist. Dann werden die drei wichtigsten ethischen Theorien erläutert, die für die MaschinenethikEthikMaschinenethik maßgeblich sind: Der UtilitarismusUtilitarismus, die kantische Ethik und die TugendethikEthikTugendethik. Außerdem wird die MaschinenethikEthikMaschinenethik als eine Form der angewandten Ethik eingeordnet und ihre Beziehungen zu anderen Disziplinen wie der InformationsethikEthikInformationsethik oder der Computerethik dargestellt. Wer sich bereits mit diesen Disziplinen beschäftigt hat oder über Grundwissen der allgemeinen Ethik verfügt, braucht dieses Kapitel nicht so intensiv zu studieren. Auch dort werden allerdings gewisse moralphilosophische Vorentscheidungen getroffen, so dass möglicherweise Rückfragen entstehen, wenn man es überspringt.
[13]Der zweite Teil ist der Explikation der Grundbegriffe und Methoden der MaschinenethikEthikMaschinenethik gewidmet. Zunächst wird diskutiert, inwieweit Maschinen moralisch handelnHandelnmoralisches können. Das erste Kapitel führt eine Stufung moralischer Akteure ein. Es entfaltet einen graduellen Ansatz moralischer Handlungsfähigkeit, nach dem auch künstliche Systeme in einem funktionalenFunktion, funktional Sinn moralische Akteure sein können, wenn sie bestimmte Bedingungen erfüllen. Sie erreichen jedoch keine vollumfängliche moralische HandlungsfähigkeitAkteur (agent)moralischer A. (ethical a.): vollumfänglich m. A. (full e. a.) wie MenschenMenschen.
Das zweite Kapitel erörtert, wie moralische Fähigkeiten in eine Maschine implementiertMoralMoralimplementation werden können. Dies erfordert einen interdisziplinären Ansatz, dessen Kernbereiche PhilosophiePhilosophie und InformatikInformatik bilden. Zunächst wird die Herangehensweise an dieses Vorhaben methodologisch erklärt. Ein Blick auf die KognitionswissenschaftenKognitionswissenschaften erweist sich dabei als hilfreich. Dann werden drei konkrete Ansätze eingeführt, wie man Moral in einem künstlichen System implementieren kannMoralMoralimplementation, die jeweils eine bestimme Vorgehensweise der SoftwareentwicklungSoftwareentwicklung mit einem bestimmten Typus ethischer Ansätze verbinden: Top-Down-Top-DownAnsätze gehen von allgemeinen Regeln aus, die auf konkrete Fälle angewendet werden sollen. Bottom-Up-AnsätzeBottom-Up versuchen hingegen, auf der Grundlage von Einzelfällen zu groben Verallgemeinerungen zu gelangen, während hybrideHybrid Ansätze beide Vorgehensweisen miteinander verbinden. Welcher Ansatz vorzuziehen ist, hängt vom jeweiligen Anwendungsbereich ab.
Nachdem die Grundlagen der MoralimplementationMoralMoralimplementation erarbeitet wurden, erörtert das dritte Kapitel die Frage, wie sich das moralische HandelnGeisterweiterter Geist (extended mind) von Mensch und Maschine zueinander verhält. Wie sich bereits im ersten Kapitel dieses Teils zeigte, sind Maschinen zwar moralische Akteure, aber sie sind nicht zu vollumfänglichem moralischen HandelnHandelnvollumfänglich moralisches wie [14]MenschenMenschen in der Lage. Dazu fehlen ihnen unter anderem BewusstseinBewusstsein, WillensfreiheitWillensfreiheit und die Fähigkeit zur SelbstreflexionReflexionSelbstreflexion. Da diese Eigenschaften für die Übernahme moralischer VerantwortungVerantwortungmoralische wesentlich sind, können Maschinen auch nicht für ihr Handeln verantwortlich gemacht werden. Trotzdem ist zu diskutieren, inwiefern der Einsatz moralischer Maschinen die Verantwortungszuschreibung an Menschen unterminiert, so dass am Ende möglicherweise niemand für ihr HandelnHandeln die VerantwortungVerantwortung trägt. Diese Frage wird im dritten Teil bezogen auf die Anwendungspraxis erneut aufgegriffen.
Im dritten Teil werden drei zentrale Anwendungsbereiche der MaschinenethikEthikMaschinenethik diskutiert: Das erste Kapitel setzt sich mit Pflegesystemen auseinander, das zweite mit autonomen WaffensystemenAutonomautonomes Waffensystem und das dritte mit dem autonomen FahrenAutonomautonomes Fahren. In allen drei Bereichen wird der Entwicklungsstand der MaschinenethikEthikMaschinenethik anhand konkreter Beispiele erläutert. Daran anknüpfend werden anwendungsspezifische Herausforderungen und Probleme untersucht. Schließlich wird vor dem Hintergrund eines breiteren gesellschaftlichen KontextsKontext erwogen, ob der Einsatz von Maschinen mit MoralMoral aus einer ethischen Perspektive jeweils gutzuheißen ist oder nicht. Dabei wird ein Verständnis von angewandter EthikEthikangewandte vorausgesetzt, das nicht in einer deduktiven Anwendung von MoralMoralprinzipien auf Anwendungsbereiche besteht, sondern in der Mobilisierung moralischer Intuitionen und kontextKontextspezifischer Argumente. Dies hat den Vorteil, den fundamentalen DissensDissens zu umgehen, der im Hinblick auf die richtige allgemeine Theorie der MoralMoral besteht.
Ein wichtiges Anliegen dieses Buchs ist es, zu zeigen, dass diese Fragen nicht auf einer allgemeinen Ebene entschieden werden können, sondern nur bezogen auf spezifische Anwendungskontexte. Am positivsten stellt sich der Einsatz von Maschinen mit Moral im Bereich Pflege dar. Autonome [15]WaffensystemeAutonomautonomes Waffensystem und FahrzeugeAutonomautonomes Fahren hingegen werfen grundlegende moralische Einwände auf.
Als Ausblick wird am Ende das Verhältnis von MaschinenethikEthikMaschinenethik und SingularitätSingularität thematisiert. Dieses Kapitel habe ich hinzugefügt, weil ich in Diskussionen und Interviews immer wieder auf dieses Thema angesprochen wurde. Die SingularitätstheseSingularität behauptet, dass es in absehbarer Zeit aufgrund der Fortschritte der KIKünstliche Intelligenz (KI) Maschinen geben wird, die die MenschenMenschen an IntelligenzIntelligenz weit übertreffen. Damit sind im KontextKontext der MaschinenethikEthikMaschinenethik drei Befürchtungen verbunden: Die eine besagt, dass die Konstruktion von Maschinen mit der Fähigkeit zum moralischen HandelnHandelnmoralisches einen ersten Schritt hin zu einer solchen SuperintelligenzSuperintelligenz darstellen könnte. Die zweite Sorge besteht darin, solche superintelligenten Maschinen könnten auch moralische Ansprüche gegenüber den Menschen erheben. Drittens wird befürchtet, die Superintelligenz könnte die Herrschaft über die Menschheit übernehmen.
Wir werden die Argumente für die SingularitätstheseSingularität untersuchen und feststellen, dass es in absehbarer Zeit weder empirisch noch philosophisch Grund zur Annahme einer SuperintelligenzSuperintelligenz gibt. Der in diesem Buch verfolgte Ansatz stellt deshalb einen Mittelweg dar: Auf der einen Seite wird für die Möglichkeit argumentiert, Maschinen mit der Fähigkeit zum moralischen Entscheiden und HandelnHandelnmoralisches in einem funktionalenFunktion, funktional Sinn auszustatten. Auf der anderen Seite bedeutet das nicht, dass auch Fähigkeiten wie BewusstseinBewusstsein, WillensfreiheitWillensfreiheit oder SelbstreflexionReflexionSelbstreflexion, die für menschliche IntelligenzIntelligenz und Moralität zentral sind, auf diesem Weg reproduziert werden können. Die Arbeit an einer Ethik für MaschinenEthikMaschinenethik geht deshalb nicht zwangsläufig mit der Annahme einher, auch der Mensch sei letztlich nur eine moralische Maschine. Umgekehrt werden wir aber im Zusammenhang mit einigen Überlegungen zu der schwedischen Science-FictionScience-Fiction-Serie Real Humans feststellen, [16]dass sich echte Menschlichkeit auch und gerade im Umgang mit Maschinen niederschlägt.
Die Debatte um die SingularitätSingularität ist irreführend, weil nicht darin die größte Gefahr für die Menschheit liegt. Dieses Buch will vielmehr deutlich machen, dass Maschinen, die moralisch handelnHandelnmoralisches können, ebenso faszinierend und verlockend wie moralisch problematisch sind. Denn sie bringen grundlegende Veränderungen unseres Selbstverständnisses und unseres gesellschaftlichen Zusammenlebens mit sich. Wir sollten darüber nachdenken, ob und in welchen Bereichen wir diese Veränderungen wollen. Die Zeit drängt angesichts der Tatsache, dass längst technisch und wirtschaftlich motivierte Fakten geschaffen werden.