Cover

Hinweise zur E-Book-Ausgabe

Die E-Books des Reclam Verlags verwenden entsprechend der jeweiligen Buchausgabe Sperrungen zur Hervorhebung von Textpassagen. Diese Textauszeichnung wird nicht von allen Readern unterstützt.

Enthält das E-Book in eckigen Klammern beigefügte Seitenzählungen, so verweisen diese auf die Printausgabe des Werkes.

Endnoten

1

Robota bedeutet auf Tschechisch ›Arbeit, Frondienst, Zwangsarbeit‹.

2

Es handelt sich um das Theaterstück R. U. R. (Rossumovi Univerzální Roboti). R. U. R. ist dabei der Name einer Firma, die Androiden herstellt (es gibt eine Übersetzung von Joachim Mols).

3

Im Zuge dieser Entwicklung entstanden die beiden maßgeblichen englischen Werke zur Maschinenethik, eine Monografie von Wallach/Allen (2009) sowie ein Sammelband von Anderson/Anderson (2011a); im deutschsprachigen Raum erscheint 2018 ein Handbuch Maschinenethik mit einführenden Artikeln verschiedener Autoren, siehe Bendel (2018), darin auch Misselhorn (2018a) und (2018b).

4

Vgl. Bendel (2017).

5

Während in diesem Fall das Kind nicht gerettet werden konnte, gelang dies im Jahr 2008 in einer ähnlich gelagerten Situation. Weltweit soll es nach Angaben aus dem Jahr 2009 weniger als 30 ähnliche Fälle geben, vgl. Focus Online (2009).

6

Vgl. Silver/Schrittwieser/Simonyan [u. a.] (2017).

7

Vgl. Silver/Hubert/Schrittwieser [u. a.] (2017).

8

Vgl. Future of Life Institute (2015a).

9

Im Unterschied zum alltäglichen Sprachgebrauch, in dem beide Begriffe zumeist gleichgesetzt werden, verwende ich den Begriff der Künstlichen Intelligenz im Folgenden, wenn ich von der Sache als solcher spreche, und KI, wenn es um die Disziplin geht.

10

Vgl. Gardner (1983 [dt. 1991]).

11

Bei verstorbenen Personen werden wie auch im Folgenden die jeweiligen Lebensdaten in Klammern angegeben, um nachvollziehbar zu machen, in welchem zeitlichen Diskussionskontext sie gesehen werden müssen.

12

Es handelt sich um einen Forschungsantrag für eine mehrwöchige Sommerkonferenz am Dartmouth College, die als Gründungsveranstaltung der KI in die Geschichte einging: Vgl. McCarthy/Minsky/Rochester [u. a.] (1955).

13

Vgl. Turing (1937).

14

Vgl. Copeland (2017).

15

Vgl. Turing (1937).

16

Dieses Problem wird gegen die Möglichkeit einer Maschinenethik vorgebracht von Englert/Siebert/Ziegler (2014). Es trifft jedoch nur auf Turingmaschinen mit unbegrenztem Speicher zu, während der Speicher aller real existierenden Computer begrenzt ist. Turingmaschinen lassen sich deshalb durch endliche Automaten simulieren, für die das Halteproblem grundsätzlich lösbar ist, vgl. James (2014).

17

In Frege (1879) arbeitete er zunächst seine Notation aus. Eine umfassende Weiterentwicklung erfolgte dann in Frege (1893) und (1903).

18

Die drei Bände erschienen 1910, 1912 und 1913. Im Jahr 1925 kam die zweite Auflage mit einer wichtigen neuen Einführung heraus, die auf grundlegende Veränderungen hinweist.

19

Umgangssprachlich lautet diese Aussage allerdings etwas anders als die ursprüngliche Prämisse 1: Für jedes x gilt, wenn x ein Mensch ist, dann ist x sterblich. Diese Formulierung hat den Vorteil, nicht vorauszusetzen, dass es tatsächlich Menschen gibt.

20

Vgl. Newell/Simon (1976). Es handelt sich um ihre Rede anlässlich der Verleihung des Turing Awards, dessen Stellenwert in der Informatik mit dem Nobelpreis vergleichbar ist.

21

Vgl. Clark (2001), S. 7.

22

Dieser Begriff geht zurück auf Haugeland (1985).

23

Vgl. Bechtel/Abrahamsen (2001); McLeod/Plunkett/Rolls (1998).

24

Vgl. McCulloch/Pitts (1943).

25

Vgl. Hebb (1949).

26

Vgl. Fodor/Pylyshyn (1988).

27

Vgl. Iida/Pfeifer/Steels [u. a.] (2004).

28

Vgl. Wilson/Foglia (2017).

29

Vgl. Brooks (1999).

30

Vgl. Dreyfus (1972) und (1992).

31

Vgl. dazu auch das Kap. »Ausblick: Maschinenethik und Singularität«.

32

Diese Unterscheidung geht auf Reichenbach (1938) zurück.

33

Vgl. Turing (1950 [dt. 1994]).

34

Vgl. Weizenbaum (1966).

35

Misselhorn (2009).

36

Vgl. Searle (1980a [dt. 1986]).

37

Zu dieser auf den Philosophen und Psychologen Franz Brentano (18381917) zurückgehenden These vgl. Crane (1998).

38

Vgl. Churchland/Churchland (1990).

39

Vgl. z. B. Harnad (1989) und (2002).

40

Vgl. z. B. Crane (2016), S. 89.

41

Vgl. Searle (1980b).

42

Vgl. Block (1995 [dt. 1996]).

43

Vgl. Chalmers (1995).

44

Vgl. Jackson (1982 [dt. 2001]) und (1986).

45

Allerdings sieht Jackson diese These mittlerweile etwas distanzierter, vgl. Jackson (1998).

46

Vgl. z. B. Dennett (1988).

47

Vgl. Dennett (1996).

48

Vgl. das Kap. »Maschinen als moralische Akteure«.

49

Vgl. das Kap. »Ausblick: Maschinenethik und Singularität«.

50

Zum letzten Punkt vgl. insb. Berninger (2017), die auf der Grundlage dieser Befunde eine adverbiale Emotionstheorie aufbaut.

51

Vgl. James (1884).

52

Wichtige Vertreter dieser Auffassung sind z. B. Solomon (1993) sowie Nussbaum (2004).

53

Vgl. Deonna/Teroni (2012), Kap. 5.

54

Vgl. Lazarus (1991).

55

Vgl. Scherer (2009).

56

Vgl. Roberts (2003), Kap. 1.

57

Vgl. Döring (2009), S. 31.

58

Vgl. Goldie (2000).

59

Vgl. Damasio (1994).

60

Vgl. Scheutz (2011).

61

Vgl. Lench [u. a.] (2013).

62

Vgl. Cãnamero (1997).

63

Vgl. Balkenius [u. a.] (2016).

64

Vgl. McCarthy/Hayes (1969).

65

Vgl. Shanahan (2009).

66

Vgl. Ketelaar/Todd (2001).

67

Vgl. de Sousa (1987).

68

Vgl. MacLennan (2014).

69

Vgl. MacLennan (1995).

70

Ich komme auf diese Fragen zurück im Kap. »Ausblick: Maschinenethik und Singularität«.

71

Vgl. Birnbacher (2003).

72

Der Begriff der Roboterethik geht zurück auf Veruggio (2005).

73

Vgl. bspw. Maner (1996), Bynum (1999) sowie Floridi (1999).

74

Eine immer noch gute Orientierung über die Debatte verschafft der Sammelband von Wallace/Walker (1970).

75

Vgl. Hare (1981 [dt. 1992]).

76

Vgl. Wimmer (1980) sowie Schroth (2001).

77

Vgl. Hare (1981[dt. 1992]).

78

Vgl. Dworkin (1984).

79

Vgl. Williams (1985) sowie Tugendhat (2003).

80

Vgl. Hume (2007 [dt. 2013]), Mackie (1990), Warnock (1971).

81

Gelegentlich wird zwar der moralische Egoismus als eigene ethische Position verstanden. Dieser besagt, dass jeder so handeln sollte, wie es in seinem eigenen Interesse ist. Diese Auffassung scheint allerdings von unserem alltäglichen Moralbegriff sehr weit entfernt zu sein.

82

Vgl. Gaut (2007), S. 45 f.

83

Vgl. Dancy (2004).

84

Vgl. Nussbaum (1990).

85

Vgl. Wittgenstein (1982).

86

Vgl. Burns (2005).

87

Vgl. Singer (1979 [dt. 1994]).

88

Vgl. Rawls (1971 [dt. 1975]).

89

Williams (1985), S. 68.

90

Vgl. Brink (2014).

91

Vgl. Kagan (1984).

92

Diese einflussreiche Formulierung geht auf John Rawls zurück, der seine Gerechtigkeitstheorie als eine Form des kantischen Konstruktivismus bezeichnet, vgl. Rawls (1980 [dt. 1994]).

93

Kant, GMS, S. 421.

94

Kant, GMS, S. 433. Kant scheint davon auszugehen, dass die verschiedenen Formulierungen des kategorischen Imperativs letztlich äquivalent sind. Dies ist in der Forschung jedoch umstritten.

95

Diese Thematik wird im Zusammenhang mit der formalen Aufbereitung von Maximen für künstliche Systeme im Kap. »Moralimplementation« noch einmal ausführlicher diskutiert.

96

Kant, GMS, S. 393.

97

Vgl. Ross (1930).

98

Vgl. bspw. Stemmer (2004).

99

Kant, GMS, S. 439.

100

Vgl. McDowell (1979 [dt. 2009]).

101

Vgl. Hursthouse (1999).

102

Vgl. Becker (1986).

103

Vgl. Hoppe (1992).

104

Vgl. Hursthouse (1999).

105

Vgl. MacIntyre (1985).

106

Vgl. Nussbaum (1993 [dt. 1998]).

107

Vgl. MacIntyre (1985).

108

Vgl. Rawls (1993), S. 56 f. [dt. 2003].

109

Wie wir später sehen werden, sind diese Bürden moralischen Urteilens auch für die Maschinenethik im Anwendungskontext von Bedeutung, und zwar insbesondere in der Pflege (vgl. das Kap. »Pflegesysteme«).

110

Vgl. Moor (2006).

111

Im Sinn der im Kapitel »Ethik und Moral« eingeführten Unterscheidung ziehe ich es vor, von moralischen im Unterschied zu ethischen Akteuren zu sprechen und modifiziere Moors Begrifflichkeit dementsprechend.

112

Aus diesem Grund kann man in diesem Fall nicht wirklich von Akteuren sprechen, wie ich weiter unten darlegen werde.

113

Vgl. Wallach/Allen (2009), S. 26.

114

Ich gehe darauf im Kap. »Mensch und Maschine« näher ein.

115

Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.

116

Letztere Strategie verfolgt bspw. McLaren (2003).

117

Vgl. Anderson (2011), S. 23.

118

Vgl. Anderson/Anderson/Armen (2005a). Im Kap. »Pflegesysteme« werden diese Systeme ausführlicher behandelt.

119

Vgl. das Kap. »Ethik und Moral«.

120

Im Kap. »Mensch und Maschine« komme ich auf diese Thematik zurück.

121

Vgl. Jonas (1968). Ich komme im »Ausblick: Maschinenethik und Singularität« auf dieses Thema zurück.

122

Vgl. Misselhorn (2015), S. 325.

123

Vgl. Darwall (2007).

124

Vgl. Misselhorn (2013).

125

Vgl. zur Akteurskausalität Chisholm (1964).

126

Ich komme im Abschnitt über Willensfreiheit (s. Kap. »Mensch und Maschine«) noch einmal auf diese Thematik zurück.

127

Vgl. Floridi/Sanders (2004).

128

Floridi und Sanders bezeichnen allerdings nur die zweite Bedingung als basale Autonomie, vgl. Floridi/Sanders (2004), S. 15. Aus meiner Sicht erfassen jedoch alle drei Bedingungen einen Aspekt unseres intuitiven Begriffs der Selbstursprünglichkeit. Alternativ könnte man die beiden anderen Bedingungen als Formen der Intelligenz bezeichnen, die weniger anspruchsvoll sind als das Handeln aus Gründen.

129

Ausführlicher wird diese Frage im Abschnitt Willensfreiheit im Kap. »Mensch und Maschine« thematisiert.

130

Vgl. zum Konnektionismus das Kap. »Künstliche Intelligenz«.

131

Zur Unterscheidung von überwachtem und nicht überwachtem Lernen vgl. das Kap. »Künstliche Intelligenz«.

132

Anders als bei Microsofts Chatbot Tay, der von seinen Gesprächspartnern systematisch mit rassistischen und sexistischen Daten gefüttert wurde, vgl. Wakefield (2016), können Vorurteile auch implizit im Datensatz enthalten sein.

133

Vgl. Bostrom/Yudkowsky (2014).

134

Vgl. Bratman (1987).

135

Vgl. zu dieser unter der Rubrik »Motivationaler Internalismus vs. Externalismus« geführten Diskussion z. B. Brink (1989) sowie Smith (1994).

136

Vgl. Davidson (1980 [dt. 1990]).

137

Vgl. Allen/Bekoff (1997).

138

Vgl. Dennett (1987).

139

Ich werde im folgenden Kapitel im Zusammenhang mit Maschinenethik als Forschungsprogramm noch eingehender auf Dennetts Auffassung eingehen (siehe S. 91–93).

140

Vgl. Lewis (1980).

141

Vgl. Shagrir (2005).

142

Vgl. Loar (1981).

143

Vgl. Putnam (1975a), Putnam (1975b).

144

Vgl. Churchland/Sejnowski (1992 [dt. 1997]).

145

Vgl. Fodor (1975).

146

Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.

147

Searle selbst spricht von »als-ob-Intentionalität« (vgl. Searle (1992 [dt. 1996]). Diese stellt für ihn jedoch lediglich eine interpretatorische Fiktion dar. Quasi-Intentionalität geht darüber hinaus, weil sie bestimmte strukturelle Eigenschaften der fraglichen internen Zustände miteinbezieht. Sie stellt also ein Mittleres dar zwischen Zuständen, die gar nicht intentional sind, und solchen, die intrinsisch intentional sind.

148

Vgl. Walton (1978).

149

Vgl. auch das Kap. »Denken, Bewusstsein und Emotionen«.

150

Vgl. das Kap. »Ausblick: Maschinenethik und Singularität«.

151

Vgl. Rao/Georgeff (1991, 1995).

152

Dieser Begriff ist enger gefasst als derjenige der funktionalen Moral, den Wallach und Allen vorschlagen: Sie fassen unter diesem Begriff auch solche Systeme, die nach Moor nur implizite moralische Akteure sind, vgl. Wallach/Allen (2009), S. 26.

153

Vgl. Allen/Varner/Zinser (2000).

154

Vgl. Arnold/Scheutz (2016).

155

Vgl. Dennett (1987).

156

Vgl. das Kap. »Maschinen als moralische Akteure«.

157

Vgl. Bermúdez (2005), S. 17.

158

Zur Unterscheidung zwischen personalen und subpersonalen Erklärungen vgl. Bermúdez (2005), S. 28.

159

Vgl. Marr (1982).

160

Vgl. ebd., S. 22 f.

161

Vgl. Wallach/Allen (2009), S. 79 f. Ich übernehme diese Terminologie, weiche aber in der inhaltlichen Bestimmung von Wallach und Allen etwas ab, da diese meines Erachtens nicht völlig kohärent ist.

162

Auf diese Alternative wird anhand eines Beispiels im Kap. »Pflegesysteme« näher eingegangen.

163

Vgl. Kap. »Ethik und Moral«.

164

Diese werden im Abschnitt »Top-Down-Ansatz III: Asimov’sche Gesetze« auf S. 108–114 näher erläutert.

165

Vgl. Anderson/Anderson/Armen (2005b).

166

Vgl. Gips (2011).

167

Dieser Ansatz geht wesentlich zurück auf Herbert Simon, einen der Gründerväter der KI und Nobelpreisträger, vgl. Simon (1959).

168

Vgl. Gigerenzer/Todd (1999).

169

Vgl. ebd., S. 43 f.

170

Einen entsprechenden Ansatz vertritt beispielsweise der Nobelpreisträger in den Wirtschaftswissenschaften, Harsanyi (1979).

171

Vgl. Powers (2011).

172

Vgl. Herman (1993), S. 142, die diese Auffassung allerdings in kritischer Absicht zitiert.

173

Kant, GMS, S. 421.

174

Vgl. das Kap. »Künstliche Intelligenz«.

175

Vgl. Powers (2011), S. 468.

176

Vgl. Hübner (2014), S. 154.

177

Vgl. Kant, GMS, S. 424.

178

Vgl. Korsgaard (1996), S. 80.

179

Vgl. Powers (2011), S. 469.

180

Kant, GMS, S. 422.

181

Ebd.

182

Vgl. ebd., S. 421 f. sowie den Abschnitt zu Kant im Kap. »Ethik und Moral«.

183

Vgl. Powers (2011), S. 473.

184

Vgl. das Kap. »Künstliche Intelligenz«.

185

Vgl. Powers (2011), S. 474.

186

Vgl. Tonkens (2009).

187

Vgl. Asimov (2011), S. 229250, S. 229.

189

Vgl. Asimov (1985), S. 525.

190

Zu einer einfachen Implementation der Asimov’schen Gesetze mit einem Modul, das mögliche Handlungsfolgen simuliert, vgl. Vanderelst/Alan (2018).

191

Asimov (2011), S. 276295, S. 286. Ein positronisches Gehirn gibt es natürlich nicht wirklich. Es handelt sich um eine fiktionale Technologie, die in Asimovs Geschichten als zentrale Verarbeitungseinheit (CPU) für androide Roboter fungiert und irgendwie dem menschlichen Gehirn nachempfunden ist.

192

Vgl. Brooks (2002), S. 72.

193

Vgl. Asimov (2011), S. 520.

194

Vgl. das sogenannte Trolley-Problem, auf das ich ausführlicher im Kap. »Autonomes Fahren« eingehe.

195

Vgl. Asimov (2011), S. 642674, S. 673.

196

Vgl. Asimov (2011), S. 675727. Es bietet sich an, eine Parallele zum antiken Paradoxon des Schiffs des Theseus zu ziehen, bei dem im Lauf der Zeit jede einzelne Planke ersetzt wird.

197

Ausführlicher wird auf dieses Thema im Kap. »Ausblick: Maschinenethik und Singularität« eingegangen.

198

Vgl. Asimov (2011), S. 180202.

199

Vgl. Weizenbaum (1976 [dt. 1978]).

200

Vgl. Asimov (2011), S. 346368.

201

Vgl. ebd., S. 367.

202

Vgl. ebd., S. 276295.

203

Vgl. ebd., S. 293.

204

Zit. nach Grau (2011).

205

Zu möglichen Ergänzungen vgl. Clarke (2011), S. 275.

206

Vgl. Churchland (1995 [dt. 1997]), Casebeer (2003), Dancy (2004).

207

Vgl. Gips (2011).

208

Vgl. Guarini (2011).

209

Vgl. ebd., S. 322.

210

Vgl. Guarini (2006), S. 26.

211

Zur Erläuterung des BDI-Modells vgl. das Kap. »Maschinen als moralische Akteure«.

212

Vgl. Honarvar/Ghasem-Aghaee (2009).

213

Vgl. das Kap. »Maschinen als moralische Akteure«, S. 80.

214

Vgl. Matthias (2004).

215

Für die Entstehung von kooperativem Verhalten vgl. Axelrod (1984), in Richtung Moral weitergeführt wird dieser Ansatz von Danielson (1992).

216

Sollte man auch Tiere als Personen begreifen, dann wären sie passive moralische Personen. Wenn man darüber hinaus Tieren die Fähigkeit zum moralischen Handeln zuschreibt, was bspw. Bekoff/Pierce (2010) vorschlagen, so wären sie auch moralische Akteure, allerdings nicht im vollumfänglichen Sinn. Daher würde ich sie nicht als moralisch aktive Personen bezeichnen.

217

Vgl. Dennett (1976).

218

Vgl. Henrich (1966).

219

Vgl. Frank (2001) und (2016).

220

Vgl. im Anschluss an die Frühromantik Frank (2002), stärker im Kontext der gegenwärtigen Debatten in der Philosophie des Geistes argumentiert Bermúdez (1998).

221

Vgl. Eshleman (2016).

222

Vgl. Asaro (2014).

223

In diese Richtung geht bspw. Cahn (1977).

224

Vgl. Kapitel »Maschinen als moralische Akteure«, S. 77.

225

Vgl. Keil (2007), S. 151.

226

Vgl. Keil (1993).

227

Vgl. Frankfurt (1969 [dt. 2001]).

228

Vgl. Frankfurt (1971 [dt. 2001]).

229

Zum Begriff der Reflexion in der Informatik vgl. Maes (1988). Zum Zusammenhang mit (menschlicher) Metakognition vgl. Cox (2005).

230

Auch dieser Punkt erlangte im Kontext der klassischen deutschen Philosophie große Bedeutung, angefangen bei Kants transzendentaler Apperzeption, über Fichtes Reflexionsbegriff bis zu Hegels Rekonstruktion der Begriffsstruktur von Subjektivität, vgl. Wandschneider (1990).

231

Vgl. Lucas (1961), Penrose (1989) und (1994).

232

Gödel selbst hatte auch schon ähnliche Überlegungen angestellt.

233

Vgl. das Kap. »Künstliche Intelligenz«.

234

Vgl. bspw. Arkoudas/Bringsjord (2003).

235

Vgl. Strawson (1962 [dt. 1978]).

236

Vgl. Misselhorn (2009).

237

Doch gibt es Ausnahmen, vgl. Misselhorn (2013).

238

Vgl. Latour (2006).

239

Vgl. ausführlicher das Kap. »Militärroboter, Drohnen & Co«.

240

Vgl. Heidbrink (2017), S. 19.

241

Vgl. ebd., S. 13.

242

Vgl. ebd., S. 23 f.

243

Wie wir sowohl im nächsten Abschnitt als auch im folgenden Teil sehen werden, stellt sich das Problem der Kontrolle moralischer Maschinen jedoch weitgehend unabhängig von den unterschiedlichen Interpretationen der Kontrollbedingung.

244

Vgl. Nida-Rümelin (2011), S. 31.

245

Heidbrink (2013), S. 126 f.

246

Vgl. Ropohl (2009), S. 58 f.

247

Vgl. Latour (1996).

248

Vgl. Verbeek (2006), S. 364.

249

Vgl. Clark/Chalmers (1998).

250

Vgl. Adams/Aizawa (2008).

251

Vgl. Matthias (2004).

252

Vgl. Matthias (2004).

253

Vgl. schon Jonas (1979).

254

Vgl. Jonas (1979), Friedman (1990), Nissenbaum (1994).

255

Ein solcher Fall wird unter dem Begriff der ›Verantwortungslücke‹ im Kap. »Militärroboter, Drohnen & Co« am Beispiel autonomer Waffensysteme ausführlicher diskutiert.

256

Vgl. Misselhorn (2015), S. 4.

257

Vgl. Zuboff (1985).

258

Vgl. Rohrbeck (2018).

259

Matthias (2004).

260

Vgl. Parnas/van Schouwen (1990).

261

Vgl. Nissenbaum (1997).

262

Zur Thematik kollektiver Verantwortung vgl. Gerber (2010) und Isaacs (2011).

263

Vgl. Rothgang/Müller/Unger (2012).

264

Vgl. Veruggio/Operto (2008).

265

Vgl. Sorell/Draper (2014).

266

Vgl. Dautenhahn/Woods/Kaouri [u. a.] (2005).

267

Vgl. Ackerman (2015), Ott (2015).

268

Vgl. Anderson/Anderson/Armen (2006a).

269

Vgl. Cloos (2005).

270

Vgl. Anderson/Anderson/Armen (2006a).

271

Vgl. Ross (1930).

272

Vgl. Rawls (1951 [dt. 1976]).

273

Vgl. Beauchamp/Childress (1979).

274

Auf den ersten Blick erscheinen die Pflicht, dem Patienten keinen Schaden zuzufügen, und die Pflicht, zu seinem Nutzen zu handeln, in diesem Fall nicht als kategorial unterschiedlich, sondern im Sinn des Utilitarismus als ein Kontinuum derselben Pflicht. Es gibt jedoch Fälle, in denen dieser Unterschied deutlicher zutage tritt, beispielsweise wenn Handlung α darin besteht, dem Patienten ein Bein zu amputieren (Schaden), der Patient aber dadurch überlebt (Nutzen). Die Handlung würde dann die Pflicht zur Vermeidung von Schaden leicht verletzen, aber die Pflicht zur Beförderung des Patientennutzens stark befördern.

275

Diese Anzahl kommt zustande, weil für Autonomie aus Gründen, die sich mir nicht erschlossen haben, nur die Werte +2, +1 und –1 vergeben werden.

276

Vgl. Anderson/Anderson/Armen (2006b).

277

Vgl. Anderson/Anderson (2008).

278

Vgl. Anderson/Anderson (2010).

279

Vgl. Anderson/Anderson (2011b).

280

Vgl. Misselhorn (2018c).

281

Vgl. Misselhorn/Pompe/Stapleton (2013).

282

Vgl. das Kap. »Ethik und Moral«.

283

Vgl. Misselhorn (2018c).

284

Vgl. das Kap. »Moralimplementation«.

285

Vgl. Sparrow/Sparrow (2006), S. 152.

286

Vgl. Coeckelbergh (2013).

287

Vgl. ebd., S. 811.

288

Vgl. Coeckelbergh (2015), S. 276.

289

Vgl. Santoni de Sio/van Wynsberghe (2016).

290

Vgl. Decker (2008).

291

Wie auch kognitiv eingeschränkte Menschen mit einem Assistenzsystem länger selbstbestimmt zu Hause leben können, ohne in ihrer Autonomie eingeschränkt zu werden, wird gezeigt in: Behrendt/Misselhorn (2018).

292

Vgl. Parks (2010).

293

Vgl. Future of Life Institute (2017).

294

Vgl. Future of Life Institute (2015b).

295

Vgl. Ban Lethal Autonomous Weapons (2018).

296

Vgl. Leveringhaus (2016), S. 35.

297

Vgl. United States Department of Defense (2011).

298

Inwiefern programmierte Maschinen autonom und moralisch handeln können, wurde im Kap. »Maschinen als moralische Akteure« genauer diskutiert.

299

Wir werden auf die Frage der Autonomie noch einmal anhand unseres konkreten Beispiels zurückkommen.

300

Vgl. Arkin (2009).

301

Vgl. Wissenschaftlicher Dienst des Bundestages (2009).

302

Ob der Pazifismus richtig ist oder nicht, stellt eine weitreichende Frage dar. Da die Debatte um autonome Waffensysteme jedoch nicht einem generellen Pazifismus entspringt, sondern sich spezifisch auf diese Waffenform bezieht, wird auf eine ausführliche Diskussion des Pazifismus verzichtet.

303

Vgl. zur Einführung in die Theorie des gerechten Kriegs Walzer (1977).

304

Vgl. Arkin (2009), S. 72. Den Begriff des Kollateralschadens verwende ich im Folgenden nur für Schäden an geschütztem zivilem Eigentum, nicht an Personen.

305

Vgl. Arkin (2009), S. 46 f.

306

Vgl. Walzer (1977), S. 155.

307

Vgl. das Kap. »Maschinen als moralische Akteure«.

308

Vgl. Arkin (2009), Kap. 10.3.2.

309

Arkin bringt einerseits den ethischen Regler ins Spiel, vgl. Arkin (2009), S. 141. An anderer Stelle erwägt er andererseits den ethischen Adapter, vgl. ebd., S. 143.

310

Vgl. ebd., S. 190 ff.

311

Vgl. ebd., S. 192 ff.

312

Vgl. ebd., S. 186.

313

Vgl. ebd., S. 188.

314

Vgl. Leveringhaus (2016), S. 62.

315

Vgl. Sparrow (2007), S. 67.

316

Vgl. Leveringhaus (2016), S. 79. Leveringhaus bezieht diese Bedingungen vor allem auf das Bedienpersonal, ich denke jedoch, sie treffen grundsätzlich auch auf die anderen Beteiligten wie die Programmierer und Befehlshaber zu.

317

Eine interessante Frage lautet, ob immer alle drei Bedingungen vorliegen müssen, oder ob es ausreicht, wenn wenigstens zwei davon gegeben sind. Von besonderer Bedeutung ist die erste Bedingung, die wohl in jedem Fall erfüllt sein muss. Ansonsten ist die folgende Argumentation davon unabhängig, ob zwei oder drei der Bedingungen erfüllt sein müssen.

318

Vgl. das Kap. »Maschinen als moralische Akteure«.

319

Vgl. Leveringhaus (2016), S. 74 f.

320

Koch/Schörnig (2017), S. 49. Wie wir später sehen, sprechen allerdings prinzipielle Gründe gegen eine solche Aufrechnung.

321

Vgl. Leveringhaus (2016), S. 80.

322

Vgl. ebd., S. 84.

323

Zur Diskussion vgl. Birnbacher (1995).

324

Vgl. Nida-Rümelin (2012).

325

Vgl. Arkin (2009), S. 205.

326

Vgl. Matthias (2004), S. 28 f.

327

Vgl. Leveringhaus (2016), Kap. 4.

328

Vgl. Walzer (1977), S. 138 f.

329

Vgl. Leveringhaus (2016), S. 96 f.

330

Vgl. ebd.

331

Vgl. ebd., S. 103 f.

332

Vgl. Bundeswehr (2017).

333

Vgl. ausführlicher Leveringhaus (2016), S. 103 f., sowie das Kap. »Mensch und Maschine«.

334

Vgl. Leveringhaus (2016), S. 107 ff.

335

Vgl. ebd., S. 112 f.

336

Auf S. 181–184 komme ich noch einmal auf das Problem der Menschenwürde im Zusammenhang mit autonomen Waffensystemen zurück.

337

Vgl. Leveringhaus (2016), S. 114.

338

Vgl. Hoffmann (2004), z. B. S. 389 und S. 395.

339

Vgl. Arkin (2009), S. 96.

340

Vgl. ebd., S. 193.

341

Vgl. Childress (1979), S. 216 f. Zu den Schwierigkeiten, die schon bei der Begründung einer Erlaubnis zu töten entstehen, vgl. Eser (2011).

342

Kant, GMS, S. 429.

343

Vgl. Hill (1992), S. 220.

344

Vgl. Human Rights Watch / Harvard Law School’s International Human Rights Clinic (2014).

345

Hegel (1986), S. 436.

346

Vgl. Roff/Moyes (2016).

347

Vgl. Kröger (2015).

348

Vgl. Verband der Automobilindustrie (2015).

349

Vgl. Dahlmann (2016).

350

Vgl. Sokolov (2018).

351

Vgl. Bruckner [u. a.] (2018).

352

Vgl. Cacilo [u. a.] (2015), S. 47.

353

Vgl. Johanning/Mildner (2015).

354

Vgl. Goodall (2014).

355

Vgl. ebd.

356

Zu den Asimov’schen Gesetzen vgl. Kap. »Ansätze der Moralimplementation«.

357

Vgl. Gerdes/Thornton (2016), S. 96.

358

Vgl. ebd.

359

Vgl. Bendel (2014).

360

Wichtige Unterschiede benennen jedoch Nyholm/Smids (2016).

361

Vgl. Foot (2002), S. 1932. Ausführlich zum gesamten Komplex vgl. Redfern (2015).

362

Vgl. Scalable Cooperation (2018).

363

Vgl. das Kap. »Kriegsroboter, Drohnen & Co«.

364

Vgl. Hevelke/Nida-Rümelin (2015).

365

Vgl. Lin (2016), S. 72.

366

Vgl. BVerfGE 115, 118, (160).

367

Vgl. Hilgendorf (2017), S. 155.

368

Vgl. ebd., S. 159.

369

Vgl. ebd., S. 155.

370

Zur Unterscheidung von vollkommenen und unvollkommenen Pflichten in Kants Ethik vgl. die Kap. »Ethik und Moral« sowie »Moralimplementation«.

371

Vgl. Williams (1981).

372

Vgl. Wolf (2012), S. 76.

373

Zitiert nach Grau (2011).

374

Vgl. Wolf (2012), S. 88.

375

Vgl. Williams (1981), S. 18.

376

Vgl. Kolmar/Booms (2016) sowie Loh/Loh (2017).

377

Diese »Vision Zero«, die das Ziel formuliert, bis spätestens 2050 mit Hilfe des autonomen Fahrens sämtliche Verkehrsunfälle zu eliminieren, ist das wichtigste Verkaufsargument des autonomen Fahrens sowohl seitens der Autoindustrie also auch seitens der Politik, vgl. Schreurs/Steuwer (2016), S. 155.

378

Vgl. Winkle (2016), S. 350.

379

Vgl. Sander/Hollering (2017).

380

Vgl. Dietmayer (2016).

381

Vgl. Winkle (2016), S. 354.

382

Vgl. ebd., S. 360.

383

Vgl. ebd., S. 357.

384

Vgl. Verkehrsclub Deutschland (2008).

385

Eine ausführlichere Auseinandersetzung mit diesem Gesetz erfolgt auf S. 202–204.

386

Vgl. Rannenberg (2016).

387

Bernard (2017) sieht einen interessanten Zusammenhang zwischen dem Umgang mit Daten im Kontext der Digitalisierung und Überwachungstechniken, die ursprünglich der Verhaltenssteuerung und Kontrolle anderer dienten, bspw. im Strafvollzug und in der Psychiatrie.

388

Vgl. Rannenberg (2016), S. 498.

389

Vgl. Glancy (2012).

390

Vgl. Di Fabio / Broy / Jungo Brüngger [u. a.] (2017).

391

Wegweisend war diesbezüglich das sog. »Volkszählungsurteil« des Bundesverfassungsgerichts (BVerfG, Urteil vom 15. Dezember 1983 – Az. 1 BvR 209, 269, 362, 420, 440, 484/83).

392

Vgl. Di Fabio / Broy / Jungo Brüngger [u. a.] (2017), S. 24.

393

Vgl. § 63 a Abs. 1 und 2 des Straßenverkehrsgesetzes (in der Fassung des Art. 1 Nr. 5 des Achten Gesetzes zur Änderung des Straßenverkehrsgesetzes vom 1662017, BGBl. I, 2017, 1648).

394

Vgl. Bundesrats-Drucksache 69/17, S. 17 f.; Bundestags-Drucksache 18/11776, S. 11.

395

Vgl. Bundesrats-Drucksache 69/17, S. 17.

396

Vgl. Prantl (2018).

397

Vgl. Bundesrats-Drucksache 69/17, S. 17; Begründung zu § 6 Abs. 4 a des Straßenverkehrsgesetzes (in der Fassung des Art. 1 Nr. 2 b des Achten Gesetzes zur Änderung des Straßenverkehrsgesetzes vom 1662017, BGBl. I, 2017, 1648).

398

Vgl. zu dieser sog. »Wesentlichkeitstheorie« etwa BVerfG, Urteil vom 881978 – 2 BvL 8/77, BVerfGE 49, 89 (126 f.) = NJW 1979, 359 mit weiteren Nachweisen zur Rechtsprechung des Bundesverfassungsgerichts; zum Grundrecht auf informationelle Selbstbestimmung vgl. BVerfG, Urteil vom 15121983 – 1 BvR 209/83 [u. a.], BVerfGE 65, 1 = NJW 1984, 419.

399

Vgl. das Kap. »Mensch und Maschine«.

400

Der Begriff geht zurück auf Vernor Vinge, der damit an einen ursprünglich aus der Mathematik stammenden Terminus für eine bestimmte Art von Umschlagspunkt anknüpft, an dem sich mathematische Objekte unvorhersehbar verhalten, vgl. Vinge (1983) und (1993); einen analogen Umschlagpunkt soll auch die Singularität im technischen Sinn bezeichnen.

401

Vgl. Good (1966).

402

Vgl. Chalmers (2010), S. 11.

403

Vgl. Vinge (1993), Yudkowsky (1996), Kurzweil (2005 [dt. 2013]).

404

Vgl. Chalmers (2010), S. 13.

405

Vgl. Moore (1965).

406

Vgl. Yudkowsky (1996).

407

Vgl. Floridi (2016).

408

Zur Church-Turing-Hypothese vgl. das Kap. »Künstliche Intelligenz«.

409

Vgl. Chalmers 2010, S. 18.

410

Vgl. ebd., S. 41.

411

Vgl. Human Brain Project (2017).

412

Vgl. Artificial Brains (2012).

413

Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.

414

Putnam (1981 [dt. 1990]).

415

Vgl. Chalmers 2010, S. 15.

416

Vgl. das Kap. »Denken, Bewusstsein und Emotionen«.

417

Vgl. Dennett (2012).

418

Vgl. Chalmers (1996).

419

Vgl. Levine (2001).

420

Zur Unterscheidung der verschiedenen Möglichkeitstypen vgl. Misselhorn (2005).

421

Vgl. Davidson (1980 [dt. 1990]), Hornsby (1997), McDowell (1998).

422

Vgl. Kyselo (2013), S. 197 sowie das Kap. »Maschinen als moralische Akteure«.

423

Vgl. Rohde (2010), S. 227.

424

Vgl. Prinz (2012), S. 82.

425

Es gibt mittlerweile ein amerikanisches Remake mit dem Titel Humans (England/USA, Staffel I: 2015 / Staffel II: 2016). Ich konzentriere mich jedoch auf die ursprüngliche schwedische Serie, der im Hinblick auf die für uns wesentlichen Fragen nichts hinzugefügt wird.

426

Vgl. das Kap. »Pflegesysteme«.

427

In eine ähnliche Richtung weist die amerikanische Serie Westworld, die auf dem Roman bzw. dem gleichnamigen Film Westworld von Michael Crichton (19422008) aus dem Jahr 1973 basiert (USA, Staffel I: 2016 / Staffel II: 2016). Menschen besuchen darin einen Vergnügungspark, in dem sie Androiden zu ihrem Vergnügen benutzen können (besonders beliebt ist der Wilde Westen mit für den Besucher ungefährlichen Duellsituationen, in dem sich jedoch die Androiden, sog. Hosts, zu wehren beginnen). Verletzte und tote Hosts werden eigentlich über Nacht repariert und die Erinnerungsspeicher gelöscht. Doch können sich bald einige Hosts erinnern und ziehen aus ihren Erfahrungen Konsequenzen.

428

Eine theoretische Begründung dieses Sachverhalts entwickelt Misselhorn (2019).

[6]Für Leonore

[7]Einleitung: MaschinenethikEthikMaschinenethik – eine neue Disziplin an der Schnittstelle von PhilosophiePhilosophie, InformatikInformatik und Robotik

Seit jeher verbindet sich mit dem Einsatz von Maschinen die Hoffnung, dass sie MenschenMenschen von Tätigkeiten entlasten, die schwer, schmutzig, gefährlich oder einfach nur unangenehm sind. Manchmal sind die Leistungen von Maschinen auch einfach schneller oder präziser als diejenigen des Menschen. Das eröffnet die Aussicht, dass die Menschen freigestellt werden für kreative und sinnstiftende Aktivitäten, aber es bringt auch die Sorge mit sich, der Mensch könne von Maschinen verdrängt werden.

So geht der Begriff Roboter auf ein 1920 erschienenes tschechisches Theaterstück zurück, in dem es um menschenähnliche Maschinensklaven bzw. Androiden geht, die dafür geschaffen wurden, den MenschenMenschen das Arbeiten abzunehmen.1 Doch schlussendlich wenden sie sich gegen ihre Schöpfer und versuchen die Menschheit auszulöschen.2 Die Digitalisierung befeuert sowohl diese Hoffnungen als auch diese Ängste noch einmal, denn sie ermöglicht die Konstruktion von Maschinen, die intelligent genug sind, um auch komplexe Aufgaben zu meistern, ohne auf die permanente Überwachung durch den Menschen angewiesen zu sein.

Je intelligenterKünstliche Intelligenz (KI) und autonomerAutonomie Maschinen werden, desto größer ist die Wahrscheinlichkeit, dass sie in Situationen geraten, die ihnen moralische Entscheidungen abverlangen. Doch können Maschinen überhaupt moralisch handelnHandelnmoralisches und sollen sie es? Wie baut man eine moralische Maschine? Mit Fragen wie diesen beschäftigt sich die MaschinenethikEthikMaschinenethik, ein neues Forschungsgebiet an der Schnittstelle von PhilosophiePhilosophie, InformatikInformatik und Robotik.

[8]Die MaschinenethikEthikMaschinenethik unterscheidet sich von anderen Formen der Technikethik, weil ihr Gegenstand die Entwicklung einer Ethik für Maschinen im Gegensatz zu einer Ethik für MenschenMenschen im Umgang mit Maschinen ist. Es geht nicht nur um die Frage, wie die Menschen mit einer bestimmten Technologie (beispielsweise Atomkraft) aus moralischer Sicht umgehen sollten. Das Ziel ist vielmehr, darüber nachzudenken, ob und wie man Maschinen konstruieren kann, die selbst moralische Entscheidungen treffen und umsetzen können, und ob man dies tun sollte.

Dieses Thema ist in der Geschichte der Ethik neu, weil es erst mit der Entstehung des ComputerComputers überhaupt in den Bereich des Möglichen gerückt ist. Die rasante Entwicklung der künstlichen IntelligenzKünstliche Intelligenz (KI) im letzten Jahrzehnt beflügelte die MaschinenethikEthikMaschinenethik und macht sie zugleich unabdingbar, damit diese technologische Entwicklung segensreich verläuft.3 Man spricht analog zu Artificial Intelligence auch von Artificial MoralityArtificial Morality. Während Erstere das Ziel hat, intelligentes Verhalten zu modellieren oder zu simulierenSimulation, simulieren, geht es Letzterer darum, künstliche Systeme mit der Fähigkeit zum moralischen Entscheiden und HandelnHandeln auszustatten.

Lange Zeit stand die MaschinenethikEthikMaschinenethik zu Unrecht im Verdacht, bloß Science-Fiction zu sein. Doch schon eine so simple Maschine wie ein Staubsaugerroboter steht vor moralischen Entscheidungen: Soll er einen Marienkäfer einfach einsaugen oder soll er ihn verscheuchen bzw. umfahren? Und wie sieht es mit einer Spinne aus? Soll er sie töten oder ebenfalls verschonen? Ein solcher Roboter ist in einem minimalen Sinn autonomAutonomie, weil er im Unterschied zu einem konventionellen Staubsauger nicht von einem MenschenMenschen geführt wird. Die Entscheidung ist moralisch, weil sie sich darauf bezieht, ob man Tiere zu Reinigungszwecken töten darf. Gewöhnliche Staubsaugerroboter besitzen allerdings noch nicht die Fähigkeit, eine [9]solche Entscheidung zu treffen. Es gibt jedoch erste Ansätze, eine um ein Ethikmodul erweiterte Version des populären Modells Roomba zu schaffen, die das Leben von Insekten berücksichtigt (der Prototyp ist mit einem optionalen »Kill-Button« für Spinnen ausgestattet).4

Je komplexer die Einsatzbereiche autonomer Systeme sind, desto anspruchsvoller werden die moralischen Entscheidungen, die sie treffen müssen. Dies zeigt sich beispielsweise an Pflegesystemen, Kriegsrobotern und autonomen FahrzeugenAutonomautonomes Fahren, drei paradigmatischen Anwendungsfeldern der MaschinenethikEthikMaschinenethik, die auch in diesem Buch behandelt werden. In allen drei Bereichen stehen autonome Systeme vor grundlegenden moralischen Entscheidungen, in denen es manchmal sogar um Leben und Tod von MenschenMenschen geht. Kann man Maschinen solche Entscheidungen überlassen, darf man es oder sollte man es gar? Das sind die grundlegenden Fragen, um die es in diesem Buch gehen wird.

Wie wichtig dieses Thema ist, zeigt sich auch an der großen Aufmerksamkeit, die mögliche DilemmasituationenDilemma beim autonomen FahrenAutonomautonomes Fahren in einer breiteren Öffentlichkeit erhalten haben. Was ist, wenn ein autonomes Fahrzeug ausschließlich die Möglichkeit hat, entweder einen Menschen am Ende seines Lebens oder ein kleines Kind zu töten? Was, wenn es nur dadurch fünf Menschenleben retten kann, dass es eine auf dem Gehweg stehende Person anfährt? Ist ein besonderer Schutz für die Insassen moralisch legitim oder kommt den anderen Verkehrsteilnehmern vom moralischen Standpunkt mehr Gewicht zu?Autonomautonomes Fahren

Gelegentlich wird eingewandt, solche Szenarien seien bloß hypothetisch und würden aller Wahrscheinlichkeit nach nie eintreten. Doch die ethische Bewertung von Technologien bezieht sich häufig auf Fälle, deren Eintreten nicht sehr wahrscheinlich ist. So wurde auch eine nukleare Katastrophe lange Zeit für unwahrscheinlich gehalten, und doch gehört ein [10]solches Szenarium zu den Kernproblemen der ethischen Diskussion der Atomkraft. Ein anderes Beispiel ist der Fall des Erlanger Babys im Jahr 1992, bei dem eine hirntote Schwangere, die in der 15. Woche einen tödlichen Unfall erlitt, über mehrere Wochen auf der Intensivstation behandelt wurde, um das ungeborene Kind auszutragen.5 Eine solche Konstellation ist ebenfalls sehr selten, löste jedoch in der breiteren Öffentlichkeit eine heftige ethische Kontroverse aus.

Entscheidend ist also nicht die Eintrittswahrscheinlichkeit, sondern dass grundlegende ethische Fragen betroffen sind. An derartigen Fällen lässt sich die Überzeugungskraft unserer moralischen Grundsätze überprüfen, die in weniger extremen Situationen gar nicht in Zweifel gezogen würden. Genau das gilt auch für Pflegesysteme, Kriegsroboter und autonome FahrzeugeAutonomautonomes Fahren: Diese müssen, wie wir sehen werden, über die Fähigkeit zum moralischen Entscheiden und HandelnHandeln verfügen, sollen sie ihre FunktionFunktion, funktional erfüllen. Zugleich versteht es sich nicht von selbst, dass das überhaupt möglich ist. Und selbst wenn es geht, ist noch nicht ausgemacht, dass dies von einem moralischen Standpunkt aus auch gutzuheißen ist.

Ein anderer Einwand gegen die MaschinenethikEthikMaschinenethik lautet, dass es nicht die Maschine ist, welche die moralische Entscheidung trifft, sondern der Mensch, der sie programmiert. Doch je größer die Fortschritte der Künstlichen IntelligenzIntelligenz sind, desto stärker verwischt diese Grenze. Bereits bei einem SchachprogrammSchachprogramm ist die Vorstellung inadäquat, die Entwickler hätten es mit Anweisungen ausgestattet, die unmittelbar den bestmöglichen Zug bestimmen. Das zeigt sich schon daran, dass ein solches ProgrammProgramm weit besser SchachSchachprogramm spielt als seine ProgrammiererProgrammierer, die es sicherlich nicht mit einem Schachweltmeister aufnehmen könnten.

Das Gleiche trifft in noch höherem Maß auf das Brettspiel GoGo (Brettspiel) zu. Dieses galt lange Zeit als zu komplex und kognitivkognitiv, zu [11]anspruchsvoll für ein künstliches System. Doch dem von Google DeepMindGoogle DeepMind mit den Mitteln des maschinellen LernensLernenmaschinelles entwickelten ProgrammProgramm AlphaGoGo (Brettspiel)AlphaGo gelang es 2016, einige der weltbesten Spieler zu schlagen. Ende 2017 folgte AlphaGoGo (Brettspiel)AlphaGo Zero, das im Unterschied zu AlphaGoGo (Brettspiel)AlphaGo nur mit den Spielregeln ausgestattet war, und nicht mehr anhand einer großen DatenDatenmenge menschlicher Spiele trainiert werden musste.6 Das ProgrammProgramm spielte zu Beginn lediglich Partien gegen sich selbst und erreichte so eine Spielstärke, die die alte Version in kürzester Zeit weit übertraf. Die Entwickler sehen darin den Grundstein für die Entwicklung einer allgemeinen künstlichen IntelligenzKünstliche Intelligenz (KI), die ohne menschliches Expertenwissen auskommt und in allen möglichen Bereichen einsetzbar ist.7

Beide Systeme sind menschlichen Spielern überlegen, und auch die Entwickler können nicht unmittelbar bestimmen, für welche Züge sich das System entscheiden wird. Wie wir sehen werden, ist gerade dieser Mangel an KontrolleKontrolle und VorhersehbarkeitVorhersehbarkeit für die MaschinenethikEthikMaschinenethik entscheidend.

Dieser Mangel an KontrolleKontrolle gehört zu den Gründen, aus denen eine beeindruckende Zahl von KIKünstliche Intelligenz (KI)-Forschern und Wissenschaftlern vor einiger Zeit einen offenen Brief verfasst haben, in dem die MaschinenethikEthikMaschinenethik als eines der wichtigsten und drängendsten Forschungsgebiete der KIKünstliche Intelligenz (KI) hervorgehoben wird. Zu den prominentesten Unterzeichnern gehören Nick Bostrom, Stephen Hawking, Elon Musk und Stewart Russell.8

Dieses Buch hat das Ziel, die Grundfragen der MaschinenethikEthikMaschinenethik zu thematisieren und zur kritischen ReflexionReflexion der MöglichkeitMöglichkeit und Wünschbarkeit moralisch handelnHandelnmoralischesder Maschinen anzuleiten. Es richtet sich an die Vertreter der verschiedenen Disziplinen, die an der MaschinenethikEthikMaschinenethik beteiligt sind, aber auch an eine breitere Öffentlichkeit. Denn die MaschinenethikEthikMaschinenethik geht uns alle an, weil sie die grundlegenden Fragen betrifft, wie wir uns selbst sehen und in welcher Gesellschaft wir leben [12]wollen. Um die Verständlichkeit zu erleichtern, findet sich am Ende des Buchs ein Glossar, in dem wichtige Fachbegriffe, die häufiger vorkommen, fasslich erläutert werden.

Der erste Teil entfaltet die allgemeinen theoretischen Grundlagen der MaschinenethikEthikMaschinenethik in den verschiedenen Themenbereichen. Das erste Kapitel erklärt zunächst, was künstliche IntelligenzKünstliche Intelligenz (KI) ist, und führt in die unterschiedlichen Forschungsrichtungen ein (wer sich im Bereich der KIKünstliche Intelligenz (KI) schon ein wenig auskennt, kann dieses Kapitel getrost überspringen).

Im zweiten Kapitel werden die philosophischen Implikationen dargelegt und diskutiert, wie sich die künstliche IntelligenzKünstliche Intelligenz (KI) zur menschlichen IntelligenzIntelligenz verhält. Insbesondere ist zu prüfen, inwiefern Maschinen eigentlich über Fähigkeiten wie DenkenDenken, BewusstseinBewusstsein oder EmotionenEmotionen verfügen können, die für menschliche IntelligenzIntelligenz eine wichtige Rolle spielen. (Diejenigen, die in der PhilosophiePhilosophie des GeistesGeistPhilosophie des Geistes Bescheid wissen, brauchen dieses Kapitel nur zu überfliegen. Es ganz auszulassen, ist vielleicht nicht ratsam, weil einige Weichenstellungen getroffen werden, die später Bedeutung erlangen.)

Das dritte Kapitel stellt die ethischen Grundlagen bereit. Eine allgemeine Einführung legt dar, was unter Ethik und MoralMoral zu verstehen ist. Dann werden die drei wichtigsten ethischen Theorien erläutert, die für die MaschinenethikEthikMaschinenethik maßgeblich sind: Der UtilitarismusUtilitarismus, die kantische Ethik und die TugendethikEthikTugendethik. Außerdem wird die MaschinenethikEthikMaschinenethik als eine Form der angewandten Ethik eingeordnet und ihre Beziehungen zu anderen Disziplinen wie der InformationsethikEthikInformationsethik oder der Computerethik dargestellt. Wer sich bereits mit diesen Disziplinen beschäftigt hat oder über Grundwissen der allgemeinen Ethik verfügt, braucht dieses Kapitel nicht so intensiv zu studieren. Auch dort werden allerdings gewisse moralphilosophische Vorentscheidungen getroffen, so dass möglicherweise Rückfragen entstehen, wenn man es überspringt.

[13]Der zweite Teil ist der Explikation der Grundbegriffe und Methoden der MaschinenethikEthikMaschinenethik gewidmet. Zunächst wird diskutiert, inwieweit Maschinen moralisch handelnHandelnmoralisches können. Das erste Kapitel führt eine Stufung moralischer Akteure ein. Es entfaltet einen graduellen Ansatz moralischer Handlungsfähigkeit, nach dem auch künstliche Systeme in einem funktionalenFunktion, funktional Sinn moralische Akteure sein können, wenn sie bestimmte Bedingungen erfüllen. Sie erreichen jedoch keine vollumfängliche moralische HandlungsfähigkeitAkteur (agent)moralischer A. (ethical a.): vollumfänglich m. A. (full e. a.) wie MenschenMenschen.

Das zweite Kapitel erörtert, wie moralische Fähigkeiten in eine Maschine implementiertMoralMoralimplementation werden können. Dies erfordert einen interdisziplinären Ansatz, dessen Kernbereiche PhilosophiePhilosophie und InformatikInformatik bilden. Zunächst wird die Herangehensweise an dieses Vorhaben methodologisch erklärt. Ein Blick auf die KognitionswissenschaftenKognitionswissenschaften erweist sich dabei als hilfreich. Dann werden drei konkrete Ansätze eingeführt, wie man Moral in einem künstlichen System implementieren kannMoralMoralimplementation, die jeweils eine bestimme Vorgehensweise der SoftwareentwicklungSoftwareentwicklung mit einem bestimmten Typus ethischer Ansätze verbinden: Top-Down-Top-DownAnsätze gehen von allgemeinen Regeln aus, die auf konkrete Fälle angewendet werden sollen. Bottom-Up-AnsätzeBottom-Up versuchen hingegen, auf der Grundlage von Einzelfällen zu groben Verallgemeinerungen zu gelangen, während hybrideHybrid Ansätze beide Vorgehensweisen miteinander verbinden. Welcher Ansatz vorzuziehen ist, hängt vom jeweiligen Anwendungsbereich ab.

Nachdem die Grundlagen der MoralimplementationMoralMoralimplementation erarbeitet wurden, erörtert das dritte Kapitel die Frage, wie sich das moralische HandelnGeisterweiterter Geist (extended mind) von Mensch und Maschine zueinander verhält. Wie sich bereits im ersten Kapitel dieses Teils zeigte, sind Maschinen zwar moralische Akteure, aber sie sind nicht zu vollumfänglichem moralischen HandelnHandelnvollumfänglich moralisches wie [14]MenschenMenschen in der Lage. Dazu fehlen ihnen unter anderem BewusstseinBewusstsein, WillensfreiheitWillensfreiheit und die Fähigkeit zur SelbstreflexionReflexionSelbstreflexion. Da diese Eigenschaften für die Übernahme moralischer VerantwortungVerantwortungmoralische wesentlich sind, können Maschinen auch nicht für ihr Handeln verantwortlich gemacht werden. Trotzdem ist zu diskutieren, inwiefern der Einsatz moralischer Maschinen die Verantwortungszuschreibung an Menschen unterminiert, so dass am Ende möglicherweise niemand für ihr HandelnHandeln die VerantwortungVerantwortung trägt. Diese Frage wird im dritten Teil bezogen auf die Anwendungspraxis erneut aufgegriffen.

Im dritten Teil werden drei zentrale Anwendungsbereiche der MaschinenethikEthikMaschinenethik diskutiert: Das erste Kapitel setzt sich mit Pflegesystemen auseinander, das zweite mit autonomen WaffensystemenAutonomautonomes Waffensystem und das dritte mit dem autonomen FahrenAutonomautonomes Fahren. In allen drei Bereichen wird der Entwicklungsstand der MaschinenethikEthikMaschinenethik anhand konkreter Beispiele erläutert. Daran anknüpfend werden anwendungsspezifische Herausforderungen und Probleme untersucht. Schließlich wird vor dem Hintergrund eines breiteren gesellschaftlichen KontextsKontext erwogen, ob der Einsatz von Maschinen mit MoralMoral aus einer ethischen Perspektive jeweils gutzuheißen ist oder nicht. Dabei wird ein Verständnis von angewandter EthikEthikangewandte vorausgesetzt, das nicht in einer deduktiven Anwendung von MoralMoralprinzipien auf Anwendungsbereiche besteht, sondern in der Mobilisierung moralischer Intuitionen und kontextKontextspezifischer Argumente. Dies hat den Vorteil, den fundamentalen DissensDissens zu umgehen, der im Hinblick auf die richtige allgemeine Theorie der MoralMoral besteht.

Ein wichtiges Anliegen dieses Buchs ist es, zu zeigen, dass diese Fragen nicht auf einer allgemeinen Ebene entschieden werden können, sondern nur bezogen auf spezifische Anwendungskontexte. Am positivsten stellt sich der Einsatz von Maschinen mit Moral im Bereich Pflege dar. Autonome [15]WaffensystemeAutonomautonomes Waffensystem und FahrzeugeAutonomautonomes Fahren hingegen werfen grundlegende moralische Einwände auf.

Als Ausblick wird am Ende das Verhältnis von MaschinenethikEthikMaschinenethik und SingularitätSingularität thematisiert. Dieses Kapitel habe ich hinzugefügt, weil ich in Diskussionen und Interviews immer wieder auf dieses Thema angesprochen wurde. Die SingularitätstheseSingularität behauptet, dass es in absehbarer Zeit aufgrund der Fortschritte der KIKünstliche Intelligenz (KI) Maschinen geben wird, die die MenschenMenschen an IntelligenzIntelligenz weit übertreffen. Damit sind im KontextKontext der MaschinenethikEthikMaschinenethik drei Befürchtungen verbunden: Die eine besagt, dass die Konstruktion von Maschinen mit der Fähigkeit zum moralischen HandelnHandelnmoralisches einen ersten Schritt hin zu einer solchen SuperintelligenzSuperintelligenz darstellen könnte. Die zweite Sorge besteht darin, solche superintelligenten Maschinen könnten auch moralische Ansprüche gegenüber den Menschen erheben. Drittens wird befürchtet, die Superintelligenz könnte die Herrschaft über die Menschheit übernehmen.

Wir werden die Argumente für die SingularitätstheseSingularität untersuchen und feststellen, dass es in absehbarer Zeit weder empirisch noch philosophisch Grund zur Annahme einer SuperintelligenzSuperintelligenz gibt. Der in diesem Buch verfolgte Ansatz stellt deshalb einen Mittelweg dar: Auf der einen Seite wird für die Möglichkeit argumentiert, Maschinen mit der Fähigkeit zum moralischen Entscheiden und HandelnHandelnmoralisches in einem funktionalenFunktion, funktional Sinn auszustatten. Auf der anderen Seite bedeutet das nicht, dass auch Fähigkeiten wie BewusstseinBewusstsein, WillensfreiheitWillensfreiheit oder SelbstreflexionReflexionSelbstreflexion, die für menschliche IntelligenzIntelligenz und Moralität zentral sind, auf diesem Weg reproduziert werden können. Die Arbeit an einer Ethik für MaschinenEthikMaschinenethik geht deshalb nicht zwangsläufig mit der Annahme einher, auch der Mensch sei letztlich nur eine moralische Maschine. Umgekehrt werden wir aber im Zusammenhang mit einigen Überlegungen zu der schwedischen Science-FictionScience-Fiction-Serie Real Humans feststellen, [16]dass sich echte Menschlichkeit auch und gerade im Umgang mit Maschinen niederschlägt.

Die Debatte um die SingularitätSingularität ist irreführend, weil nicht darin die größte Gefahr für die Menschheit liegt. Dieses Buch will vielmehr deutlich machen, dass Maschinen, die moralisch handelnHandelnmoralisches können, ebenso faszinierend und verlockend wie moralisch problematisch sind. Denn sie bringen grundlegende Veränderungen unseres Selbstverständnisses und unseres gesellschaftlichen Zusammenlebens mit sich. Wir sollten darüber nachdenken, ob und in welchen Bereichen wir diese Veränderungen wollen. Die Zeit drängt angesichts der Tatsache, dass längst technisch und wirtschaftlich motivierte Fakten geschaffen werden.

[17]I. Theoretische Grundlagen