Philosophie

„Die KI ist fehleranfällig“

Von den so naheliegenden Wortspielen mit den Gegenteilspaaren künstlich/natürlich bzw. Intelligenz/Dummheit ist mir die Version des so geschätzten Formulierungskünstlers aus der Wiener Medienszene, Dieter Chmelar, die liebste: „Viel gefährlicher als künstliche Intelligenz ist natürliche Dummheit“, setzte er in X, früher Twitter, Medium des modernen Aphorismus, aber nur dann, wenn dort nicht natürliche (=menschliche) Dummheit den Hass anheizt wie sonst kaum in einem anderen der sogenannten sozialen Medien. Das mag am Eigentümer liegen, auch; natürlich lebt es aus der Masse, die sich da nicht selbst kontrollieren kann oder will.

Zu einem großen Versuch von Selbstkontrolle lud Österreich in der vergangenen Woche Menschen, die Staaten und Non-Governmental Organizations (NGO) vertreten, nach Wien. Ziel war es, Regeln für „Killerroboter“ aufzustellen und mich irritiert da gleich einmal das „für“ der offiziellen Diktion, ich würde eher „gegen“ verwenden. Es ging um ein demonstratives Moment gegen jene Player auf dieser Welt, die sich hier strengeren Vorgaben verwehren wollen. Eine Information zu einem wie auch immer gestalteten Ergebnis der Konferenz fand ich bislang nicht.

Ich saß also im Auto, fuhr über die oberösterreichische Traun-Enns-Platte und die quäkende Stimme des Nachrichtensprechers (die sprechtechnisch immer schlechter ausgebildet sind) aus dem Radio, die drei Sätze für diese Konferenz übrig hatte, ließ all die Welt jener Science-Fiction-Filme in meinem Kopf anspringen, in denen die Maschine „autonom“ so viel Macht an- und übernimmt, dass sie zum Schiedsrichter über Leben und Tod von Menschen wird.

Anscheinend platzen all diese Fantasien wie schillernde Seifenblasen uns immer auch ein wenig gruselnder Unterhaltung mit Nervenkitzel, denn was gegenwärtig möglich ist, und die Menschheit scheint weiterhin natürlich dumm genug zu sein, diesen Weg zu beschreiten, macht ja „Terminator“ & Co. zu harmlosen Märchenfiguren, die am Laptop, Tablet, Smartphone angesehen für ruhiges Einschlafen unserer nächsten Generationen Kinder sorgen.

Im umfassenden Interview auf derstandard.at mit dem österreichischen Außenminister Alexander Schallenberg zur Konferenz fiel seinerseits, meiner Beobachtung nach bisher sehr allein, der erkenntnisreiche Satz, dass „wir alle wissen, wie fehleranfällig die KI ist.“ Von diesem Zu- und Eingeständnis würden wir profitieren, wenn der IT-Eifer im Programmieren der Maschinen auch zu einem „eigenständigen“ Lernen nicht nur als technologische, sondern als vielschichtige Herausforderung begriffen wird, die das gesamte Bündel der Wissenschaften auf den Plan ruft. Nicht alles, was programmierbar ist, bringt die damit verbundenen Fragestellungen zugleich in trockene Tücher allseits gültiger und anerkannter Antworten.

Ein sehr guter Freund von mir, Thomas Duschlbauer, legte vor wenigen Tagen eine wissenschaftliche Untersuchung zu einem sehr wesentlichen Aspekt unserer Gesellschaft in ihrem gegenwärtigen Aggregatszustand vor. Sein Buch trägt den Titel „Affective and Artificial Intelligence. The Organization in Times of Mannerist Discourse“ (Nomos Verlag, #notspons), hier nur ein kurzer Auszug aus dem deutschsprachigen Klappentext: „Was […] bedeutet es, wenn unsere KI-Anwendungen nicht nur mit Vorurteilen gefüttert, sondern auch mit einer Weltsicht versehen werden, die zunehmend auf Affekten statt auf rationalen Überlegungen beruht?“ Das ist eine der wichtigsten Fragen überhaupt. Darum werde ich sein Buch kaufen und studieren, mich mit Thomas treffen, diskutieren und über unsere gemeinsamen Weltrettungskonzepte (ironischer Anspruch an uns!) gegebenenfalls hier berichten.

Foto: Pexels/Free Photo Library

3 replies »

Hinterlasse einen Kommentar