Responsible KI

KI first, Bedenken second

Wir beginnen erst zu erahnen, was der gewaltige Innovationsschub durch KI-Anwendungen wie ChatGPT für Mensch und Gesellschaft bedeutet. Längst sind es nicht mehr allein die üblichen Technikphobiker, die warnen, sondern das Silicon Valley selbst. Und das aus guten Gründen.

Von Prof. Roberto Simanowski 06.06.2023

© Xeniya Udod Femagora / Getty Images

Neue Früchte ernten mithilfe von künstlicher Intelligenz: Seit sie live sind, experimentiert alle Welt mit KI-Anwendungen wie ChatGPT und ist gleichermaßen fasziniert wie begeistert, was diese Tools vermögen.

Alle Welt steht Kopf wegen ChatGPT: die Lehrer und Professoren, die das Ende der Hausarbeiten ausrufen. Die Künstler und Kreativen, die sich um ihre Arbeit betrogen fühlen. Die Juristen, die das Copyright neu bestimmen müssen. Die Politiker, die eine Welle von Deepfakes befürchten. Und die Wirtschaftsführer sowieso, da sie sich von der KI die Optimierung von Prozessen erhoffen.

Inzwischen hat die Erregungswelle auch Brüssel erreicht. In ihren jüngsten Entwurf zur lange vorbereiteten KI-Verordnung (AI Act) will die EU vor der Verabschiedung erst noch Chatbots und generative KI als Risikotechnologien aufnehmen und fordert unter anderem, dass jede KI-Entscheidung am Ende durch einen Menschen autorisiert wird und jeder KI-Text als solcher erkennbar ist. Das lässt sich nicht nur technisch und juristisch schwer umsetzen. Zweifelhaft ist vor allem die Unterstellung, dass erstens der Mensch weniger vorurteilsbelastet sei als die Kl und zweitens hinlänglich nachzuvollziehen wäre, wie die KI zu ihren Entscheidungen kam. Die Vorgabe, der Mensch müsse das letzte Wort haben und sei daher auch für die Folgen eines KI-Einsatzes verantwortlich, verkennt das Hauptmerkmal der Technologie, um die es hier geht: klüger zu sein als ihre Erfinder.

Der Widerstand gegen die Vorschläge der KI-Verordnung kommt im EU-Parlament aus verschiedenen Lagern. Die einen wenden sich gegen biometrische Massenüberwachung durch Emotionsanalyse, die anderen beklagen, dass die EU mit ihren strengen Bestimmungen zukunftsträchtige Anwendungen von KI-Technologien sabotiert und so die Abhängigkeit von den USA und China verstärkt. Das übliche Gerangel also zwischen Datenschützern und Wirtschaftsfraktion, Ethik und Ökonomie.

Jedes Medium hat eine Eigendynamik

Die IT-Unternehmen selbst sehen die Verantwortung wie üblich auf der Anwenderseite. Nach dem Motto: Technik ist neutral, es kommt darauf an, was der Mensch mit ihr macht. Aus medienwissenschaftlicher Sicht stimmt das nicht ganz, demnach besitzt vielmehr jedes Medium eine Eigendynamik, die die Situation des Menschen in einer Art verändert, die seinem unmittelbaren Gebrauch zunächst nicht abzulesen ist.

„Jedes Medium hat die Macht, seine eigenen Postulate dem Ahnungslosen aufzuzwingen“,konstatierte der Medienwissenschaftler Marshall McLuhan bereits 1964 in seinem berühmten Werk „Das Medium ist die Botschaft“. So führt die Schrift zur Schwächung des Erinnerungsvermögens, das Auto durch den Individualverkehr zur Entwicklung der Vorstädte und das Internet durch den aufmerksamkeitsökonomischen Konkurrenzkampf zu einer aufgepeitschten Kommunikationskultur.

Aufgabe der Medienwissenschaft ist es, diese Eigendynamiken rechtzeitig zu erkunden und gerade jenen Losungen zu widerstehen, die Facebook – dieses traurige Beispiel unerwarteter Nebenfolgen – einst als Arbeitsprinzip ausgab: „Move fast and break things“, beziehungsweise mit denen die FDP 2017 in den Wahlkampf zog: „Digital First, Bedenken Second“.

Outsourcing von Kreativität

Diese Skepsis und dieses Abbremsenwollen lassen sich nicht als die übliche Technikangst der Geisteswissenschaftler abtun, wenn zu den vermeintlichen Spielverderbern selbst namhafte KI-Entwickler und IT-Unternehmer gehören. So warnt der offene Brief
„Pause Giant AI Experiments“ vom 29. März vor einem unkontrollierten Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer KI, „die niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren kann“. Dass der Brief eine sechsmonatige Pause fordert, damit die Politik mit den nötigen Regulationen hinterherkommt, rechtfertigt nicht zuletzt auch den Entscheid der EU, ihre KI-Verordnung vor der Verabschiedung zu aktualisieren.

Die meisten Probleme, die im Kontext von ChatGPT und GPT-4 diskutiert werden, sind Anpassungsprobleme der Gesellschaft an die neue Technologie: Copyright, Plagiarismus, Deepfakes, Datenschutz, die Zukunft der Arbeit oder der Hausaufgabe. All diese Probleme sind von der Gesellschaft zu lösen, wobei neben der Wirtschaft vor allem das Rechts- und das Bildungswesen gefordert sind. Andere Probleme sind dem Produkt KI inhärent. Zum Beispiel der befürchtete Verlust kognitiver Fähigkeiten, wenn
kognitive Tätigkeiten zunehmend an die KI delegiert werden. Der Taschenrechner hat das Kopfrechnen bekanntlich nicht verbessert und das Navi nicht unser Orientierungsvermögen.

Die Optimisten betonen, dass die KI uns ja nicht wirklich das Schreiben abnehme, sondern nur die nötigen Fakten und Argumente heraussuche und vorstrukturiere. Was wir damit machen, liege ganz an uns. Da ist es wieder, das Argument von der Neutralität der Technik. Und es stimmt ja: Niemand zwingt uns, den Vorschlag der KI zu übernehmen. So wie uns auch niemand zwingt, unsere realen Erlebnisse immer gleich in sozialen Netzwerken zu teilen. Aber warum sollten wir den passabel klingenden Text von
ChatGPT nachträglich umschreiben? Zumal wenn man für die Textproduktion künftig so wenig Zeit einplant wie heutzutage für das Studium der Reiseroute vor der Abfahrt. Unsere Kreativität wird sich auf entsprechende Prompts beschränken: Diskutiere das Für und Wider der Ehe in Reimform und ende mit einer ironischen Pointe. Der User muss dazu weder reimen können noch zur Ironie fähig sein. Er muss nur wissen, dass es beides gibt.

Export von Vorurteilen

Die „Botschaft“ der KI besteht jedoch nicht nur in der Auslagerung kreativer Prozesse, sie liegt auch im Output selbst, der bekanntlich von den Daten abhängt, mit denen die KI trainiert wurde. Woher genau diese kommen, ist größtenteils ungewiss. Deswegen sah Googles KI-Chef John Giannandrea in einem schon 2017 im MIT Technology Review veröffentlichten Beitrag „Forget Killer Robots – Bias Is the Real AI Danger“ die eigentliche Sicherheitsfrage der KI nicht in superintelligenten Killerrobotern, sondern in den unterschwelligen Vorurteilen der KI.

Ein berühmtes Beispiel dafür ist die Zusammenfassung einer australischen Gesetzesvorlage für schärfere Waffengesetze durch die vor allem an amerikanischen Daten trainierten KI GPT-3, die – entgegen dem Geist des Entwurfs, aber ganz im Sinne des zweiten Zusatzartikels der US-Verfassung – auf dem Recht auf Selbstverteidigung bestand. Der Fachartikel, der diese Verzerrung berichtet, trägt den Titel: „Der Geist in der Maschine hat einen amerikanischen Akzent“. Dass dieser Akzent kaum zu hören ist, gehört zu den strukturellen Problemen jeder Sprach-KI und zu ihrer beunruhigenden Unheimlichkeit: Wir wissen nicht, wessen Geistes Kind GPT ist, der unsere Fragen beantwortet und unsere Texte schreibt.

Allerdings wäre das Problem auch dann nicht gelöst, wenn die Trainingsdaten so organisiert werden könnten, dass sie einen gerechten Querschnitt des Denkens der gesamten Menschheit abbildeten. Eine streng probabilistisch operierende KI nimmt die Perspektive ein, die in den Daten die Mehrheit repräsentiert. Das wäre zwar gerecht im statistischen Sinne, liefe jedoch auf eine Mainstreamkultur hinaus, die dem ungewöhnlichen, abwegigen, aber eben auch innovativen Denken abträglich ist. Und wer sagt, dass die Wertvorstellungen der Mehrheit bezüglich Waffengesetzen, Abtreibung, Meinungsfreiheit etc. tatsächlich so sinnvoll oder moralisch sind, dass sie für alle gelten sollen? Wessen Werte soll die KI also vertreten? Oder soll am Ende nicht nur jede Gesellschaft, sondern jedes Individuum eine mit den eigenen Werten ausgestattete KI haben, wie OpenAI-CEO Sam Altman vorschlägt? Was würde diese Ausweitung der Filterblase für die Zukunft der Kommunikation bedeuten?

Der Mensch absorbiert das Denken der KI

Allerdings ist nicht einmal gesichert, dass die KI am Ende wirklich die Wertvorstellungen der Mehrzahl der Menschheit vertritt, da sie zunehmend mit ihren eigenen Texten gefüttert wird. Dieser „Dateninzest“ führt zu einer Verfestigung des Mainstreams, gegen den irgendwann selbst die Mehrzahl der Menschheit nicht mehr ankommt. Das wäre ein Paradigmenwechsel, der im aktuellen Hype bisher kaum Beachtung findet: Wenn nicht mehr die KI den Menschen in ihrem „Denken“ absorbiert, sondern der Mensch die KI.

Spätestens hier wird klar: Die KI stellt uns vor dringlichere Probleme als Copyright und Plagiarismus, auch wenn sie in der aktuellen Aufbruchsstimmung noch kaum sichtbar sind. Doch es wäre wichtig, sie schon jetzt mitzudenken.

Prof. Dr. Roberto Simanowski ist Kultur- und Medienphilosoph sowie seit 2020 Distinguished Fellow of Global Literary Studies im Excellence Cluster „Temporal Communities“ an der Freien Universität Berlin. Er ist Autor zahlreicher Bücher zum Thema Digitalisierung, darunter „Todes algorithmus. Das Dilemma künstlicher Intelligenz“, für das Simanowski 2020 den Tractatus-Preis für philosophische Essayistik erhielt.

Todesalgorithmus - Das Dilemma der Künstlichen Intelligenz: Das dystopische Versprechen der Künstlichen Intelligenz ist die Heimkehr in ein Paradies, in dem unsere eigene Schöpfung unser Gott ist und uns das Erkennen und Entscheiden abnimmt. Passagen Verlag, 2021, 20,50 Euro

Schlagworte: Digitalisierung, Roboter, Automatisierung, Künstliche Intelligenz, Algorithmus

Kommentare

Ihr Kommentar