Schienen

AI… und nun? Enttäuschung als Chance. Ein kritischer Blick auf das techno-soziale Amalgam

Seit nunmehr einem Vierteljahr vergeht kaum ein Tag ohne eine Newsstory, die sich entweder an den Segnungen oder den Risiken von Artificial Intelligence (AI) abarbeitet. Dass jede Aufregung – ob nun in die eine, oder aber in die andere Richtung – regelrecht töricht ist, das soll der folgende Artikel zum Ausdruck bringen. Nur so viel vorab: sowohl menschliche Kompetenz als auch entsprechende Unzulänglichkeiten werden weitgehend unerreicht bleiben. And we think that’s beautiful!

ChatGPT erfreut sich massiver Beliebtheit unter ganz verschiedenen Bevölkerungsgruppen: Schüler:innen und Studierende sehen die Möglichkeit gekommen, sich von einem überkommenen preußischen Fleißideal zu emanzipieren, Berufskreative und Mitarbeitende aus dem Marketing lassen sich bei der Findung cleverer Slogans unter die Arme greifen, oder generieren gleich ganze Textblöcke, die sich auf den ersten Blick lesen, als stammten sie aus kompetenter Feder und sogar Programmierer:innen beginnen ihren Arbeitsalltag zusehends durch die Nutzung von AI-basierten Assistenten aufzulockern. Je nach persönlicher Einstellung gegenüber technologischen Neuerungen, Traditionsbewusstsein und/oder sozioökonomischem Status reihen sich die Haltungen gegenüber künstlicher Intelligenz in ein Kontinuum zwischen „Allheilmittel“ auf der einen Seite und einer generellen „Dämonie“ technischer Aktanten auf der anderen Seite. Die Angst vor einer Übernahme von als gemeinhin genuin menschlich geltender Domänen durch technologische Entitäten ist derweil alles andere als neu. Bereits im Jahr 1952 schrieb Rolf Strehl in seinem populärwissenschaftlichen Buch Die Roboter sind unter uns folgende Zeilen: „Wir müssen uns darüber klar werden, daß die elektronischen Gehirne von heute wahrscheinlich erst das embryonale Stadium einer Entwicklung erreicht haben, in der Technik – die bisher ausschließlich eine materielle Oberflächenerscheinung gewesen ist – zum erstenmal [sic!] in die tieferen, nicht mehr direkt greifbaren Schichten menschlicher Seinsverhältnisse eindringt.“

 

Dabei ist sowohl die initiale lustvolle Hinwendung zur AI als auch die sich einstellende Faszination erst einmal völlig verständlich – es wäre im Gegenteil recht seltsam, staunte man angesichts der ausgespuckten kohärenten Sätze und der schieren Fülle an vermeintlich dichter Information überhaupt nicht. Das Problem mit der künstlichen Intelligenz taucht viel mehr genau dann auf, wenn der Spieltrieb nachlässt und man geneigt ist, ihr ernsthafte Aufgaben zu übertragen, den Ergebnissen dann vielleicht sogar ungeprüft vertraut. Menschen bedienen sich der Hilfe künstlicher Intelligenz meist genau dann, wenn sie sich selbst vorab nicht eingehend informiert haben, bzw. es effektiv an Zeit mangelt, dies zu tun. Genau ein solches Vorgehen ist allerdings fatal! Denn wenngleich nahezu alles, was chatGPT & co. an Texten produzieren, formal korrekt daherkommt und sich außerdem weitgehend angenehm lesen lässt, gehört doch auch zur Wahrheit, dass sich viele Informationen bei genauer Prüfung durch eine:n menschliche:n Nutzer:in als verkürzt oder schlichtweg falsch herausstellen. Dabei ist die künstliche Intelligenz generell gesprochen lediglich ein Spiegel der mit ihr Interagierenden: mit jeder Anfrage lernt sie etwas dazu, d.h. sie ergänzt kontinuierlich ihr Wissensrepertoire, füllt Leerstellen und zieht Verknüpfungen zwischen entlegenen Teilbereichen. Dass solche Verbindungen auch in falscher Manier gezogen werden können, davon kann so ziemlich jeder Mensch ein Lied singen: Missverständnisse gehören zur menschlichen Realität, können mitunter gar als regelrecht produktiv in Erscheinung treten! Bezüglich einer vermeintlich allwissenden Entität, die allzu häufig als Tool herhalten muss, kann ein solches Missverstehen allerdings fatale Folgen haben, gerade dann, wenn der Ton keinen Zweifel aufkommen lässt. So erhebt chatGPT, gefragt nach einer chronologischen Aufzählung aller Verteidigungsminister der BRD, nach Christine Lambrecht allen Ernstes Olaf Scholz in dieses Amt. Das Ganze geschieht allerdings keineswegs verhalten, sondern vielmehr im metaphorischen Brustton der Überzeugung. Nun liegt der Fehler in diesem Fall in der relativen Veraltung des Trainingsdatensatzes begründet: nach 2021 fehlt chatGPT schlicht und ergreifend die kohärente Datengrundlage für tagesaktuelle Informationen. Dabei scheint der Algorithmus zwar über Informationen zu verfügen, die über 2021 hinausgehen – Christine Lambrecht wurde erst zu Beginn des Jahres 2023 von Boris Pistorius abgelöst – allerdings ist hier keinerlei Zeichen von Zweifel zu erkennen. Gerade in der schnelllebigen Welt von heute, ist solch ein objektives Wissensdefizit kaum zu rechtfertigen, oder würdet ihr einem gerade aus dem Koma erwachten Nobelpreisträger nach der Bewertung aktueller Ereignisse fragen? Wahrscheinlich nicht. So gestehen selbst die Schöpfer:innen des GPT-Frameworks ein, dass die von ihnen geschaffene AI eklatante Mängel aufweist: „it still is not fully reliable (it ‚hallucinates‘ facts and makes reasoning errors)“. Wo das OpenAI-Consortium allerdings optimistisch ist, einen ultimativen Grad an Perfektion zu erreichen, stellt sich für skeptische Zeitgenoss:innen hingegen die Frage, was denn überhaupt das Ziel sein soll; eine AI, die menschlich wirkt und gleichsam zuverlässig wie ein Uhrwerk korrekte Informationen hervorbringt ist schon alleine deshalb undenkbar, weil es keine objektive, von menschlichen Wesen und ihren defizitären Wahrnehmungen unabhängige Realität gibt! Entsprechend der Phänomenologie, die die Welt-für-sich für eine gefährliche Illusion hält, ließe sich festhalten, dass auch eine AI wie sie hinter chatGPT steckt, einen menschlichen, ja geradezu allzu menschlichen Kern besitzt.

 

Die Zukunft des Umgangs mit AI liegt somit viel eher in einer spielerischen Verfahrensweise, die potenziellen Expert:innen teilweise überraschendes Feedback zu liefern im Stande ist. So können sich etwa Programmierer:innen von Tools wie copilot – der Name ist Programm – assistieren lassen, die qualitätssichernde Endevaluation obliegt aber stets menschlichen Expert:innen. Es wäre nachgerade fatal, ließe man die Leerstellen im eigenen Wissensschatz von einer AI füllen, oder – Gott bewahre – gar menschliche Arbeitskraft gänzlich von einer solchen ersetzen. Die kleinen Fehler oder wurmfortsatzähnliche Residuen, die bei der Produktion mittels AI in Erscheinung treten, mögen für sich genommen gar nicht stark ins Gewicht fallen, langfristig gesehen sorgen sie für mehr Schwierigkeiten als sie kurzfristige Erleichterung versprechen. Da Arbeit kein Selbstzweck ist, sondern letztlich immer den Menschen im Fokus hat, ist ein Taschenspielertrick wie die generelle AI eine regelrechte Nebelkerze, die mehr von einem astreinen „Gottkomplex“ der Tech-Branche zeugt als von der Idee einer wohlwollenden Entlastung menschlicher Wesen.

 

Es mag zunächst verlockend klingen simple Aufgaben an technologische Akteure zu delegieren, allerdings wäre eine Welt, in der Algorithmen Content in erster Linie für Algorithmen kreierten ein ziemlich tumbes Dystopia der Präemption.

 

Unterdessen muss die Annahme der menschliche Wahrnehmungsapparat ließe sich – mir nichts, dir nichts – überwinden als regelrecht einfältig zurückgewiesen werden. Schließlich werden vermeintliche Antworten von technologischen Akteuren so geliefert, dass sie sich der sozialen Welt nahezu anschmiegen. Die Mimikry der Technologie ist rührend und beschämend zugleich. Ebenso fahrlässig ist es hingegen anzunehmen, Mensch und Technik seien inhärent verschieden voneinander, wiesen keinerlei Berührungspunkte außerhalb einer gerichtet-funktionalen Beziehung zwischen Benutzer:in und Benutztem auf. Das techno-soziale Amalgam dieser unserer Tage sorgt dafür, dass wir in jedem Quäntchen Technologie den Menschen erkennen können und umgekehrt ein explizit technologischer Bezug im Menschlichen durchscheint. Eine Betrachtung dieses Sachverhalts unter expliziter Bezugnahme auf die Akteur-Netzwerk Theorie verspricht Licht ins Dunkel zu bringen: soziale Welt und Technosphäre sind überaus eng miteinander verwoben, sie akribisch voneinander zu trennen ist weder möglich noch wünschenswert. Wie Bruno Latour es 1991 bereits programmatisch formulierte, sind wir nie modern gewesen und werden es auch nie sein: es ist und bleibt unmöglich eine klare Trennungslinie zwischen Natur und Kultur, zwischen Technosphäre und sozialer Welt, zwischen reiner Wissenschaft und dezentem (Aber-) Glauben zuziehen. Dieser Umstand ist keineswegs zu bedauern, sondern im Gegenteil ein Grund zum Aufatmen! Ein Hoch auf die asymmetrische Solidarität!

 

Der überbordenden Technokratie, einer fundamental präemptiven und damit sinnentleerten Welt der Algorithmen, gilt es unterdessen ebenso beherzt entgegenzutreten, wie einer pauschalen „Ablehnung der en bloc wahrgenommenen Techniken“ (Gilbert Simondon).

Diesem abschließenden Appell des Autors, der sich zugegebener Maßen dezent pathetisch ausnimmt, darf freilich jederzeit widersprochen werden. Wir befinden uns heute in einer Situation, die viel eher einer mäandernden Randonné denn einem klaren Trajectory gleicht. Es kommt darauf an, wie wir unseren Umgang mit den sich bietenden Möglichkeiten nachhaltig ausgestalten, ob wir uns in die geistlose Abhängigkeit manövrieren, oder aber in nicht minder kritischer Fundamentalopposition verharren. Lasst uns kontrovers diskutieren, das Zaudern zu einer tugendhaften Alternative erheben und scharfe Kritik nicht zwangsläufig mit grundlegender Fortschrittsverweigerung gleichsetzen!

Photo by DeepMind on Unsplash
Teilen
LinkedIn Logo
LinkedIn Logo
LinkedIn Logo
Assecor Linkedin - IT Unternehmen aus Berlin
Assecor Kontakt - IT Dienstleister aus Berlin
Assecor Kontakt - IT Dienstleister aus Berlin