Beyond Quantity
Research with Subsymbolic AI
Andreas Sudmann, Anna Echterhölter, Markus Ramsauer, Fabian Retkowski, Jens Schröter, Alexander Waibel (Hg.): Beyond Quantity: Research with Subsymbolic AI, Bielefeld (transcript) 2023
Ein transdiziplinäres Team (Informatik, Medienwissenschaft, Wissenschaftsgeschichte) legt mit Beyond Quantity einen Sammelband zum Stand von KI in der Wissenschaft vor. Er entstand aus der Eröffnungstagung der von der Volkswagenstiftung seit 2022 finanzierten Forschungsgruppe «How is AI Changing Science? Research in the Era of Learning Algorithms». Der Titel ist zielführend, verweist er doch direkt auf die Funktionalität aktueller KI, die über Probabilistik und mit Machine Learning zunehmend in qualitative Dimensionen reicht. Angesichts dieses Potenzials könnte man fragen, warum immer noch ein Mensch die Rezension herstellt. Tatsächlich behandelt ein Beitrag im Buch (Retkowski: «The current state of summarization») sogar die beindruckenden Ergebnisse von Zusammenfassungen durch KI. Die Antwort ist einfach: Anstelle summativer Auflistung der Beiträge soll diese Rezension eher eine übergreifende Betrachtung der gesamten Publikation sein, für die ich mit meiner Person (ein-)stehe. Ich sehe mich als aufmerksamen Beobachter der aktuellen Entwicklungen im Bereich KI mit Fühlern Richtung Digitalität, Epistemologie, Diskursivität, Medientheorie und Geschichte; keineswegs aber als Experten für die informatische Seite. Von dieser Prägung ist meine Bewertung getragen. Es würde der Publikation und meiner Aufgabe zudem nicht entsprechen, wollte ich jeden Aufsatz der Sammelschrift eigens behandeln. Da es sich jedoch um eine Open-Access-Publikation handelt, ermutige ich zu einem eigenen Blick auf das Inhaltsverzeichnis und die Autor*innenliste bzw. den Überblick über die Beiträge (S. 21–26). Die Rezension soll zusätzlich Querschnitte, Gemeinsamkeiten und Überlegungen zur Gesamtheit der Beiträge bereitstellen.
Der Sammelband möchte die «potenziell umfassenden Transformationen akademischer Forschung» durch den KI-Boom der letzten mehr als zehn Jahre erkunden. Gerade die Auswirkungen dieser Anwendungen auf Forschungspraktiken wurden für die Herausgeber*innen bisher zu wenig beleuchtet (vgl. S. 21). Das Vorhaben gelingt, wenngleich mit kleinen Abstrichen, die sich aber aus der Vielfalt der Forschungsdisziplinen und ihrer Vorgehensweisen ergeben. Diesbezüglich ist es ein beachtenswerter Erfolg, welche Diversität in der Zusammenstellung der Beiträge erreicht wurde. Das betrifft Disziplinen (Medien- und Kulturwissenschaften; Geistes-, Sozial-, Lebens- und Naturwissenschaften; Mathematik und Informatik) und Personen (etablierte Expert*innen bis Nachwuchswissenschaftler*innen) genauso wie Textgattungen (Thesenpapiere, Interviews, Aufsätze), die dadurch sich ergebenden Zielsetzungen (Forschungsstand, Überblick, Exploration, Schlaglicht, Handlungsempfehlungen) und in Konsequenz auch den Inhalt. Den Herausgeber*innen ist vor allem die Limitierung hinsichtlich der Gültigkeit in einem transformativen Feld bewusst, es handle sich deshalb um das sehr wichtige Erkennen, die Reflexion und historische Dokumentation dieser Transformation während ihres Entstehens (vgl. S. 16). So wird in der Einleitung auf die disziplinäre Breite hingewiesen und die Forschungslage ausgeleuchtet, zugleich werden die Beiträge als zwangsläufig «erste Explorationen» (S. 19) bewertet. Tatsächlich sind einige eher spekulativ und andere beschreiben den Status quo, weshalb auch innerhalb des Buches die Gültigkeit differiert. Die Fokussetzung auf KI in der Forschung ist über alle Beiträge hinweg unterschiedlich stark und wirkt neben manchen sehr expliziten Auseinandersetzungen teilweise nur wie eine Ergänzung.
Ein weiterer Ausgangspunkt ist die Herstellung eines inhaltlichen und begrifflichen common ground in der Einleitung und dem vorangestellten Thesenpapier. Das gelingt insofern, als dass bestehenbleibende Differenzen vor allem produktive Spannung erzeugen. Zu Beginn wird KI in zwei Bereiche aufgeteilt – symbolisch und subsymbolisch. Letzterer bezeichnet Machine-Learning-Algorithmen mithilfe von künstlichen neuronalen Netzen (artificial neural networks – ANNs), die vor allem auf Mustererkennung und statistischen Rechenprozessen beruhen. Es zeigt sich an der Stelle bereits, dass das Buch Kenntnis und Verständnis von KI voraussetzt, wobei die einzelnen Beiträge hier ein Spektrum eröffnen, das etwa durch allgemeine Betrachtungen (Ganascia, Wirth), verständliche Praxisfälle (Sonawane/Komorowski, Landeschi) Erkundungen (Breuer, Ramsauer, Pournaras) von unten her befüllt wird. Am anderen Ende stehen technische oder abstraktere Ausführungen (Biau, Ratkowski) bzw. Thesen («Preliminary Theses», Apprich, Pasquinelli, Sudmann/Schröter), die fachspezifisch oder theoretisch anspruchsvoll sind.
Die Herausgeber*innen erkennen einen klaren Zusammenhang zwischen technologischen Veränderungen und soziokulturellen Umständen. KI ist eben nicht nur ein Werkzeug, Daten sind nicht unschuldige und objektive Repräsentationen. Vielmehr sind subjektive Positionierungen in der Datenmodellierung enthalten und epistemologische Annahmen intrinsisch mit den Funktionen und Anwendungen von KI verbunden. Diese Positionen finden sich in den neun vorangestellten Thesen wieder: KI wird darin als nur wenig revolutionär bewertet (These I) und als eingebettet in Bereiche, die über das rein Technologische hinausreichen (II). Positiv wird das neue epistemologische Potenzial bei Problemen mit Lücken und Unschärfen gesehen (III) und die Möglichkeit Feedback-gestützter beschleunigter Evolution von KI-Systemen (IX). Eher neutral sind die Herausgeber*innen gegenüber den Veränderungen der Arbeitswelt eingestellt (VIII); ähnlich verhält es sich mit den entstehenden internen Trennungen von Disziplinen in einen allgemeinen und einen informatischen Teil (VI). Skeptisch sind sie bezüglich der zunehmend starken Position von Big Tech gegenüber öffentlichen Forschungsstellen (IV) und dem Mangel an KI-Expert*innen in vielen Forschungsbereichen (V). Deutlichste Kritik wird am diskriminierenden Charakter der Datensammlungen geübt (VII).
Diese Positionierungen changieren wie der gesamte Band zwischen einer allgemeinen Perspektive auf KI und einem genaueren Blick auf den Bereich der Forschung. Letzterer besitzt drei Komponenten, die am detailliertesten von Breuer ausformuliert wurden: KI als das Ergebnis bereits geschehener Forschung, als Forschungsgegenstand an sich und als angewendetes Werkzeug. Dieser Unterteilung folgend lassen sich auch die gesamten Beiträge einordnen, so etwa informationstechnologische, medientheoretische oder praxisorientierte Artikel. Angesichts des mehrfach gewählten generellen Blickwinkels hätten neben den optimistischen Entwicklungspfaden auch pessimistischere Zukunftsszenarien inkludiert werden können – zumal es sich um einen Titel aus der Reihe «KI-Kritik / AI Critique» handelt. In diese Richtung existieren etwa bereits Auseinandersetzungen mit der Verknappung von Trainingsdaten, negativen Feedbackschleifen1 oder mit der Möglichkeit, dass sich Halluzinationen niemals beseitigen lassen.2
Die 16 Beiträge – fünf davon unter Beteiligung der Herausgeber*innen – bewegen sich entlang der einführenden Positionen. Darüber hinaus gibt es bei aller Varianz einige Überschneidungen, die sich inhaltlich, an einzelnen Positionen oder sogar in direkten Verweisen niederschlagen.
Ein zentraler Zweig davon sind Einblicke in die Funktionalität und Genese subsymbolischer KI, wie etwa deren Fertigkeit im Umgang mit unscharfen Daten und Mustern. Bloch behandelt in ihrem Beitrag die Fertigkeiten subsymbolischer KI im Umgang mit Ungenauigkeiten oder Lücken im Datensatz. Das betrifft auch das Erkennen von kleinsten Strukturmerkmalen, die schlussendlich eine Ausformung der Mustererkennung sind. Weitere Ausführungen zu dieser Stärke der KI findet man bei Schabacher. Landeschi und Sonawane/Komorowski liefern schließlich konkrete Anwendungsbeispiele, in denen mithilfe von KI automatisierte Auswertungen von archäologischen Grabungen angestellt werden oder medizinische Diagnostik unterstützt wird.
Die hervorstechendste Überschneidung innerhalb der Aufsätze findet sich bei epistemologischen Inhalten. Gerade die Thesenpapiere und theoretisch fundierten Aufsätze inkludieren den Aspekt zwangsläufig alle. Der Fokus liegt dabei auf den Veränderungen in wissenschaftlichen Prozessen, die entweder der KI vorangehen und diese erst ermöglichen, wie bei Pasquinelli, oder aber umgekehrt von ihr ausgelöst bzw. perpetuiert werden, was z. B. von Sudmann/Schröter und Apprich näher betrachtet wird. Beide Positionen gehen von einer soziokulturellen Einbettung von Technologie aus – als Vorbedingung der Entstehung und in ihrer Auswirkung. Letzteres ist inklusive einer medienpraxeologischen Perspektive auch in Wirths Essay zum Interface enthalten. LLMs (Large Language Models) als epistemologischer Spezialfall hinsichtlich ihrer Bedienung in natürlicher Sprache und ihres universellen funktionellen Charakters werden ebenso behandelt, am deutlichsten im Beitrag von Pournaras.
Eine Verlängerung dieses Themas betrifft ein spezielles Charakteristikum der KI – ihre zunehmende Komplexität und Autonomie sowie in Folge die menschliche Unfähigkeit, sie zu durchblicken. Die Begriffe, anhand derer das behandelt wird, sind Black Box, Undurchsichtigkeit (opacity), Erklärungs-KIs (explainable AI / XAI) und in Erweiterung auch der Bias. Dieser inhaltliche Teilbereich findet sich beständig in den Texten wieder. Zentrales Motiv ist die zunehmende Undurchschaubarkeit einer immer umfangreicher und freier agierenden KI, etwa bei Leonelli, aber auch die Umstände davon. Das betrifft die unbeabsichtigte Subjektivierung durch die Kuratoren der Trainingsdatensätze oder das Ausgeliefertsein an eine undurchsichtige Funktionsweise in Big-Data-Forschungsdesigns.3 Die Erklärungsalgorithmen, wie sie Wirth behandelt oder Sonawane/Komorowski für den medizinischen Bereich ethisch als notwendig erachten, sollen diese Lücke schließen.
Über die Wissenschaftspraxis hinaus vertiefen vor allem Sudmann/Schröter, aber auch Krämer den in Eingangsthese II aufbereiteten soziokulturellen Hintergrund der Technologie. Weiterführend wird auch die Gegenüberstellung von KI und Konzeptionen des menschlichen Subjekts behandelt. Apprich und Ramsauer üben etwa die etablierte Kritik der Naturalisierung der KI und ihrer Ausrichtung an humaner Kognition. Einen produktiven Ausweg sehen die Autor*innen in veränderten Betrachtungsweisen. Eine ist, den Verarbeitungsmodus der ANNs als andere, eigene intellektuelle Verfasstheit zu betrachten. Ein gemeinsamer Referenzpunkt ist dabei meist die Art und Weise, wie sich die Modelle konstruieren bzw. ein Aussagensystem über die Welt erstellen und was sie dadurch vermögen. Es ist das die Form, wie im Machine Learning mit Ableitung und probabilistischer Optimierung Schlüsse gezogen werden, die nicht zuletzt für Vorhersagen eingesetzt werden können. Ein anderer Zugang ist, die Notwendigkeit menschlicher Führung der KI zu betonen. Pournaras bringt zum Beispiel die forschungsethische Perspektive mit ein, indem er zehn Handlungsempfehlungen zum Umgang mit KI in der Forschung aufstellt. Schließlich hilft auch die Dekonstruktion diskursiver Muster zu KI sowie der darum herum existierenden Deutungen und Vorstellungen.4
Leerstellen kann es in einem Sammelband ohne Vollständigkeitsanspruch eigentlich nicht geben. Man hätte dennoch vielleicht ein wenig deutlicher auf die Epistemologie der Digital Humanities (DH) eingehen können und wo diese mit dem Bereich der KI konvergieren (vgl. S. 13). In den DHs werden mit oder ohne KI schon seit Jahrzehnten Datenbestände auf eine Art bearbeitet, die erst über Algorithmen und Rechenpower möglich wurde. In Verlängerung davon ist nicht nur die Bearbeitung von Big Data und Data Science entstanden, sondern reiht sich auch der probabilistische Zugang zu subsymbolischer KI ein.5 Mitunter wären auch gewagtere Positionen zur qualitativen Seite von KI («Beyond Quantity»!) zu erwarten gewesen.
Insgesamt liegt ein gut produziertes (Softcover-)Buch mit sehr spannenden Beiträgen vor. Viele farbige Grafiken und Abbildungen reichern den Inhalt an, der Apparat ist funktional und das Buch dank der Unterstützung von Open Library Medienwissenschaft in Open Access vorliegend. Es liest sich stilistisch, bis auf einzelne, dem Genre bzw. Inhalt geschuldete Beiträge, überwiegend sehr gut. Je nach Anspruch kann der Sammelband spezifische Interessen befriedigen, historisch-vergleichende Perspektiven zum Abfassungszeitpunkt ermöglichen oder aber den Gesamtblick auf das Thema erweitern. Je nach eigener Verortung und Wissensstand ist der Wissensgewinn unterschiedlich groß. Für mich war der Inhalt mitunter erwartbar, aber dennoch aufgrund der enthaltenen Positionierungen informativ. Positiv ist die Vollständigkeit der Grundüberlegungen vom Herausgeber*innenteam zu vermerken. Persönliche Highlights waren die Gedanken zum analogen Charakter der ANNs von Sudmann/Schröter, Apprichs bestechend ausformulierte Perspektiven zur Approximation, Leonellis epistemologische Entlarvung von Reproduzierbarkeit und Krämers theoretische Dichte in einem überblicksartigen Interviewformat. Eine Leseempfehlung.
- 1
Vgl. Ilia Shumailov u.a.: The Curse of Recursion: Training on Generated Data Makes Models Forget, in: arXiv, Mai 2023, doi.org/10.48550/arXiv.2305.17493.
- 2
Vgl. Michael Townsen Hicks, James Humphries, Joe Slater: ChatGPT Is Bullshit, in: Ethics and Information Technology, Bd. 26, 2024, doi.org/10.1007/s10676-024-09775-5.
- 3
In unterschiedlicher Schwerpunktsetzung und Integration wird das in den «Preliminary Theses» sowie bei Apprich, Breuer, Leonelli, Purnaras, Schabacher, Wirth, Bloch und Sonawane/Komorowski behandelt.
- 4
Unterschiedliche Ideen, wie eine subsymbolische künstliche Intelligenz zu konzipieren ist, liefern Apprich, Ganascia (S. 116–117), Pasquinelli (S. 76), Ramsauer, Sudmann/Schröter (S. 249–250). Dass KI den Menschen und seine Fähigkeiten ergänzen, aber nicht ersetzen, wird in der Einleitung betont sowie bei Ganascia und Sonome/Komorowski. Die diskursive Kritik üben zusätzlich Krämer (S. 348–349), Schabacher und Sudmann/Schröter.
- 5
Vgl. Axel Gelfert: Gesellschaftliche Erwartungen an ‹Big Data› in der Wissenschaft: Zur Mär vom ‹Ende der Theorie›, in: Nicola Mößner, Klaus Erlach (Hg.): Kalibrierung der Wissenschaft. Auswirkungen der Digitalisierung auf die wissenschaftliche Erkenntnis, Bielefeld 2022, 23–42, doi.org/10.14361/9783839462102-002.
Bevorzugte Zitationsweise
Die Open-Access-Veröffentlichung erfolgt unter der Creative Commons-Lizenz CC BY-SA 4.0 DE.