Talk von Prof. Jan Söffner

Welche Auswirkungen hat künstliche Intelligenz auf die Wissenschaft?

Text und KI-Bilder von Fabio Sommer
23.11.2023
  •  
     
    Hä...?
    Haben Sie Fragen zum Beitrag? Haben Sie Anregungen, die Berücksichtigung finden sollten?
    Hier haben Sie die Möglichkeit, sich an die Redaktion und die Forschenden im Beitrag zu wenden.
  •  
    Teilen

Über die rasante Entwicklung von künstlicher Intelligenz

 
Es sei klar, dass GPT-4 nicht der letzte Schritt in der Entwicklung künstlicher Intelligenz sein werde, so Söffner in seiner Einführung. Deshalb fordern einige Expertinnen und Experten eine sechsmonatige Trainingspause für Modelle, die besser sind als GPT-4, um der Gesellschaft Zeit zu geben, sich an die rasanten Fortschritte der letzten Monate anzupassen. 


Söffner meint dazu, dass sich die Entwicklung aus zwei Gründen ohnehin erst einmal verlangsamen wird: Zum einen werden die Daten langsam knapp, denn „das Internet ist zu klein“, so Söffner. Der bisherige Fortschritt bei den Large Language Models (LLMs) war vor allem darauf zurückzuführen, dass die Modelle einfach größer wurden. Sowohl GPT-3 als auch GPT-4 enthalten fast das gesamte Internet. Es müssen also Wege gefunden werden, K.I. noch besser zu machen, die nicht auf der bloßen Zunahme von Daten beruhen. 


Das führt zum zweiten Grund: „Die Innovation hinter GPT-4 ist nicht so groß, wie man denkt“, sagt Söffner. Denn dahinter steckt die gleiche Technologie wie bei allen anderen LLMs. Eine Position, die auch OpenAI-CEO Sam Altman vor der Veröffentlichung des neuesten Modells vertrat: „People are begging to be disappointed and they will be. The hype is just like... We don’t have actual AGI and that’s sort of what’s expected of us“, sagte er in einem Interview mit StrictlyVC vor der Veröffentlichung von GPT-4.

Über die Automatisierung

Unabhängig von der Geschwindigkeit der Entwicklung ist eines klar: K.I. ist eine Technologie, die bleiben und unsere Gesellschaft grundlegend verändern wird. Einer der Gründe dafür ist das enorme Automatisierungspotenzial der Künstlichen Intelligenz. Wie so oft hat dies zwei Seiten: Einerseits werden einige Jobs vollständig automatisierbar und damit ersetzbar sein. Andererseits fällt bei den nicht ersetzbaren Jobs der langweilige Teil, die Routinetätigkeit, weg und es bleibt mehr Raum für das wirklich Spannende. 


Problematisch wird es, wenn K.I. auch das ersetzen kann, was wir selbst als spannend empfinden. „Die K.I.-Automatisierung ist nun quasi der ‚Ausgleich’ für die Gesellschaftsschichten, die sich bis jetzt sicher gefühlt haben“, sagt Söffner. Was die maschinelle Automatisierung für die Menschen in den Fabriken war, ist die K.I.-Automatisierung für die Menschen an den Schreibtischen.

Jan Söffner, wie KI ihn modifiziert hat
Jan Söffner, wie KI ihn modifiziert hat

LLM = Large Language Model oder auch großes Sprachmodell

Über die Funktion eines LLM

Das Bizarre daran ist, dass die Technologie hinter dem, was wir heute als „künstliche Intelligenz“ bezeichnen, nach menschlichem Verständnis gar nicht intelligent ist. Dahinter verbirgt sich ein mehrschichtiges neuronales Netzwerk, das den Input über eine Reihe von Enkodern und Dekodern verarbeitet. Dabei operiert die K.I. in Wortfeldern, die nach bloßen Wahrscheinlichkeiten ausgewählt werden, erklärt Söffner. Der Output der K.I. ist also nicht das Ergebnis eines intelligenten, bewussten Denkprozesses, sondern bloße mathematische Wahrscheinlichkeit.

An diese Erkenntnis knüpft Söffner zwei Überlegungen: Erstens ist das eine sehr schlechte Nachricht für unsere ‚tiefgründigen‘ Gedanken, die der menschliche Intellekt hervorbringt. GPT-4 kann sie erstaunlich gut nachahmen. Das liegt laut Söffner daran, dass wir uns so sehr an unser sprachliches Korsett gewöhnt haben, dass wir immer wieder die gleichen Sätze bilden und daher von K.I. leicht imitiert werden können. Gleichzeitig weiß die Software nicht, was sie sagt, weil sie kein Bewusstsein hat, sagt Söffner. Damit habe sie auch kein eigenes Wahrheitsempfinden, was Söffner zum nächsten Abschnitt seines Vortrags führt.

Über das Wahre

Bevor das Internet zur Datenbasis heutiger LLMs wurde, habe es zu einem „Mainstreaming der Wahrheit“ geführt, sagt Söffner. Ein Mainstreaming, dem sich auch der moderne Wissenschaftsbetrieb nicht immer entziehen konnte. Denn, so Söffner, die Aufgabe der Wissenschaft sei es gerade nicht, diese Mehrheit „nachzuplappern“. 


ChatGPT hingegen verfolge das Ziel, sich einer Situation immer möglichst galant zu entziehen - egal, was wahr ist. Also genau das zu tun, was Harry Frankfurt ‚Bullshitten’ nennt: „Gerade in dieser fehlenden Verbindung zur Wahrheit – in dieser Gleichgültigkeit, wie die Dinge wirklich sind – liegt meines Erachtens das Wesen des Bullshit“, schreibt er in seinem gleichnamigen Buch. „GPT zeigt, wie weit man in den Wissenschaften mit Bullshit kommt“, stellt Söffner dazu fest. Was bedeutet es also, wenn künstliche Intelligenz den modernen Wissenschaftsbetrieb simulieren kann?

Söffner antwortet: "Wissenschaft sollte das sagen, was GPT niemals sagen würde, aber trotzdem plausibel ist“. Mit Heidegger gesprochen: Unser Denken sollte das sein, was das Dasein zur Erscheinung bringt und damit der Welt, die uns begegnet, eine Ordnung gibt, die wir verstehen. Wenn uns die Künstliche Intelligenz also eines vor Augen führt, dann das: „Wir können ohne Bewusstsein das produzieren, was wir durch den ‚gesicherten Gang’ der Wissenschaft ohnehin schon produziert haben“, so Söffner.

War Sokrates Lehrkraft an der ZU? Die KI kann es sich vorstellen
War Sokrates Lehrkraft an der ZU? Die KI kann es sich vorstellen

Was bedeutet das für uns?

Was wir deshalb mehr denn je brauchen, sind „die schrägen Gedanken, die schrägen Vögel“, sagt Söffner. „Ein Wittgenstein oder Sokrates würden niemals eine Stelle an einer modernen Universität bekommen.“ Doch genau diese Charaktere wird die Künstliche Intelligenz nie ersetzen können. Denn „Computer werden keine Form von Bewusstsein oder Dasein entwickeln“, ist sich Söffner sicher. Aber sie werden es in Zukunft immer besser simulieren und diese Simulation selbst verbessern können. Umso mehr müssen wir uns fragen, was wir derzeit mit unserem menschlichen Bewusstsein machen. 


Denn das große Automatisierungspotenzial von Routineaufgaben bis hin zu ‚tiefgründigen‘ Gedanken durch K.I. zeige: „Es gibt nur noch wenige Stellen in der modernen Welt, an denen wir Bewusstsein wirklich brauchen“, so Söffner.

Und was bedeutet das für die Zukunft der Universität? „Wir müssen die Uni so bauen, dass sie GPT-Ergebnisse nicht zum Ziel machen, sondern bloß voraussetzen“. Die Traumuniversität von Jan Söffner ist also diejenige, in der wir „den langweiligen Part ganz der künstlichen Intelligenz überlassen“.

0
0
 
Leserbrief

Haben Sie Anmerkungen zum Beitrag?
Ihre Sichtweise ist uns wichtig! Der Leserbrief gelangt direkt in die Redaktion und wird nach Prüfung veröffentlicht.
Vielen Dank für Ihr Verständnis!

Antwort auf:  Direkt auf das Thema antworten

 
Zeit, um zu entscheiden

Diese Webseite verwendet externe Medien, wie z.B. Videos und externe Analysewerkzeuge, welche alle dazu genutzt werden können, Daten über Ihr Verhalten zu sammeln. Dabei werden auch Cookies gesetzt. Die Einwilligung zur Nutzung der Cookies & Erweiterungen können Sie jederzeit anpassen bzw. widerrufen.

Eine Erklärung zur Funktionsweise unserer Datenschutzeinstellungen und eine Übersicht zu den verwendeten Analyse-/Marketingwerkzeugen und externen Medien finden Sie in unserer Datenschutzerklärung.