Das Interesse an diesem wissenschaftlichen Vortrag war groß und die anschließenden Fragen an den Referenten verrieten, dass viele sich schon mit dem Thema befasst haben oder sogar beruflich Künstliche Intelligenz (KI) einsetzen. Einige Fragen blieben offen, zum Beispiel, welche Auswirkungen eine Menschen-gleiche KI auf die Gesellschaft habe, eine KI beispielsweise, die es Angehörigen ermöglicht, mit Verstorbenen im Gespräch zu bleiben. „Wie erkläre ich das meinen Kindern?“, fragte ein Vater. Blomer sprach sich für eine breite gesellschaftliche Debatte über den Einsatz und möglicherweise Begrenzung dieser Technik aus. Diese Frage sei zu wichtig, als dass man sie delegieren könne.
Friedhelm Fischer, Mitglied der Projektgruppe „Über Gott und die Welt“, stellte den Referenten vor, der schon einmal vor 15 Jahren in Studentenzeiten im Gemeindezentrum einen Vortrag hielt. Blomer, der heute in der Schweiz lebt und arbeitet, wurde in der Emmausgemeinde konfirmiert, leistete hier seinen Ersatzdienst ab und studierte anschließend in Karlsruhe Informatik. In München promovierte er, erwarb den Doktor-Titel und nahm dann an der Stanford University in Kalifornien einen Forschungsauftrag an. Danach trat er ins CERN ein, wo sich seine Forschungsarbeit um die Entwicklung der weltweiten Datenverarbeitung dreht. Um Probleme zu lösen, setzt er auf Künstliche Intelligenz (KI).
Dass gerade in der Forschung die Entwicklung von KI interessant sei, daran ließ Blomer keinen Zweifel. Er nannte drei Beispiele aus der Physik: Während in der Hochphysik der 1960er und 70er Jahre beispielsweise Teilchen noch manuell ausgewertet wurden, beschleunigt die KI deren Auswertung und erzeugt in Nanosekunden kleinteiligere Ergebnisse. In der Plasma-Physik in Kernfusions-Forschungsreaktoren wiederum, zeigten sich die Vorteile darin, dass die Plasmen, die zu chaotischen Bewegungen neigen, dank KI nachjustiert werden können und als Magnet für die Zirkulation eines stabilen Plasmas sorgen. Dann die Proteine: Die KI habe gelernt aus der Faltung von Proteinen mit hoher Wahrscheinlichkeit die Wirkstoffentwicklung vorherzusagen. Das Vorhersageproblem sei damit gelöst.
Doch auch in der Öffentlichkeit spiele KI mit ChatGPT eine immer wichtigere Rolle. Vor drei Jahren wurde der Chat-Bot publiziert, inzwischen wird er massenhaft genutzt. Sein Vortrag könne nur eine Momentaufnahme sein, sagte Blomer, die Entwicklung der KI ginge rasant voran.
ChatGPT könne vielseitig eingesetzt werden. Der Chat-Bot kann Texte verfassen, Bilder erkennen, Ideen generieren, Daten interpretieren – um nur einige der Funktionen zu nennen. Früher habe man im Brockhaus nachgeschlagen, dann Google genutzt und heute ChatGPT. Aber Vorsicht sei geboten, den Chat-Bot als Suchmaschine einzusetzen, denn die Informationen könnten politisch beeinflusst sein.
Im Hintergrund wirkten Algorithmen, deren Berechnungsregeln aus den Daten erlernt werden können. Eine Methode, die bei der Sprach- und Bilderkennung eine große Rolle spielt, seien die künstlichen Neuronalen Netze.
Blomer erläuterte die Funktionsweise der neuronalen Netze anhand von Trainingsmaterial, das aus handgeschriebenen Zahlen besteht wie beispielsweise Postleitzahlen auf Briefumschlägen. Die Aufgabe: Möglichst genau zu bestimmen, um welche Zahlen es sich handelt, auch wenn sie fast unleserlich sind.
Neuronale Netze, die durch große Mengen von Daten trainiert wurden, verbinden miteinander sogenannte Gewichte und operieren in Schritten. Ausgegeben werden Wahrscheinlichkeiten. Die Netze lernen durch das Anpassen der Parameter und finden zwischen Ein- und Ausgabe in verborgenen Schichten Gewichte mit dem Ziel, Fehler möglichst gering zu halten.
Das Training des Sprachmodells ChatGPT funktioniere auf der Basis von Textergänzungsmodellen, das mit Textschnipseln arbeitet, so Blomer. Das System fragt nach dem nächsten Wort. Jedes Wort erfordere eine neuere Eingabe, man bezeichne das Verfahren auch als stochastische Papageien, da das System die Bedeutung von Texten nicht erfasst. Die Sprachmodelle erzeugten Texte, indem sie statistische Muster aus riesigen Datensätzen nachahmen. Das neuronale Netz trainiert nach dem Prinzip Reinforcement learning, also durch das Feedback der eingebenden Person, Verhalten an und etabliert es.
Jede Eingabe oder „Prompt“ in ChatGPT – woher auch immer – trainiert das System. Es kann schon eine Menge: beispielsweise ein Bild des Emmaus-Gemeindezentrums im Stil von Monet erzeugen, wie Blomer zeigte. Er verdeutlichte mit diesem Beispiel, dass Manipulationen durch KI durchaus möglich sind. Ein anderes Beispiel wie bei dem bekannten Flussüberquerungsrätsel ließ durchblicken, wie Halluzination neuronaler Netze funktionieren: Wenn nämlich Parallelen gezogen werden zu Sequenzen, die einen anderen Zusammenhang haben. Die Lösung, die beim Rätsel der Flussüberquerung von Wolf/Ziege/Kohlkopf richtig wäre, würde analog zu Schäfer/Schaf/leerer Suppentopf keinen Sinn ergeben.
Wichtig sei das Verständnis dafür, was da passiere. Manche Bilder enthielten beispielsweise durch Rauschen verdeckte optische Täuschungen, so dass die Interpretation der Daten nicht zuverlässig möglich sei. Systeme lernten außerdem versteckte Korrelationen: Zufälligerweise wurden alle Wölfe im Schnee fotografiert, Huskies nicht. Ein Husky im Schnee würde nicht zuverlässig erkannt werden können.
Die große Stärke von KI, resümierte Blomer, bestehe darin, dass sie Probleme lösen kann, indem sie aus den Daten lerne, ohne dass ein anderer Zugang bestehe. Die Schwäche bestünde darin, dass die Regeln aus dem System extrahiert werden müssen, um zu erfassen, was da gelernt wurde. Wenn es darauf ankäme, müsse das nachgeprüft werden, so Blomer. Langfristige Transformationen würden außerdem unterschätzt.
Die Risiken unterteilte Blomer nach Klassen. Erstens: Wie gehen wir damit um, dass Systeme, die unverstanden und intransparent sind, in Bereichen eingesetzt werden wie beispielsweise der Medizin. Zweitens: Sprachmodelle hielten Einzug in den Bereich menschlicher Lebensbereiche und Interaktion. Drittens: Maschinen werden zur Super-Intelligenz, könnten besser denken als Menschen, Emotionen entwickeln und sich selbst optimieren. KI könne so selbst zum Bösewicht werden.
Wenn eine Maschine intelligent sei, könne sie andere beeinflussen und eine neue Form hervorbringen. Blomer sagte, dass die Wissenschaft solche Spiele vornimmt mit vergleichsweise harmlosen Folgen, denn noch erfolgten die Tests auf dem Niveau stochastischer Papageien. Gefährlich würde es, wenn alles miteinander vernetzt würde, da man die Folgen nicht absehen könne. Es könne zu unvorhersehbaren Kettenreaktionen kommen.
Eine Besucherin fragte, ob nicht die Gefahr bestehe, dass wir von der Technologie immer abhängiger werden? Blomer antwortete: „Stimmt, wenn Maschinen Aufgaben übernehmen, die sonst von Menschen erledigt wurden, dann ist es, als würde ein Muskel nicht mehr trainiert. Das muss aber nicht schlecht sein.“ Wichtig sei, genau hinzugucken, was verloren geht. Studenten beispielsweise arbeiteten heute anders als zuvor nach der Methode „Try and error“.
Eine andere Frage bezog sich auf den Arbeitsmarkt: „Was passiert, wenn die KI 80 Prozent der Arbeitnehmer ersetzt? Wovon leben die Menschen dann?“ Blomer: So viele können gar nicht ersetzt werden. Die Systeme könnten zwar Programme erzeugen, aber keine perfekten Ergebnisse. Es würde Aufgabe des Menschen bleiben, die Ergebnisse zu überprüfen. Der Aufwand sei gleichwertig, als hätte man die Arbeit selbst gemacht.
„Kann man angesichts der Eigendynamiken die KI stoppen?“, fragte eine andere Besucherin. Blomers Expertise dazu: Der Nutzen überwiege die Risiken. Die Frage sei, wie wir die Sicherheit in den KI-Systemen verbessern könnten. „Können wir erkennen, ob etwas automatisch generiert ist?“ Die Lösung könnte in Sicherheitsmechanismen bestehen – vergleichbar mit dem Wasserzeichen in Papierdokumenten – und in einer Kennzeichnungspflicht.
Was auf dem Spiel steht, das geht aus einem Zitat von Yoshua Bengio hervor, das Fischer in seinen Eingangsworten vorlas, einem der Väter von KI und ein Warner: „Ein Roboter darf der Menschheit nicht schaden oder durch Passivität zulassen, dass die Menschheit zu Schaden kommt.“ Und: „Die Menschheit könnte die Macht komplett verlieren“.mi


Kommentare