Direkt zum Inhalt

Kann Künstliche Intelligenz Wissenschaft? – Gemeinsam mit KI forschen

Zeit
18:00 - 23:30 Uhr
Veranstalter
Max-Planck-Institut für Geoanthropologie
Ort
Bibliothek
Adresse
Kahlaische Straße 10, 07745 Jena

Eine neue KI wird bald die Forschenden an unserem Institut bei ihrer Arbeit unterstützen – unsere Besucher:innen können ihr bereits zur Langen Nacht der Wissenschaften Löcher in die Schaltkreise fragen!

Künstliche Intelligenz ist aus der Forschung nicht mehr wegzudenken. Mit KI-Algorithmen falten Forschende Proteine, suchen nach neuen Medikamenten, untersuchen den Klimawandel oder analysieren akustische Daten aus der Unterwasserwelt, um Meeressäuger zu verfolgen. Der Forschung mit KI sind kaum Grenzen gesetzt. Aber kann man auch gemeinsam mit KI forschen? Kann KI eigentlich Wissenschaft? 

Man denkt bei dieser Frage unwillkürlich an die neue Generation generativer KI, die uns in Form großer Sprachmodelle wie OpenAIs GPT oder Googles Gemini fast täglich begegnet. So wird, wer heute beispielsweise ein Problem mit seiner Internetverbindung hat, meist an einen Chatbot des Anbieters verwiesen, der versucht, das Problem zu lösen. Könnte man solche Chatbots nicht einfach mit wissenschaftlichen Aufgaben betrauen – ganz nach dem Motto: „ChatGPT, löse mein Forschungsproblem!“?

Wer das versucht, stößt schnell an Grenzen. Sprachmodelle wie GPT sind in gewissem Sinne Universalisten. Während ihres Trainings haben sie eine große Menge an Texten aus verschiedensten Quellen und Bereichen verarbeitet, zumeist ohne besondere qualitative oder thematische Vorauswahl. Man kann sich mit solchen Chatmodellen daher über fast alles unterhalten, seien es Kochrezepte oder mittelalterliche Minnelyrik. Allerdings fehlt den Modellen dabei die Durchdringungstiefe, die für die wissenschaftliche Auseinandersetzung mit einem Themen nötig ist – sie sind keine Experten.

Es gibt noch ein zweites, schwerwiegendes Problem. Wissenschaftliche Arbeit zeichnet sich unter anderem durch Überprüfbarkeit aus. Eine besondere Rolle spielt dabei das wissenschaftliche Publizieren. Mechanismen der Qualitätskontrolle sorgen dafür, dass die in Büchern oder wissenschaftlichen Zeitschriften veröffentlichten Ergebnisse als hinreichend gesichert – also in gewissem Sinne als wahr – gelten und damit als Grundlage für weitere Forschung dienen können. Sprachmodelle haben jedoch, zumindest bisher, kein internes Wahrheitskriterium; sie sind lediglich darauf trainiert, plausible Sprachmuster zu generieren. Die so erzeugten Aussagen sind meist faktisch korrekt, doch dafür gibt es keine Garantie. Bisweilen „halluzinieren“ die Modelle, das heißt, sie machen plausibel klingende Aussagen, die sich jedoch nicht belegen lassen.

Die vorliegenden Sprachmodelle eignen sich daher nur sehr bedingt zur Unterstützung der Forschung. Wir am Max-Planck-Institut für Geanthropologie sind dabei, das zu ändern, und entwickeln einen KI-Assistenten, der die Mitarbeitenden an unserem Institut zukünftig bei ihrer Forschung unterstützen soll. Dafür haben wir unser eigenes Sprachmodell entwickelt – GeaCop. Der Name steht für Geanthropologie Kooperationspartner. Während seines Trainings hat GeaCop tausende wissenschaftliche Publikationen aus für uns relevanten wissenschaftlichen Bereichen analysiert und ist dabei zu einem echten Experten geworden. Lasst uns euch erklären, wie ein Sprachmodell funktioniert und wie man es trainiert. Vielleicht wollt ihr GeaCop auch mit euren Fragen löchern oder seine Grenzen testen. GeaCop weiß zwar fast alles über das Anthropozän, aber kennt er auch ein gute Rezept für Erbeerkuchen?

Angesichts der Flut neuer wissenschaftlicher Erkenntnisse können selbst ausgewiesene Expert:innen in einem Gebiet nicht alles wissen, und dasselbe gilt für GeaCop. Deshalb haben wir GeaCop einen Partner zur Seite gestellt – Kantropos. Stellen Benutzer:innen Anfragen an GeaCop, durchsucht Kantropos zunächst eine riesige Sammlung wissenschaftlicher Literatur nach Informationen, die bei der Beantwortung der Frage nützlich sein könnten. Diese Informationsschnipsel werden dann zusammen mit der Frage an Geacop weitergeleitet, der sie zu einer sinnvollen Antwort verarbeitet. Dieses Prinzip bezeichnet man als RAG – Informationsabruf (Retrieval), der die Antwortgenerierung unterstützt (Augmented Generation). Dank Kantropos kann Geacop nicht nur auf wissenschaftliche Literatur zugreifen, sondern diese auch zusammen mit seine Antwort an die Nutzer:inne zurückgeben. Man kann Geacops Antworten so jederzeit überprüfen, was das Problem der Halluzinationen löst. Man kann aber auch gezielt tiefer in die Literatur eindringen wobei Geacop wiederum Unterstützung leistet. Wie das genau funktioniert könnt ihr bei uns erfahren oder ihr führt ganz einfache einen wissenschaftliche Dialog mit Geacop und Kantropos, möglicherweise zu einem Thema zu dem ihr selbst publiziert habt.

GeaCop und Kantropos sind weit davon entfernt, wissenschaftliche Probleme selbständig zu lösen. Es ist erst der Dialog zwischen unseren Forschenden und GeaCop und Kantropos, der die Entstehung neuer wissenschaftlicher Einsichten unterstütz – gemeinsam mit KI forschen: Wir halten das nicht nur für möglich, wir tun es bereits.

Hinweis
fortlaufend
 

Standort

Teilen in sozialen Medien