Algorithmen und Chatbots übernehmen immer mehr Aufgaben und greifen in das Verhalten von Menschen ein: So unterstützt etwa eine spezielle Künstliche Intelligenz (KI) die Mitarbeiter in Callcentern bei ihrer Arbeit, indem sie Gesprächsformulierungen vorgibt. Ein neuartiger Chatbot für Restaurants erkennt telefonische Bestellungen automatisch und erlaubt sogar flüssige Gespräche zwischen Anrufer und Algorithmus – im eng umrissenen Gebiet der Essensbestellungen.
Die Schnittstelle zwischen Mensch und Maschine genießt also besondere Aufmerksamkeit. Das hat sich auch in der vergangenen Woche gezeigt, als das amerikanische Start-up OpenAI seinen neuartigen Chatbot ChatGPT auf seiner Webseite frei zugänglich schaltete – und einen weltweiten Hype auslöste.
Binnen fünf Tagen vermeldete OpenAI-Chef Sam Altman mehr als eine Million registrierte Nutzer von ChatGPT. Zur Einordnung: LinkedIn startete die Deutschland-Ausgabe seines Geschäftsnetzwerks Anfang 2009 – und überquerte die Eine-Million-Marke nach knapp einem Jahr im Dezember 2009.
Beschreibung technischer Produkte bis hin zu Gedichten
Die KI hinter ChatGPT – die Abkürzung steht für Generative Pre-Trained Transformer – liefert in der Tat sehr beeindruckende Antworten. Und zwar zu einem breiten Spektrum an Fragen, angefangen bei Beschreibungen zu technischen Produkten über Essensrezepte bis hin zur Formulierung von Gedichten.
Mehr noch: All das funktioniert nicht nur auf Englisch, sondern ebenfalls auf Deutsch. Auf die Frage „Was ist der Unterschied zwischen einem Gepard und einem Leopard?“ zögert der Bot knapp eine Sekunde – und spuckt dann Buchstabe für Buchstabe aus: „Der Gepard und der Leopard sind beides Raubkatzen, die zur Familie der Großkatzen gehören.“ Hieran schließen sich drei weitere Sätze zu den Unterschieden beider Katzen an, die fast druckreif aus einem Tierlexikon stammen könnten.
Grundlage des Chatbots von OpenAI ist GPT-3, die dritte Version eines Sprachmodells, das auf Deep Learning basiert. Dabei werden die Algorithmen des Sprachmodells mithilfe gigantischer Datenmengen trainiert. Und so ist der Grund für den Erfolg von ChatGPT für Hinrich Schütze, Professor für Computerlinguistik und Co-Direktor des Zentrums für Informations- und Sprachverarbeitung an der Ludwig-Maximilians-Universität München, auch kein wissenschaftlicher Durchbruch. „Vielmehr zeigt sich hier, wie wichtig die Masse an Daten und Rechnerleistung ist, über die OpenAI verfügt“, erklärt Schütze.
Lesen Sie auch: „ChatGPT deckt auf, was im Wissenschaftsbetrieb schief läuft“
OpenAI wurde 2015 unter anderem von Tesla-Chef Elon Musk mitgegründet, der sich zwischenzeitlich aus dem Verwaltungsrat zurückgezogen hat. Weiterer prominenter Investor ist der US-Softwarekonzern Microsoft.
Chefentwickler als Supportmitarbeiter
Die dem Chatbot zugrunde liegenden Sprachmodelle werden laut Schütze relativ primitiv trainiert: „Sie sollen eigentlich nur das nächste Wort vorhersagen“, sagt der Experte für KI und Linguistik. „Wenn man dies gut beherrschen will, erfordert dies Faktenwissen und Sprachverständnis.“ Das funktioniere im Fall von ChatGPT eben deshalb so gut, weil der Algorithmus in den vergangenen Jahren mit immer mehr Daten gefüttert und so trainiert worden sei. Genaue Zahlen und Details veröffentlicht OpenAI nicht; in dem Bot sollen aber unter anderem alle Internetseiten, die Online-Enzyklopädie Wikipedia sowie das komplette Entwicklernetzwerk Github stecken. Durch all die Trainings wisse die KI hinter dem Chatbot, dass „Paris“ die plausibelste Fortsetzung des Satzes „Die Hauptstadt von Frankreich ist…“, erläutert Schütze.
Die Verbindung von leistungsfähigem Sprachmodell mit gigantischen Datenmengen sorgt dafür, dass ChatGPT so gut in der Breite funktioniert. „Das ist so, als wäre der Support-Mitarbeiter von VW – der Fragen von Kunden zu Ersatzteilen beantwortet – zugleich der VW-Chefentwickler“, sagt Michael Witzenleiter, Chef des Start-ups Conversion Maker aus Offenburg in Baden-Württemberg. „Die KI hat gewissermaßen das Weltwissen gespeichert und kann auch Antworten außerhalb der eigentlichen Fragestellung liefern – das macht ihre Faszination aus.“
Witzenleiter weiß, wovon er spricht: Sein Start-up verwendet über eine Schnittstelle eines der Sprachmodelle von OpenAI für seine eigene Dienstleistung: Conversion Maker generiert KI-basiert eigene Texte für die Webseiten von E-Commerce-Anbietern. „Dafür haben wir die KI mit eigenen Daten zu diesem Zweck trainiert“, sagt Witzenleiter.
ChatGPT zeichnet aber noch eine weitere Besonderheit aus: So ist die KI bereits sehr gut darin, den Kontext einer Frage aus der Wortfolge zu erkennen. Tatsächlich weiß ChatGPT bei der Anschlussfrage „Sehen die unterschiedlich aus?“, dass zuvor nach Gepard und Leopard gefragt wurde – und antwortet grammatikalisch und inhaltlich korrekt: „Ja, Geparde und Leoparden sehen unterschiedlich aus.“
Erkennung des Kontextes als Alleinstellungsmerkmal
Dieses Verständnis für den Fragekontext sei ein Alleinstellungsmerkmal von ChatGPT, unterstreicht Sebastian Schubotz, Chefentwickler des Leipziger KI-Start-ups We-do.ai, das im März 2022 den Gastro-Chatbot Foodcall veröffentlicht hat. „Das ist wirklich neu – die meisten Bots können mit Aussagen wie ,diese‘ oder ,das‘ allein nichts anfangen“, so Schubotz, der für Foodcall allerdings ein anderes Sprachmodell verwendet: „GPT-3.5 ist sehr breit ausgelegt, daher funktioniert ChatGPT auch so gut“, sagt der KI-Experte. „Aber individuelle Anpassungen – etwa wie bei uns eine Spezialisierung auf Gastronomie – gibt es derzeit noch nicht.“
Unter anderem deshalb sieht er die künftige Einsatzmöglichkeit von ChatGPT vor allem als eine Art erweiterte Suche: „Das könnte so etwas werden wie die Zukunft der Suche“, sagt Schubotz. „Also etwas, das intelligenter funktioniert als heute Google.“
Lesen Sie auch: Die Zusammenarbeit von Robotern und Menschen wird zur Selbstverständlichkeit