„Du scheinst wirklich nicht der Allerschlaueste zu sein.“ Würden Sie einer künstlichen Intelligenz zubilligen, so mit Ihnen zu reden? Sehen Sie…? (Ich komme gleich drauf zurück.)
Jetzt erstmal Tasse festhalten, denn es ist so weit: Wir Menschen können offenbar nicht mehr in jedem Fall erklären, warum KI reagiert, wie sie es eben nun einmal tut. Toll! Klima, Preise, Computer: Alles entgleitet uns.
Ich habe gelesen: Laut einer Studie der Chinese Academy of Science scheint es so zu sein, dass ChatGPT prägnantere, belastbarere Ergebnisse liefert, wenn man der KI etwas Feuer unter dem Hintern macht. Also Formulierungen nutzt wie: „Ich habe es eilig“ oder „es ist wichtig für meine Karriere“ oder „Du musst dir unbedingt sicher sein“.
Nun ist klar, dass sich eine künstliche Intelligenz durch Drama im Text nicht zum Einnässen provozieren lässt. Sprachmodelle empfinden weder Stress noch Angst. Sie empfinden nicht einmal Hilfsbereitschaft. Warum aber reißt sich das System zusammen, wenn man es bedrängt? Man weiß es nicht genau.
Wenn es aber nun so ist, dass „Hopphopp“ zu besseren KI-Ergebnissen führt, wie wird das unsere Kommunikationsgewohnheiten im Ganzen beeinflussen? Wenn schon Kinder im Umgang mit Handy und Tablett lernen: besser ruppig reden.
Ich habe schon gesehen, wie ein etwa vierjähriges Kind in der Zoohandlung mit den Fingern am Aquariumglas versucht hat, das Bild größer zu ziehen. Ja, Leute, wie sollen die Kleinen da kapieren, dass ein aufs Wichtigste reduzierte Befehlston nur beim elektronischen Kumpel zieht?
Und wir Erwachsenen sind (nicht nur) so gesehen wie Kinder. Obwohl wir natürlich wissen, dass Marietta Slomka uns im Heute-Journal beim Blick in die Kamera nicht sehen kann und insofern auch einfach über die Kamera hinweg blicken könnte, möchten wir uns gerne angeguckt fühlen. Moderatoren sollen bitte in die Kamera gucken. Zu uns.
So sind wir: Punkt, Punkt, Komma, Strich – und wir sehen ein süßes Gesicht. Wir können da nicht abstrahieren.
Ähnlich unser Spaß beim Versuch, KI zu beleidigen. Gut, Sprüche wie „Alexa, halt die Fresse!“ sind seit Jahren nicht mehr witzig. Dennoch kribbelt so schön die Vorstellung, dass uns eine Elektronik dabei zuhört, wie wir uns in der Wortwahl wohlweislich vergreifen. Warum kribbelt es?
Antwort liefert der Testsatz vom Anfang: „Du scheinst wirklich nicht der Allerschlauste zu sein.“
Würden Sie einer künstlichen Intelligenz zubilligen, so mit Ihnen zu reden? Ich bin mir sicher: auf Dauer nein. Obwohl Sie wissen: Es ist doch nur ein empathieloses elektronisches System. Der Knaller ist: Es ist uns egal. Einfach gesagt: Es gelingt uns im Eifer des Gefechts nicht die emotionale Einordnung Mensch/Maschine.
Und wenn Sie deshalb zurecht von einem toten System Höflichkeit erwarten, die ja streng genommen gar nicht Ausdruck von Wertschätzung sein kann, dann sollten wir logischerweise auch eine von Respekt geprägte Sprache gegenüber einem toten System anwenden, wissend, dass es diese Anerkennung emotional niemals würdigen kann. Warum?
Einfach nur für uns selber!
Wenn wir uns hingegen angewöhnen, auf KI-generierte Höflichkeiten in einem Ton zu reagieren, der jede Etikette vermissen lässt, verrohen wir noch mehr.
Schneller schlau: So lernen Maschinen das Denken
Mit Kameras, Mikrofonen und Sensoren erkunden die Maschinen ihre Umwelt. Sie speichern Bilder, Töne, Sprache, Lichtverhältnisse, Wetterbedingungen, erkennen Menschen und hören Anweisungen. Alles Voraussetzungen, um etwa ein Auto autonom zu steuern.
Neuronale Netze, eine Art Nachbau des menschlichen Gehirns, analysieren und bewerten die Informationen. Sie greifen dabei auf einen internen Wissensspeicher zurück, der Milliarden Daten enthält, etwa über Personen, Orte, Produkte, und der immer weiter aufgefüllt wird. Die Software ist darauf trainiert, selbstständig Muster und Zusammenhänge bis hin zu subtilsten Merkmalen zu erkennen und so der Welt um sie herum einen Sinn zuzuordnen. Der Autopilot eines selbstfahrenden Autos würde aus dem Auftauchen lauter gelber Streifen und orangefarbener Hütchen zum Beispiel schließen, dass der Wagen sich einer Baustelle nähert.
Ist das System zu einer abschließenden Bewertung gekommen, leitet es daraus Handlungen, Entscheidungen und Empfehlungen ab – es bremst etwa das Auto ab. Beim sogenannten Deep Learning, der fortschrittlichsten Anwendung künstlicher Intelligenz, fließen die Erfahrungen aus den eigenen Reaktionen zurück ins System. Es lernt zum Beispiel, dass es zu abrupt gebremst hat und wird dies beim nächsten Mal anpassen.
Es wäre die nächste Stufe des Seelenleids, dem wir uns seit Jahren kollektiv und freiwillig beim Konsum von modernen elektronischen Angeboten ausliefern (neben Minderwertigkeitskomplexen wegen Angeberpostings anderer, Abstumpfung durch brutalste Gewaltdarstellungen und vom Algorithmus getriebener einseitiger Bestärkung von Ängsten und Hass).
Die verantwortlichen KI-Macher müssten den Sprachmodellen also das genaue Gegenteil beibringen: Gerade die in aller Gelassenheit präzise und nett formulierten Prompts ohne viel Schickimicki sollen die besten Ergebnisse liefern.
Und bis dahin bleibt uns nichts, als der KI gegenüber so zu verfahren, wie auch im Umgang etwa mit Callcenter-Mitarbeitern:
Klare Kante PLUS freundlich im Ton.
Einfach, damit wir es bei der Arbeit mit ChatGPT nicht verlernen.
Also: Statt „Es ist wichtig für meine Karriere“ besser: „Ich lege meine Karriere hier vertrauensvoll in deine Hände. Mach bitte etwas draus.“
Statt „Du musst dir unbedingt sicher sein“ besser: „Bitte liefere nur zweifelsfrei richtige Fakten. Du kannst dich umgekehrt auch immer auf mich verlassen, wenn es hart auf hart kommt.“
Wenn unsere Kinder schon damit anfangen – unsere Welt würde endlich mal wieder eine bessere. Oder zumindest besser klingen.
Lesen Sie auch: Wenn der Algorithmus eine seltene Erkrankung diagnostiziert
Den Autor erreichen Sie über LinkedIn.