Zurück  •  Startseite Historisches Lippstadt  •  Impressum & Datenschutz
Straßenkarte
Laut KI: Lippstadt als Kulturstadt? (Symbolbild)


 
Künstliche Intelligenz konfabuliert über Lippstadt

Seit 2023 berichten auch allge­meine Zei­tun­gen häufiger über Künst­liche Intel­li­genz (KI). Das Fas­zi­nie­rende an der KI namens „ChatGPT“ ist, dass sie natür­liche, ge­schrie­bene Sprache ver­steht und sehr indi­vi­du­elle Ant­wor­ten geben kann.

Bevor ich unten Details er­kläre, machen wir uns erst mal darü­ber lustig, was die KI ant­wor­tete, als ich sie im Februar 2023 nach unse­rem Heimat­städt­chen fragte ...
ChatGPT: „Lippstadt ist eine Stadt im Bundes­land Nord­rhein-West­falen in Deutsch­land ... und hat etwa 50.000 Ein­wohner.“
Immerhin weiß die aus den USA stam­mende KI, dass Lipp­stadt eine Stadt in NRW ist. Für Lipp­städ­ter ist leicht er­kenn­bar, dass die Ein­wohner­zahl falsch ist, denn diese liegt schon lange bei fast 70.000 Ein­woh­nern. Viel­leicht hat die KI noch Daten aus den 1980er Jah­ren?
ChatGPT: „Eines der wichtigsten Sehens­würdig­keiten von Lipp­stadt ist der Stadt­platz, der von attrak­tiven Ge­bäuden, Cafés und Ge­schäf­ten um­geben ist.“
Das klingt ganz nett. Man weiß was die KI meint, aber einen Platz namens „Stadt­platz“ haben wir hier nicht. Das ist eine kleine Unge­reimt­heit.
ChatGPT: „Neben seinem malerischen Alt­stadt­kern und den wunder­schönen Parks ist Lipp­stadt auch be­kannt für sein reiches kul­tu­rel­les Erbe, mit mehre­ren Museen und Gale­rien, die die lokale Ge­schichte und Kunst zeigen.“
Das klingt super, aber so würde ich Lipp­stadt nicht be­schreiben. Liegt eine Ver­wechs­lung vor? Mit „reiches kul­turel­les Erbe“ würde ich eher solche Städte be­schreiben, die mehr zu bie­ten haben als Fach­werk­häuser. Und „mit mehre­ren Museen und Gale­rien“ klingt nach etwas ganz Großem, aber nicht nach unse­rem einzi­gen Stadt­museum, das leider schon sehr lange in einem jämmer­lichen Zu­stand ist.
ChatGPT: „Die Stadt ist auch Heimat mehrerer Festi­vals und Veran­stal­tungen im Laufe des Jahres, wie dem Lipp­stadt Summer Festi­val, dem Lipp­stadt Weihnachts­markt und dem Lipp­stadt Interna­tional Film Festi­val.“
Hier wird offen­sicht­lich, dass die KI übliche Namen irgend­welcher Ver­an­stal­tungen nimmt und ein­fach das Wort Lipp­stadt davor­schreibt. Ein „Summer Festi­val“ ist bei uns kein fest­stehender Be­griff - und ein „Inter­na­tional Film Festi­val“ haben wir wahr­lich nicht. Nun fühle ich mich von der KI etwas ver­arscht.

Einen Monat später, im März 2023, habe ich ChatGPT noch­mal nach einer Be­schrei­bung von Lipp­stadt ge­fragt. Das Ergeb­nis war nun anders, z.B. wur­den jetzt 67.000 Ein­wohner und kon­kret der „Grüne Winkel“ genannt. Aber ...
ChatGPT: „... das Lippstädter Stadt­fest oder das Inter­na­tionale Straßen­theater­festival ... auch das Lippe­auen­fest, ein Volks­fest mit vielen Attrak­tionen, findet jedes Jahr statt.“
Das scheint leider alles aus­ge­dacht zu sein. Hätte ChatGPT kon­krete Infos über Lipp­stadt, würde es das Stadt­fest kon­kret als Alt­stadt­fest be­zeichnen. Und ein Straßen­theater-Festival oder Lippe­auen­fest haben wir hier nicht.

Noch offensichtlicher wird es beim Thema Wirt­schaft in Lipp­stadt: Die KI nennt zwei Unter­nehmen, die laut meiner Web­suche tat­säch­lich in dieser Region exis­tieren, die aber beide weder in Lipp­stadt an­säs­sig sind noch Zweig­stellen hier haben. Hingegen werden tat­säch­liche Lipp­städ­ter Unter­nehmen gar nicht ge­nannt.

Wie diese Falsch­infor­ma­tionen zu­stande kommen, er­kläre ich im folgen­den Teil, siehe unten. Die Unwissenheit der KI über das wenig bekannte Lippstadt ist nämlich ein gutes Negativbeispiel.

ChatGPT ist auch in die Kritik ge­ra­ten, weil Schüler sofort damit an­fin­gen, Haus­auf­ga­ben von der KI er­le­di­gen zu las­sen. An der Hoch­schule Hamm-Lipp­stadt (HSHL) wurden Stu­den­ten im April 2023 ge­zielt auf­ge­for­dert, eine Haus­arbeit mit Hilfe von Chat­GPT zu ver­fas­sen. Anschlie­ßend wurden die damit ge­mach­ten Er­fah­rungen ana­ly­siert. Das Presse-Team der HSHL er­klärte, dass man den Stu­die­ren­den die Kom­pe­ten­zen ver­mit­teln muss, mit der neuen Tech­nik um­zu­gehen und sie gewinn­bringend, aber gleich­zeitig auch kri­tisch zu nutzen.


Foto von alten Automaten
Androiden von 1774  © Rama, CC BY-SA 2.0 fr

Halluzinierende KI

Spätestens ab dem 18. Jahr­hun­dert hat man ver­sucht Auto­maten und Andro­iden zu kon­stru­ieren, die Men­schen oder Tiere nach­ahmen, z.B. eine mecha­ni­sche Ente oder einen flöte­spielen­den Schäfer. Das obige Foto zeigt drei funktio­nie­rende Andro­iden von 1774: der Schreiber, die Organis­tin und der Zeich­ner des schwei­ze­rischen Uhr­machers WikipediaPierre Jaquet-Droz.

Als sich in den 1950ern die Infor­ma­tik als Wissen­schaft eta­blierte, wurde erst­mals 1955 der Be­griff „Künst­liche Intel­li­genz“ (KI) bzw. eng­lisch „Arti­fi­cial Intel­li­gence“ (AI) ver­wendet.
Im 20. Jahr­hundert wurde zu­nächst „schwache KI“ um­ge­setzt, d.h. Lösungs­wege wur­den fest ein­pro­gram­miert. Heute würde man das viel­leicht eher als Assis­tenz be­zeich­nen, nicht als Intel­li­genz.

Mit dem Ziel zu einer „starken KI“ zu ge­langen, ver­sucht man heute einen An­satz, der mit dem Lernen und der Er­zie­hung eines Kindes ver­gleich­bar ist. Beim Wikipediamaschi­nellen Lernen wird ein Neuro­nales Netz so lange mit Trainings­daten ge­füttert, bis es etwas sinn­volles her­vor­bringt. Das ist gut mit einem Klein­kind ver­gleich­bar, mit dem man so lange spricht und übt, bis es selber sprechen kann. Und wenn es Fehler macht, korri­giert man es so lange, bis es weniger Fehler macht.

Seit 2022 kann jeder mit einer KI herum­spielen: Die US-Firma OpenAI hat ihre Künst­liche Intelli­genz ↗„ChatGPT“ am 30.11.2022 als Web­seite der Öffent­lich­keit frei zu­gäng­lich ge­macht. Es ist nur eine An­mel­dung mit Mail-Adresse und Handy-Nr. er­for­der­lich. Ich habe es im Dezem­ber 2022 aus­pro­biert und war sofort be­geis­tert, dass die Web­seite belie­bige Fragen auch auf deutsch ver­steht und be­ant­wor­tet. Die "geistige" Flexi­bi­li­tät von ChatGPT zeigt sich darin, dass man sich in Sekun­den­schnelle z.B. eine Fantasie-Geschichte nach eige­nen Vor­ga­ben schrei­ben las­sen kann.

Fragt man die KI nach Infor­ma­tionen zu gut doku­men­tier­ten The­men, er­hält man be­ein­druckend gute Ant­wor­ten. Fragt man je­doch nach Infor­ma­tionen, die nicht oder unzu­reichend in den Trainings­daten ent­hal­ten waren, plap­pert die KI irgend­etwas, das mög­licher­weise falsch ist.

Die Frage nach Lippstadt ein gutes Negativ­beispiel. Vermut­lich war Lipp­stadt nur mit ru­dimen­tä­ren An­ga­ben in den Trainings­daten ent­halten. Die KI weiß ein­fach noch zu wenig über unser Städt­chen. ChatGPT hat ab­sicht­lich keinen Zu­griff auf das Inter­net, d.h. die Ant­wort hängt davon ab, was es aus Trainings­daten lernen konnte bevor die Frage ge­stellt wird.

Doch woher kommen die Falsch­infor­ma­tionen? ChatGPT ist nicht als Nach­schlage­werk konze­piert, sondern ist ein Sprach­modell. Ein Sprach­modell soll geschrie­bene Sprache ver­stehen und selber Sätze bilden kön­nen. Dies ist die Voraus­setzung da­für, dass nor­male Leute mit der KI inter­agie­ren können. Für ChatGPT ist es in erster Linie wich­tig, Sätze zu pro­du­zieren. Um dieses Ziel zu er­reichen, setzt die KI Wörter an­ein­ander, die in einem ge­ge­benen Kon­text mit hoher Wahr­schein­lich­keit zu­sammen­passen.

Von Anfang an ist auf­ge­fallen, dass ChatGPT konfa­bu­liert - sich quasi Infor­ma­tionen herbei-halluzi­niert. Beim Menschen spricht man von WikipediaKonfa­bu­lation, wenn jemand ver­sucht mehr Erin­ne­rungen aus seinem Ge­dächt­nis ab­zu­rufen als er sich ge­merkt hat. Das Ge­hirn füllt die Erin­ne­rungs­lücken dann mit Sachen, die wahr­schein­lich passen. Der Befragte weiß dabei selbst gar nicht, dass es sich nicht um eine echte Erin­ne­rung han­delt. Und das machen wir alle. Jeder hat Lücken, die er auto­ma­tisch mit krea­ti­ven Er­klä­rungen auf­füllt.

Wenn man nicht unter Druck steht, kann man ein­fach locker sagen: „Das weiß ich nicht.“ Wenn man jedoch unter dem Druck steht, jetzt eine Aus­sage tref­fen zu müssen, oder wenn man z.B. einen Auf­satz mit einer be­stimm­ten Länge ab­liefern muss, steigt die Nei­gung zum Konfa­bu­lieren. Unter dem Druck, die Erwar­tung zu er­füllen, schwa­felt man irgend­etwas, das pas­send klingt - in der Hoff­nung, dass es rich­tig sein könnte (provo­zier­te Kon­fa­bu­la­tion).
Möglicher­weise unter­liegt ChatGPT auf­grund irgend­wel­cher tech­ni­scher Para­meter eben­falls so einem Be­ant­wor­tungs­druck.

Da eine KI mit Wahrschein­lich­keiten arbei­tet, kann man aus den er­fun­denen Aus­sagen über Lipp­stadt viel­leicht ab­lesen, dass es sehr wahr­schein­lich wäre, dass eine Stadt in der Größe von Lipp­stadt mehre­ren Museen und Gale­rien haben könnte und dass es hier meh­rere Festi­vals geben könnte.

Kann man die inhalt­lichen Fehler be­heben?
Wenn ein Apparat nicht so funktio­niert wie man es er­wartet, kann man den Mangel in der Mecha­nik su­chen. Wenn ein herkömm­liches Computer­pro­gramm fal­sche Er­ge­bnisse aus­spuckt, kann man den Feh­ler im Programm­code su­chen. Bei einem Neuro­nalen Netz ist dies hin­ge­gen schwie­rig, denn das maschi­nell Ge­lernte be­steht nur aus einer großen An­samm­lung von Zahlen­werten, die nicht direkt aus der Ein­gabe eines Men­schen stam­men, sondern vom Neuro­nalen Netz selbst ge­spei­chert wur­den. Jeder ein­zelne Zahlen­wert hat keine fest­ge­legte Be­deu­tung, sondern führt nur in Kombi­nation mit un­zählen ande­ren Wer­ten zu einem Er­geb­nis. Möchte man ein ande­res Er­geb­nis er­hal­ten, kann man nur die KI so­lange mit ande­ren Infor­ma­tionen füt­tern, bis sie irgend­wann das ge­wünschte Er­geb­nis liefert.

Von einer KI konfabu­lierte In­halte sind sehr proble­ma­tisch, weil sie für einen norma­len Leser, der sich nicht gut aus­kennt, nicht von echten Fakten zu unter­schei­den sind. Eine KI ver­kauft sogar er­fun­dene Aus­sagen wie Fakten, ohne dabei ner­vös zu wir­ken, zu stot­tern oder rot zu wer­den. Künst­liche Intelli­gen­zen haben so viel Produk­tions­kapa­zi­tät, dass ein­ge­floch­tene Halb­wahr­heiten und Falsch­infor­ma­tionen mög­licher­weise das Poten­tial hät­ten, das Mensch­heits­wissen zu ver­dünnen.

Text: Jörg Rosenthal, 2023.
Bitte Kritik, Vorschläge u.ä. per E-Mail einsenden.
Zurück  •  nach oben  •  Startseite Historisches Lippstadt  •  Zum Newsletter anmelden