Kapitel 5: Logisches Denken
Wenn Du ChatGPT oder Claude benutzt, dann nutzt Du nicht nur ein Großes Sprachmodell von OpenAI (z.B. GPT-4) oder Anthropic (z.B. Haiku), sondern auch sehr viele eingebaute Zusatzfunktionen, die Deine Interaktion mit der KI erleichtern.
Datenabfrage
Du hast schon in Kapitel 1 gesehen, dass Große Sprachmodelle manchmal falsche oder ungenaue Antworten liefern. Das ist kein Fehler im System, sondern eine Konsequenz der Wahrscheinlichkeitsberechnung, die Große Sprachmodelle vornehmen.
Eine Möglichkeit gegenzusteuern ist, dass Du dem Modell korrekte Daten zur Verfügung stellst. Diese kann es dann bei jeder Antwort nutzen. Damit ist nicht gemeint, dass das komplette Modell neu "trainiert" wird, sondern Du fügst damit dem System ergänzende Daten hinzu, auf die es zugreifen kann (Retrieval Augmented Generation, RAG).
Du kannst beispielsweise ein Textdokument hochladen. Noch einfacher machst Du es dem Modell, wenn die Daten systematisiert, beschriftet und in natürlicher Sprache erklärt werden. Das ginge über eine Tabelle besser als über ein Textdokument.
Bilder
Bildgenerierung
Wahrscheinlich hast Du schon einmal ein KI-generiertes Bild im Internet gesehen. So genannte Diffusions-Modelle haben an großen Mengen an Bildern gelernt, Muster zu erkennen und sogar eigene Bilder zu generieren. Auch hier kommt es wieder auf Deinen Prompt an: Je detaillierter Deine Anfrage ist, desto besser sind die Modelle in der Lage, ein passendes Bild zu generieren.
- In ChatGPT ist das Modell DALL-E 3 verfügbar
- In Google Gemini ist das Model Imagen 2 verfügbar
- Claude hat kein angeschlossenes Bildgenerierungsmodell
- In Mistral, Grok und Krea sind Flux-Modelle verfügbar (aktuell die besten auf dem Markt)
Bilderkennung
Du kennst KI-Bilderkennung wahrscheinlich von selbstfahrenden Autos, die in Bewegbildern Muster erkennen und entsprechend Lenkrad und Geschwindigkeit anpassen.
Die Bilderkennung in den KI-Chatbots funktioniert mit statischen Bildern: Du kannst ein Foto hochladen und z.B. Claude fragen (ja, Bilder kann Claude analysieren), was es auf dem Bild sieht. Im Hintergrund findet zunächst eine Beschreibung des Bildes statt. Mit dieser Beschreibung generiert das Große Sprachmodell dann eine Antwort auf Deine Frage.

Einen Schritt weiter gehen Systeme, die live Deinen Bildschirm beobachten und Dir entsprechend helfen können, ohne dass Du lang und breit erklären musst, was Du gerade machst. Computer Use von Claude war hier im Oktober 2024 Vorreiter und OpenAI (Operator) sowie Google (Gemini 2.0) haben auch schon angekündigt, dass ähnliche Funktionen in 2025 in Europa verfügbar sein werden.
Das Prinzip bleibt gleich: Es werden Bildschirmfotos hochgeladen, die dann analysiert werden. Das Große Sprachmodell kann dann jeweils diese Informationen nutzen, oder sogar direkt die Kontrolle über Deine Maus übernehmen.
Internetsuche
Die wohl bekannteste Suchmaschine ist die Google Suche. Wahrscheinlich ist jedes Große Sprachmodell neidisch auf diese Suchmaschine: Innerhalb von Sekunden erhält man relevante und brandneue Informationen zu einem Thema. Gerade bei Nachrichten leuchtet das ein, denn diese Informationen werden laufend aktualisiert.
Wenn Du schon einmal gegoogelt hast, dann ist Dir sicherlich aufgefallen, dass eine Google-Suche kein Chatbot ist: Du musst die Suchbegriffe genau wählen und Dich dann oft noch durch die Ergebnisse wühlen, bevor Du eine Antwort auf Deine Frage bekommst.
Eine Google-Suche funktioniert mit Schlagworten: Je besser eine Webseite für ein Schlagwort geeignet ist (wie genau, das entscheidet Google), desto weiter oben wird sie Dir angezeigt. Ein wichtiges Kriterium ist beispielsweise die Anzahl an Links im Internet, die auf diese Webseite führen.
Anbieter wie Perplexity vereinen ein Großes Sprachmodell mit einer Suchmaschine: Dein Prompt wird in eine Suchmaschinen-freundliche Anfrage umgewandelt, dann mehrmals gegoogelt und die Ergebnisse schließlich wieder für Dich zusammengefasst. Auch andere Anbieter wie ChatGPT haben mittlerweile eine Internetsuche in ihre Chatbots implementiert.
Es gibt allerdings einen Haken: Da es sich im Hintergrund auch nur um eine Google-Suche handelt (wahrscheinlich, da sind die Anbieter nicht sehr transparent), kann es natürlich sein, dass auch dies keine brauchbaren Antworten auf Deine Frage liefert.
Mit anderen Worten: Eine Internetsuche macht ChatGPT nicht automatisch fehlerfrei. Dass Quellen zitiert werden, heisst nicht, dass dies zuverlässige Quellen sind. Es braucht noch eine weitere Überprüfung "mit gesundem Menschenverstand". In der KI-Welt hat man dieses Vorgehen logisches Denken (Reasoning) getauft.
Logisches Denken
Wie Du schon weisst, kann ein Großes Sprachmodell nicht logisch denken. Es berechnet Wahrscheinlichkeiten, keine Wenn-dann-Beziehungen. Es rechnet nicht Schritt für Schritt, wie es ein Mensch tun würde. Berühmt geworden ist die nachfolgende Frage, die Große Sprachmodelle regelmäßig falsch beantworten.
Wie viele "E" gibt es in dem Wort "Erdbeere"?
Du kannst allerdings mit einem kleinen Trick auch hier schon etwas Logik ins Spiel bringen. Der Schlüssel ist ein Schritt-für-Schritt-Vorgehen (Chain-of-Thought Prompting). Du kannst dem Modell beispielsweise sagen, dass es zunächst das Wort in seine Buchstaben zerlegen soll und dann die "E" in dieser Buchstaben-Reihe identifizieren soll.
Oder Du kannst es versuchen mit einem einzigen Prompt wie diesem:
Bitte denke Schritt für Schritt!
Viele Große Sprachmodelle besitzen solche Anweisungen schon als interne Prompts. Sie ermöglichen es ihnen, kurz "nachzudenken", bevor sie zu einer Antwort kommen. Im Grunde ist das wie ein kurzer interner Dialog, den das Modell mit sich selbst führt. Das ist zwar noch kein echtes logisches Denken, kann aber einfache Fehler vermeiden.
Reasoning-Modelle
Die neusten Reasoning-Modelle wie GPT-o3, Gemini Flash Thinking oder DeepSeek R1 gehen einen Schritt weiter. Sie sind optimiert für ein schrittweises "Denken".
Tatsächlich findet im Hintergrund die Generierung einer Antwort statt, de je nach Konfiguration kurz oder lang sein kann. Dies wird dann in mehreren Schritten wiederholt. Erst wenn das abgeschlossen ist, teilt Dir das Modell mit, was es herausgefunden hat. Von diesem Vorgehen versprechen sich die Entwickler weniger Halluzinationen und weniger falsche Antworten.
Sie haben dazu eine weitere Methode aus dem Baukasten des maschinellen Lernens genutzt: Lernen durch Verstärkung (Reinforcement Learning). Vereinfacht bedeutet das, dass das Modell so lange so lange "vor sich hin denkt", bis es die korrekte Antwort auf eine Frage herausgefunden hat. Dieses Vorgehen merkt es sich dann.
In dem nachfolgenden Video siehst Du, wie Yosh mit Reinforcement Learning geschafft hat, dass ein Computer selbstständig lernt, wie es ein Rennspiel gewinnt.
Das Training und die Nutzung von Reasoning-Modellen sind entsprechend rechenintensiv und erscheinen für einfache Mathe-Aufgaben viel zu ineffizient. Wenn es aber um komplizierte Analysen von Text geht, scheinen diese Modelle schon jetzt bessere Antworten zu generieren. Die Forschung dazu ist erst am Anfang.
KI-Systeme
Wie Du in diesem Kapitel gesehen hast, haben heutige KI-Anbieter eine große Anzahl an eigebauten Zusatzfunktionen, die nicht in erster Linie Teil des Großen Sprachmodells sind. Sie sollen die Schwächen Großer Sprachmodelle minimieren und sie so zu echten virtuellen Assistenten machen.
Man spricht deshalb auch von KI-Systemen, weil sie eine Vielzahl an Funktionen in einem Software-System wie z.B. ChatGPT oder Claude vereinen.
Ein Ziel eines solches Systems ist es, Dir noch schneller und besser bei Deiner Anfrage zu helfen.
Hey ChatGPT, erstelle mir eine einfache HTML-Webseite für meinen Schachverein!

Wie auch bei Großen Sprachmodellen, so können wir bei KI-Systemen nicht sehen, wie diese arbeiten. Es gehört zur Nutzerfreundlichkeit des Systems, uns eben nicht alle Schritte im Hintergrund offenzulegen. Dies kann dazu führen, dass das System Dir falsche Antworten oder Halluzinationen ausgibt, ohne dass Du es merkst.
Diese Intransparenz mag bei der Erstellung einer Webseite für den Schachverein kein Problem sein, bei Deinem nächsten Projekt oder Deiner Abschlussarbeit in der Hochschule mag das aber zum Problem werden.
Wir kommen also nicht drum herum, Große Sprachmodelle und KI-Systeme für unseren eigenen Anwendungsfall zu testen. Nur wenn Du die Schwächen kennst, kannst entsprechend gegensteuern.
ChatGPT kann Fehler machen. Überprüfe wichtige Informationen.
Abschluss
Herzlichen Glückwunsch! Mit diesem Kurs hast Du damit begonnen. Ich wünsche Dir viel Erfolg bei Deiner weiteren Zusammenarbeit mit der Künstlichen Intelligenz und dass Du damit in Zukunft viel Zeit und Nerven sparen kannst.