Kapitel 1: Was hinter Künstlicher Intelligenz steckt
Der Begriff der Künstlichen Intelligenz wurde das erste Mal beschrieben vom Informatiker John McCarthy im Jahr 1955 im Rahmen eines Forschungsprojekts, dem Dartmouth Summer Research Project on Artificial Intelligence.

Es gibt allerdings bis heute keine technisch exakte Definition von Künstlicher Intelligenz. Im Grunde ist "KI" ein Sammelbegriff für alle Aktivitäten, die ein Computer übernehmen kann, für die vormals ein Mensch benötigt wurde.
Früher dachte man, dass es Computer schwer haben werden, einen Text nach Rechtschreibung zu prüfen. Heute haben wir Rechtschreibprogramme, die genau das tun. Insofern verschiebt sich die Grenze von KI immer weiter.
Der Mathematiker Alan Turing beschrieb 1950 in einem Gedankenexperiment, das er Imitation Game nannte, die Voraussetzungen für eine intelligente und denkende Maschine: Sollten ihre Antworten nicht mehr zu unterscheiden sein von menschlichen Antworten, so hätte die Maschine den Turing-Test bestanden.
Ohne Zweifel würde ChatGPT heute den Turing-Test bestehen. Es schreibt Artikel, Kommentare und Gedichte, die nicht mehr ohne weiteres von Menschen zu unterscheiden sind. ChatGPT kann neue Texte formulieren, was vormals nur ein Mensch konnte.
Maschinelles Lernen
Stell Dir vor, du bekommst einen LEGO Baukasten geschenkt. In dem Karton sind unzählige Einzelteile und es ist unmöglich zu wissen, wozu ein jeder Stein benötigt wird. Zum Glück liegt dem Baukasten eine Anleitung bei, mit deren Hilfe Du das Schloss erstellen kannst. Die Anleitung sagt dir genau, welche Steine an welcher Stelle benötigt werden.
Nun stell Dir vor, Du hast keine Anleitung. Eine ziemlich langwierige, wenn nicht unmögliche Aufgabe!

Doch genau diese Aufgabe können heutzutage Computer übernehmen. Sie haben sich selbst "Anleitungen" und Muster für Texte oder Bilder beigebracht, die in Form von Parametern abgespeichert sind. Diese Parameter können sie jetzt nutzen, um die komplizierte Herausforderung der Erstellung neuer Texte und Bilder zu lösen.
Große Sprachmodelle haben die deutsche Grammatik gelernt, ohne selbst ein Schulbuch gelesen zu haben. Sie haben sich Unmengen von deutschen Texten angeschaut und darin selbstständig Muster erkannt. Das ist zwar ungemein aufwändig für einen Menschen, für einen Computer aber machbar.
Das selbe Prinzip gilt für Bild-KI, die Bilder "liest" oder generiert: Es hat sich eine sehr große Menge an Bildern angesehen und darin selbstständig Muster erkannt. Wird es mit einem neuen Bild oder einer neuen Aufgabe konfrontiert, kann es auf die unzähligen erlernten Bildmuster zurückgreifen.
Arten Maschinellen Lernens
Überwachtes Lernen
Hierbei wird das Modell mit gelabelten Daten trainiert, um die Beziehung zwischen Eingaben und Ausgaben zu lernen. Ein Beispiel ist die Klassifizierung, bei der Daten in Kategorien eingeteilt werden. Das maschinelle Lernen wird verwendet, um ein Modell zu erstellen, das Daten auf Grundlage von Trainingsdaten kategorisieren kann.
Unüberwachtes Lernen
Hierbei findet der Computer selbstständig Muster in ungelabelten Daten, um zum Beispiel Cluster zu bilden oder die Dimensionalität zu reduzieren.
Verstärkendes Lernen
Hierbei lernt der Computer durch Interaktion mit einer Umgebung, wobei es Belohnungen oder Strafen für seine Aktionen erhält. Beispielsweise geben Menschen einer Generativen KI Feedback dazu, wie gut oder wie schlecht ein generierter Text ist (Reinforcement Learning from Human Feedback, RLHF).
Daten vs. Regeln
Wenn Du ein LEGO-Set anhand einer Anleitung aufbaust, nennt man das auch Regel-getrieben. Je besser die Regeln beschrieben sind, desto schneller kannst Du das gewünschte Ergebnis erstellen. Dieses Prinzip findet sich auch in modernen Computer-Programmen oder Apps: Wenn Du mit der Maus auf einen Button klickst, dann passiert etwas.
Künstliche Intelligenz funktioniert anders. Sie arbeitet nicht Regel-getrieben, sondern Daten-getrieben. Eine KI braucht immer eine große Menge an Daten, um Muster überhaupt finden und dann damit Parameter berechnen zu können. Hat die KI zu wenig Daten, ist das Ergebnis meistens schlechter, weil die Parameter weniger eindeutig sind. Oder das Ergebnis ist sogar komplett falsch.
Aus diesem Grund findet aktuell ein Wettlauf der großen Tech-Konzerne rund um das Thema Daten statt. Sie schließen Vereinbarungen mit Datenanbietern, wie beispielsweise Zeitungen oder Bilddatenbanken, um Zugriff auf mehr Daten zu erhalten. Aber sie wetteifern auch darum, neue Rechenzentren zu bauen, um mit diesen Daten noch "schlauere" KI-Systeme zu bauen.
Halluzinationen
Dass KI-Systeme wie ChatGPT schon ziemlich schlau auf uns wirken, kann schnell darüber hinwegtäuschen, dass sie datengetrieben arbeiten. Ist die Datengrundlage zu einem bestimmten Thema schlecht, ist der generierte Text dazu auch meistens schlecht.
Es gibt einen Begriff dafür, wenn Generative KI falsch liegt: Halluzinieren. Eine sehr menschliche Beschreibung für einen, rein technisch gesehen, oftmals Mangel an Daten.
Dass es manchmal falsch liegt, weiss die KI natürlich nicht. Sie trifft Entscheidungen einfach auf Grundlage der Parameter, die es hat. Für die KI gibt es kein Richtig oder Falsch, kein wahr oder gefälscht. Es ist also ratsam, die Ergebnisse einer Generativen KI immer kritisch zu hinterfragen.

Dass Generative KI ein Bild oder einen Text generiert, obwohl es in einigen Fällen keine ausreichende Datengrundlage hat, ist tatsächlich gewollt. Nur so erhalten wir neue Kombinationen von Wörtern, die so noch nie existiert haben.
"Generativ" bedeutet also nicht, dass die KI einfach Dinge erfindet. Sie kombiniert Wörter neu, ganz gleich wie viele Daten zu einem Thema vorhanden sind.
Generative KI arbeitet zwar mit Daten aus der echten Welt, aber ihre Ergebnisse sind immer fiktiv.
Experimente
Probiere dich einmal an den nachfolgenden Experimenten aus. Du findest einen Chatbot, der mit GPT-4o-mini verbunden ist, unten rechts. Das Ziel ist, dass Du etwas Neues über Generative Künstliche Intelligenz lernst. Viel Spaß!