Eingabehilfen öffnen

Skip to main content

Serie zur künstlichen Intelligenz

Eigenwillig: Das Gedächtnis künstlicher Intelligenz

Texterstellende KI (LLMs) haben kein wirkliches Gedächtnis. Ihre Erinnerung basiert auf Wortfolgen und Mustern, die sie während des Trainings gelernt haben. Deswegen variieren ihre Antworten im Verlauf des Chats zwischen überraschend zutreffend und dem Effekt eines lückenhaften Gedächtnisses.
 |  Susanne Krüger  | 
Ein humanoider Roboter sitzt an einem Schreibtisch. Über dem Kopf schwebt eine leuchtende Gedankenblase mit Zahnrädern, Häkchen und Fragezeichen, teils in der Blase, teil herausschwebend. Das symbolisiert, das sich die KI nicht mehr an alle Informationen erinnern kann. Die Augen des Roboters leuchten blau. Auf dem Schreibtisch liegen ein grüner Apfel und ein Stapel Bücher mit bunten Einbänden. Der Hintergrund ist sanft beleuchtet und schafft eine futuristische Atmosphäre.
Mit KI-Unterstützung erstellt von Susanne Krüger
  • Auf die Ohren

  • Eigenwillig: Das Gedächtnis künstlicher Intelligenz

Im Gespräch mit künstlicher Intelligenz entsteht der Eindruck, dass die KI ein geradezu unheimlich gutes Gedächtnis hat. Scheinbar mühelos erinnert sie sich an das, was im aktuellen Chat teils weit vorher besprochen wurde. Hat die KI tatsächlich ein geniales Gedächtnis, auf das wir uns verlassen können? Wie Erinnerung bei KI funktioniert und was wir deswegen bei der Nutzung von texterstellender KI beachten sollten, beleuchtet dieser Beitrag.

Langzeitgedächtnis: Die Illusion des Wissens

Fehlen einer Wissensbasis

Texterstellende KI – Large Language Models (LLMs) wie GPT-4 und Folgemodelle –, haben ein entscheidendes Manko: Sie besitzen keine echte Wissensbasis. Was bedeutet das konkret? Diese Modelle können durchaus beeindruckende Antworten auf spezifische Fragen geben, doch greifen sie dabei nicht auf ein festes Wissen zurück. Stattdessen generieren sie Texte basierend auf Wahrscheinlichkeiten, die sie während des Trainings gelernt haben.

Sie sind eher wie ein gut trainierter Papagei, der Worte nachplappert, ohne den tieferen Sinn zu verstehen. Je mehr direkten Zugang sie zu, Internet haben, umso größer wird ihre Datenbasis. Mit einem Nachteil: Die KI kann Inhalte nicht auf Korrektheit prüfen, hierfür sind wir als Nutzer immer wieder in der Eigenverantwortung.

Ein Beispiel verdeutlicht dies: Bis zu den Anfängen des Modells GPT-4 konnte die KI immer dann präzise und vollständige Inhalte zitieren, wenn diese allgemein verfügbar sind und Bestandteil des Trainings waren. Dazu gehören zum Beispiel Gesetzestexte, während literarische Werke hingegen selten vollständig frei verfügbar sind. Sie sind eher in Ausschnitten oder als Zitate öffentlich und die KI kann nur auf diese Teilinformationen zurückgreifen. Konkrete Fragen lösen in diesen Fällen Halluzinationen aus – die KI wird kreativ und bietet uns die Antwort aus voller Überzeugung an. Sie zitiert in diesen Fällen nicht wirklich, sondern erzeugt nur die wahrscheinlichste Wortfolge, aus der die Illusion des Wissens entstehen kann.

Die Rolle von Trainingsdaten

Die Trainingsdaten sind das Herzstück, auf dem LLMs basieren. Sie arbeiten mit einer riesigen Menge an Texten aus verschiedenen Quellen. Doch die Qualität dieser Daten ist entscheidend: Sind die Daten ungenau oder einseitig, wird auch die Ausgabe der KI entsprechend fehlerhaft. Die Modelle lernen, Muster zu erkennen, jedoch verstehen sie nicht wirklich, was sie produzieren. Es ist, als würde man jemanden anweisen, eine Anleitung zu befolgen, ohne ihm die einzusetzenden Bestandteile vor ihm zu erklären. Was kommt dabei heraus? Oft genug ein missratener Versuch.

Fakten und Zitate: Zufälle?

Wenn man sich die Antworten von LLMs ansieht, stellt sich oft die Frage: Sind diese Fakten und Zitate Zufälle? Die Antwort ist häufig: Ja, sind sie. Die Antwort der KI basiert sie auf Wahrscheinlichkeiten – und manchmal sind sie richtig, aber oft auch falsch. Es ist wie ein Glücksspiel mit Worten.

Als Nutzer gewinnen wir den Eindruck, dass die KI tatsächlich informiert ist. In Wirklichkeit handelt es sich um eine Art Zufallsgenerator. Das Trügerische: Ein Zitat kann also richtig erscheinen, ist es jedoch nicht unbedingt.

Es ist essenziell, realistische Erwartungen zu haben und sich nicht auf die Erinnerungsfähigkeit dieser Systeme zu verlassen. Der Schlüssel liegt im Verständnis ihrer Funktionsweise und den Grenzen, die sie mit sich bringen. Diese Grenzen erweitern sich ständig – dennoch sollte unsere Aufmerksamkeit immer wach sein und mindestens für Stichproben andere Quellen hinzuziehen.

Kurzzeitgedächtnis: Der vergängliche Dialog

Chatverlauf und Erinnerung

Das Kurzzeitgedächtnis von KIs ist ein faszinierendes und zugleich komplexes Thema. Wenn ich als Nutzer mit einem KI-Modell wie GPT-4 interagiere, entsteht der Eindruck, dass die Maschine sich an frühere Nachrichten erinnert. Nicht ganz zutreffend, denn die KI verarbeitet den gesamten Chatverlauf bei jeder neuen Anfrage. Hier zeigt sich die unglaubliche Leistungsfähigkeit der Modelle: Wir bräuchten immer mehr Zeit, um ab Beginn des Chats alles nachzulesen, während die KI kaum verzögert auch nach langen Verläufen antwortet.

Man könnte sagen, es ist wie ein Gespräch mit jemandem, der sich nur an das in den letzten Minuten Gesagte erinnert. Die KI hat kein echtes Gedächtnis, der vorherige Dialog wird immer wieder neu analysiert. Fun Fact: Fragst du die KI, ob sie sich an das Vorherige erinnert, wird sie das überzeugend bejahen!

Das Erinnerungsfenster der KI

Ein wichtiger Aspekt ist das sogenannte Erinnerungsfenster. Dieses Fenster bestimmt, wie viele Informationen die KI gleichzeitig verarbeiten kann. Wenn der Chat zu lang wird, droht der Verlust von Informationen. Wie ein Glas Wasser, das überläuft – das Wasser, das überquillt, ist wie die Information, die die KI nicht mehr speichern kann.

  • Je länger der Chat, desto weniger Platz für neue Informationen.

  • Frühere Eingaben können aus dem Erinnerungsfenster fallen.

  • Wichtige Details könnten verloren gehen, wenn die Antworten zu umfangreich sind.

Als Nutzer haben wir die Aufgabe, prägnante Fragen zu stellen. Sie erhöhen die Wahrscheinlichkeit, dass wichtige Informationen im Gedächtnis der KI bleiben. Es ist wie beim Lernen: kürzere und klare Informationen bleiben besser im Kopf.

Missverständnisse und deren Folgen

Ein weiteres Problem, das aus diesen Mechanismen resultiert, sind Missverständnisse. Wenn die KI nicht in der Lage ist, frühere Informationen zu „erinnern“, reagiert sie auf neue Fragen nicht wie erwartet. Das kann frustrieren, wenn man sich als Nutzer unverstanden fühlt oder – leicht genervt – denkt, dass genau dieses Detail doch bereits geklärt sei. Die Irritation verschwindet, sobald man sich vor Augen führt, dass die KI auf der Basis von Wahrscheinlichkeiten und den Informationen reagiert, die sie während des Dialogs verarbeitet.

Die Bedeutung für die Nutzerinteraktion

Die Interaktion mit KI ist für viele Nutzer eine spannende, jedoch oft herausfordernde Erfahrung. Hier einige praktische Profi-Tipps aus meiner Schatzkiste, um das Beste herauszuholen:

  • Sei präzise: Klare und spezifische Fragen führen oft zu besseren Antworten. Wenn jemand eine vage Anfrage stellt, kann die KI Schwierigkeiten haben, die gewünschte Information bereitzustellen. Frag die KI, welche Informationen sie von dir benötigt und in welchem Format sie diese am besten verarbeiten kann.

  • Verwende Kontext: Gib der KI genügend Hintergrundinformationen. Beschreib zum Beispiel, wofür du die Antwort benötigst und welches Format sie haben soll. Je genauer du wirst, desto treffsicher wird die Antwort.  Probier aus, wie viel Kontext dein Thema braucht. Bei allgemein verfügbarem Wissen wirst du weniger ergänzen müssen als zu Nischenthemen.  

  • Teste verschiedene Formulierungen: Manchmal kann eine kleine Änderung in der Wortwahl zu einer völlig anderen Antwort führen. Experimentier mit verschiedenen Ansätzen. Frag die KI nach Varianten oder lass sie gezielt Vorschläge machen. Es ist wie ein taktisches Spiel, bei dem du die beste Route ermittelst.

Vermeidung häufiger Fehler

Bei der Interaktion mit KIs gibt es einige häufige Fehler, die du künftig vermeiden kannst:

  • Zu viele unterschiedliche Informationen auf einmal: Gibst du als Nutzer zu viele Details auf einmal ein, kann die KI überfordert sein. Es ist besser, Informationen schrittweise bereitzustellen. Frag am Ende deines Promptes, ob es Fragen zur Aufgabe gibt. Die KI gibt dir bei Bedarf zu verstehen, was unklar ist und welche weiteren Informationen sinnvoll sind.

  • Erwartungen an Erinnerungen: Geh nicht davon aus, dass die KI sich an frühere Gespräche erinnert. Du kannst KI-Assistenten nutzen, die für eine feste Aufgabe trainiert sind oder für komplexe Aufgaben KI-Agenten erstellen (lassen). Gerade letztere erfordern ein hohes Maß an Verständnis zu den Prozessen innhalb der KI-Welt, während KI-Assistenten, zum Beispiel GPTs innerhalb von ChatGPT, viel leichter erstellt werden können.

  • Unklare Fragen: Vage oder mehrdeutige Fragen führen oft zu ungenauen Antworten. Klarheit ist der Schlüssel – wie immer in der Kommunikation.

Zusammenfassung

Die Interaktion mit KI-Modellen ist eine Kunst, die Übung erfordert. Praktische Tipps, wichtige Erkenntnisse und das Vermeiden häufiger Fehler sind essenziell, um die Nutzererfahrung zu optimieren. Large Language Models haben kein wirkliches Gedächtnis. Ihre Erinnerungen basieren auf Wortfolgen und Mustern, die sie während des Trainings gelernt haben.


Mehr aus der Kategorie Vermessung der Zukunft