Hintergrund ChatGPT: Wie Sie eine freundliche Tonalität bei Prompt-Ausgaben beeinflussen können

Viele Anwender haben das Phänomen schon beobachtet: Formulieren Sie einen Prompt freundlich, erhalten eine freundliche Antwort, formulieren Sie unfreundlich, bekommen Sie ein unfreundliche Antwort. Wie Sie die Tonalität in ChatGPT und Copilot beeinflussen, damit Ergebnisse modifizieren, und wie das mit Deep Learning zusammenhängt, erklärt dieser Beitrag.

Rekapitulieren wir zunächst einmal, was GPT genau bedeutet:

  • G steht für „Generative“, womit gemeint ist, dass hier Output generiert wird.
  • P meint „Pre-trained“, das Modell wurde vorab trainiert.
  • T ist das Kürzel für „Transformer“, also für einen Transformator, der die Ergebnisse in für Menschen verstehbare natürliche Sprache umwandelt. Auf dieser Grundlage soll GPT es von Anfang an möglichst brauchbare Ergebnisse generieren.

ChatGPT basiert nach der Lerntheorie auf ‚Lernen 1‘

Das Trainieren dieser Modelle erfolgt über Deep Learning, was unten im Detail erklärt wird. Bei diesem Verfahren werden zufällige Werte genutzt, um eine Ausgabe zu generieren. Diese errechnete Ausgabe wird dann mit einer Ausgabe verglichen, die idealerweise hätte errechnet werden sollen.

Das Modell beinhaltet eine Lernfunktion, die auf Abweichungen vom idealen Ergebnis reagiert und diese als Korrektur zurückgibt. Mit dieser Arte des Trainings soll erreicht werden, dass bei einer erneuten identischen Eingabe wahrscheinlich die richtige Lösung produziert wird. Es wird also transformiert (das „T“ in GPT).

Diese Vorgehensweise entspricht nach der Lerntheorie von Gregory Bateson dem „Lernen 1“, das wir Umgangssprachlich auch als Try & Error kennen.

Tonalität in ChatGPT und Copilot – Antwort folgt Prompt

Ein interessantes Phänomen, das Copilot-Anwendern immer wieder beobachten, ist die Adaption des Ergebnisses an die Tonalität des Prompts. Wird der Prompt in freundlichem Tonfall eingegeben, erhält man auch eine freundliche Antwort. Andersherum kommt bei unhöflich formulierter Frage eine unhöflich klingende Antworten zurück. Dieser Effekt ist kein Zufall, sondern erklärt sich aus der Funktionsweise dieser Technologie.

Um das zu verstehen, muss man den Ablauf hinter einer Prompt-Eingabe betrachten. Jede Eingabe durchläuft nämlich ein Pre-Processing, bevor der Prompt an das Large Language Model geschickt wird. Von Microsoft gibt es dazu einen erläuternden Artikel. Bei ChatGPT von OpenAI passiert etwas ähnliches.

Dabei bleibt der Prompt, wie ihn der Anwender eingegeben hat, immer die Basis für die Ausarbeitung des Ergebnisses. Und so kommt es, dass ein unfreundlich formulierter Prompt auch zu einer entsprechend klingenden Antwort führt.

Grounding nimmt keinen Einfluss auf die Lernfunktion

Die Orchestrierung, auch Grounding genannt, nimmt auf diesen Teil des Ablaufs keinen Einfluss. Die entsprechende Erklärung von Microsoft bezüglich Copilot lautet so:

Copilot verarbeitet dann die Eingabeaufforderung durch einen Ansatz namens Grounding vor, der die Spezifität der Aufforderung verbessert, damit Sie Antworten erhalten, die für Ihre spezifische Aufgabe relevant und umsetzbar sind. Die Eingabeaufforderung kann Text aus Eingabedateien oder anderen, von Copilot entdeckte Inhalte enthalten, und Copilot sendet diese Eingabeaufforderung zur Verarbeitung an den LLM. Copilot greift nur auf Daten zu, auf die ein einzelner Benutzer bereits Zugriff hat, z. B. auf der Grundlage der bestehenden rollenbasierten Zugriffskontrollen von Microsoft 365.

Somit wird auch deutlich, dass die Adaption an die Tonalität des Prompts nichts mit der nächsten Stufe des Lernen nach Gregory Bateson zu tun hat, dem Lernen 2 oder gar dem Lernen 3.

Bei Lernen 2 handelt es sich um „Proto-Lernen“, von Bateson auch „Deutero-Lernen“ genannt. Es resultiert in Gewohnheiten und Geisteszuständen und hat somit Auswirkungen auf Charakter und Kommunikation.

Lernen 3 entspricht der Ebene der Reorganisation des durch das Deutero-Lernen Erlernten. (Quelle: https://de.wikipedia.org/wiki/Gregory_Bateson )

Fazit: Der Prompt beeinflusst die Tonalität der Antwort

Mit diesem Wissen lässt sich die Tonalität in ChatGPT und Copilot gezielt steuern. Dem Prompt muss dazu nach folgendem Beispiel einfach nur mitgegeben werden, welche Rolle und welchen Tonus er nutzten soll.

Ein Beispiel für eine explizit erzwungene Tonalität wäre folgender Prompt:

Bitte formuliere eine Antwort auf diese E-Mail und nutzte dafür einen sehr freundlichen Ton.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert