Technik: Wie LLMs funktionieren – und warum das für Coaching entscheidend ist
Token, Kontext und Täuschung: Die technischen Grenzen von LLMs im Coachingeinsatz.
Für alle Leser die sich intensiver mit der Funktionsweise von Large Language Models (LLMs) befassen, möchte ich einige zentrale Aspekte aus meiner Forschung explizit machen – insbesondere mit Blick darauf, warum technische Strukturen die psychologische Wirkung im Coaching tiefgreifend beeinflussen.
1. Tokenbasierte Vorhersage statt Intention
LLMs wie GPT-4 basieren auf der Transformer-Architektur. Ihre primäre Funktion ist die Wahrscheinlichkeitsvorhersage des nächsten Tokens (also typischerweise Wortbestandteile), gegeben eine Sequenz vorheriger Tokens. Dabei gibt es kein internes Ziel im Sinne eines kohärenten Planes. Was wie ein "Gedankenprozess" erscheint, ist eine sequentielle Optimierung auf Basis statistischer Muster.
Um diesen Beitrag lesen zu können, musst du Mitglied werden. Mitglieder helfen uns, unsere Arbeit zu finanzieren, damit wir langfristig bestehen bleiben können.
Zu unseren Paketen (S'ouvre dans une nouvelle fenêtre)
Déjà membre ? Connexion (S'ouvre dans une nouvelle fenêtre)