Passer au contenu principal

Technik: Wie LLMs funktionieren – und warum das für Coaching entscheidend ist

Token, Kontext und Täuschung: Die technischen Grenzen von LLMs im Coachingeinsatz.

Für alle Leser die sich intensiver mit der Funktionsweise von Large Language Models (LLMs) befassen, möchte ich einige zentrale Aspekte aus meiner Forschung explizit machen – insbesondere mit Blick darauf, warum technische Strukturen die psychologische Wirkung im Coaching tiefgreifend beeinflussen.

1. Tokenbasierte Vorhersage statt Intention

LLMs wie GPT-4 basieren auf der Transformer-Architektur. Ihre primäre Funktion ist die Wahrscheinlichkeitsvorhersage des nächsten Tokens (also typischerweise Wortbestandteile), gegeben eine Sequenz vorheriger Tokens. Dabei gibt es kein internes Ziel im Sinne eines kohärenten Planes. Was wie ein "Gedankenprozess" erscheint, ist eine sequentielle Optimierung auf Basis statistischer Muster.

Um diesen Beitrag lesen zu können, musst du Mitglied werden. Mitglieder helfen uns, unsere Arbeit zu finanzieren, damit wir langfristig bestehen bleiben können.

Zu unseren Paketen (S'ouvre dans une nouvelle fenêtre)

Sujet Premium

0 commentaire

Vous voulez être le·la premier·ère à écrire un commentaire ?
Devenez membre de Dr. Frank Becker | Forschung et lancez la conversation.
Adhérer