Skip to main content

Technik: Wie LLMs funktionieren – und warum das für Coaching entscheidend ist

Token, Kontext und Täuschung: Die technischen Grenzen von LLMs im Coachingeinsatz.

Für alle Leser die sich intensiver mit der Funktionsweise von Large Language Models (LLMs) befassen, möchte ich einige zentrale Aspekte aus meiner Forschung explizit machen – insbesondere mit Blick darauf, warum technische Strukturen die psychologische Wirkung im Coaching tiefgreifend beeinflussen.

1. Tokenbasierte Vorhersage statt Intention

LLMs wie GPT-4 basieren auf der Transformer-Architektur. Ihre primäre Funktion ist die Wahrscheinlichkeitsvorhersage des nächsten Tokens (also typischerweise Wortbestandteile), gegeben eine Sequenz vorheriger Tokens. Dabei gibt es kein internes Ziel im Sinne eines kohärenten Planes. Was wie ein "Gedankenprozess" erscheint, ist eine sequentielle Optimierung auf Basis statistischer Muster.

Um diesen Beitrag lesen zu können, musst du Mitglied werden. Mitglieder helfen uns, unsere Arbeit zu finanzieren, damit wir langfristig bestehen bleiben können.

Zu unseren Paketen (Opens in a new window)

Topic Premium

0 comments

Would you like to be the first to write a comment?
Become a member of Dr. Frank Becker | Forschung and start the conversation.
Become a member