Creative portrait of an individual holding a frame in a vibrant green outdoor setting.
|

Wirklichkeit konstruieren: Wie wir unsere Realität erschaffen

(Ein Blog über Wirklichkeit, Wahrnehmung, Konstruktion und Halluzination)

In Diskussionen über KI hört man oft: „Hier halluziniert die KI.“ Ich verwendete diese Aussage selbst – etwa in Trainings mit um zu zeigen, dass Aussagen (egal woher sie kommen) immer geprüft werden sollten.

Doch je öfter mir dieser Satz begegnet, desto mehr frage ich mich, was wir damit eigentlich sagen wollen. „Halluzination“ kommt ursprünglich aus der klinischen Sprache – aus Psychiatrie und Neurologie. Gemeint ist damit eine Wahrnehmung ohne äußeren Reiz, oft verbunden mit Vorstellungen von Wahn, Verwirrung oder Realitätsverlust. Verliert die KI also den Verstand? Wir transportieren mit diesem Begriff eine Abwertung, als handle es sich um einen Defekt, ein technisches Versagen.

Im Grunde kritisieren wir ein Prinzip, das uns selbst erst überlebensfähig macht – Im Grunde kritisieren wir ein Prinzip, das uns selbst erst überlebensfähig macht – die Fähigkeit, Wirklichkeit zu konstruieren. Bei Maschinen nennen wir es „Halluzination“ – bei uns oft „Zusammenfassung“, „Interpretation“, „Erinnerung“, „Rekonstruktion“ oder „Meinung“.

Sehen wir genau hin, dann passiert in beiden Szenarien etwas sehr ähnliches: Aus unvollständigen Informationen wird Bedeutung erzeugt. Durch Muster. Erwartungen. Wahrscheinlichkeiten.

Was mich daran besonders beschäftigt: Wir begreifen diesen Effekt als Ausnahme, obwohl er die Regel ist. Die KI-Tools die wir täglich nutzen machen sichtbar, was auch unser Denken antreibt: Konstruktion.

Konstruktion braucht Lücken

Sehen wir im Halbdunkel eine vage Form, entscheiden wir innerhalb von Sekundenbruchteilen, ob es sich um einen Menschen, einen Gegenstand, eine mögliche Gefahr handelt – obwohl die Informationen oft unvollständig sind. Und höchstwahrscheinlich ist diese Wahrnehumg und eigene (Wirklichkeits-)Konstruktion auch bei für jede:n unterschiedlich.

Was hier passiert wird In der Neurowissenschaft wird dieses Prinzip als prädiktive Kodierung beschrieben: Das Gehirn sagt fortlaufend voraus, was als Nächstes eintreffen sollte – und prüft, ob der Sinneseindruck dazu passt (Clark, 2013). Dies ist nie vollständig, doch funktional. Wahrnehmung ist also ein aktiver, hypothetischer Prozess. Sie beruht auf gespeicherten Erwartungen und laufenden Schätzungen – in Ungewissheit.

Und gerade diese Unschärfe macht Handeln möglich: Ein System, das auf vollständige Sicherheit wartet, käme nie ins Tun. Es wäre gelähmt durch seine eigenen Ansprüche. In dynamischen Umwelten ist Überleben nur möglich, wenn Entscheidungen auch bei Unsicherheit getroffen werden können (Friston, 2010).

Das Prinzip der Lückenergänzung betrifft allerdings nicht nur die Wahrnehmung, sondern auch Sprache und Denken. Jede Beschreibung, jedes Erzählen, jede sprachliche Reduktion beruht auf Annahmen. Schon die Wahl eines Begriffs, das Umformulieren eines Satzes oder das Verdichten eines Textes verändert Bedeutung.

Auch Sprache ist ein Werkzeug zur Sinnkonstruktion:

  • Wir komprimieren, um Inhalte verständlich zu machen. Wir entscheiden dabei, was weggelassen wird.
  • Wir rephrasieren, um Aussagen zu klären. Wir setzen voraus, dass unterschiedliche Formulierungen das „Gleiche“ bedeuten. In diesem Text z. B., dass ich KI als Platzhalter für Large Language Models verwende.
  • Wir reframen, um Zusammenhänge neu einzuordnen. Wir verschieben damit den Interpretationsrahmen.

Diese „Eingriffe“ sind notwendig: Sie ermöglichen Kommunikation unter Unsicherheit, indem sie fehlende Information durch plausible Konstruktion ergänzen.

„Neutralität“, wie wir sie von Analysten, Medien oder Maschinen erwarten, ist mit der Funktionsweise menschlicher Kognition nicht vereinbar. Wahrnehmung, Sprache und Denken beruhen auf Auswahl, Gewichtung und Vorannahmen – nicht auf wertfreier Verarbeitung (auch wenn wir uns das vielleicht manchmal wünschen würden). Unsere KI-Tools sind davon nicht unabhängig: Sie wird mit menschlichen Daten trainiert und reproduziert deren Muster, Vorannahmen und Verzerrungen. Ein vollständig neutraler Output aus selektivem Input ist systemisch nicht möglich.

Entscheidend ist daher nicht Neutralität, sondern Transparenz: das Wissen darüber, wie Sinn entsteht und wie wir damit umgehen können.

Doch wie konstruieren wir Sinn? Sinnkonstruktion kann z. B. mit folgenden drei Mechanismen beschrieben werden. Sie finden sich sowohl in menschlicher Kognition als auch in KI-Systemen. Sie sind nicht vollständig, jedoch modellhaft geeignet, um Gemeinsamkeiten und Unterschiede zu beschreiben:

  1. Muster aus Erfahrung (Priors): Wahrnehmung ist nicht objektiv, sondern von Erfahrung geprägt. Das Gehirn nutzt statistische Wahrscheinlichkeiten aus der Vergangenheit (Priors), um neue Reize zu deuten. Wir verarbeiten Informationen nie „roh“, sondern immer durch die Brille dessen, was wir schon kennen (Friston, 2010; Clark, 2013). KI macht dasselbe: Sie basiert auf Wahrscheinlichkeiten, die sie aus ihren Trainingsdaten (ihrer „Erfahrung“) extrahiert hat.
  2. Vorhersagen treffen (prädiktive Kodierung): Das Gehirn wartet nicht passiv ab, es rät ständig mit. Es vergleicht seine Vorhersage mit dem, was die Sinne melden. Passt das nicht zusammen, entsteht ein Fehler-Signal (Prediction Error), das unser Modell der Welt aktualisiert (Friston, 2010; Clark, 2013). KI-Modelle funktionieren strukturell ähnlich: Sie sind darauf trainiert, das wahrscheinlichste nächste Element vorherzusagen und den Fehler zwischen Vorhersage und Zielwert zu minimieren.
  3. Geschichten bauen (Narrative Kohärenz): Wir erzeugen Sinn, indem wir Einzelteile zu einer logischen Geschichte verbinden. Diese Erzählungen geben uns das Gefühl von Zusammenhang, auch wenn wir dabei Lücken füllen und Details passend machen (Bruner, 1990). Bei der KI sehen wir das als „Halluzination“: Sie baut eine sprachlich perfekte Antwort, die logisch klingt, auch wenn die Faktenbasis lückenhaft ist. Sie priorisiert die Kohärenz (den inneren Zusammenhang) gegenüber faktischer Genauigkeit.

Sinnkonstruktion ist also notwendig, um unter Unsicherheit handlungsfähig zu bleiben, doch nicht ohne Nebenwirkungen. Wir erkennen Muster, deuten und ordnen ein. Das ist ok.

Problematisch wird es erst, wenn wir vergessen, dass diese (unsere) Wirklichkeit konstruiert ist (vgl. von Foerster, 1984).

Die Konstruktion sichtbar machen

Das Ziel könnte also sein nicht weniger zu konstruieren, sondern bewusster und transparenter. Nur wer erkennt, dass mit Konstruktionen gearbeitet wird, kann flexibel auf Widersprüche reagieren.

Das zeigt auch die Forschung zur Unsicherheit in Wahrnehmungsprozessen: Wer sich der Vorläufigkeit eigener Deutungen bewusst ist, reagiert flexibler auf widersprüchliche Signale (Deroy & Spence, 2016). Diese Bewusstheit kann die Fehleranfälligkeit reduzieren – in menschlichen ebenso wie in maschinellen Systemen.

Für den Alltag – menschlich wie maschinell – können folgende Strategien genutzt werden um eigene Interpretationen sichtbar zu machen und konstruktive Prozesse reflektierbar zu gestalten:

StrategieUmsetzung
LabelingFühre epistemische Markierungen ein – im KI-Tool oder im eigenen Denken. Jede Aussage wird als Beobachtung, Annahme, Inferenz, Spekulation oder Schlussfolgerung gekennzeichnet. Dadurch wird die Struktur des Denkens sichtbar und transparent. Du kannst dies in der Personalisierung deiner KI-Tools hinterlegen, so werden Ausgaben (so gut wie möglich) automatisch mit <Schlussfolgerung>, <Spekulation> usw. markiert.
SeparationWeise das KI-Tool (oder dich selbst) an, Ausgaben in zwei Abschnitte zu gliedern – einen für Beobachtungen/Daten und einen für Interpretationen/Schlussfolgerungen. Lasse dir als Ergebnisse direkt in den 2 genannten Kategorien ausgeben und Vergleiche die Ergebnisse.
MultiplicityErzeuge immer mindestens zwei plausible Deutungen/Perspektiven und lege dich nicht direkt fest. Das verhindert vorschnelle Eindeutigkeit und hält den Denkraum offen. Nutze zum Beispiel folgenden Promt: „Gib mir zwei mögliche Erklärungen für [Thema], die beide logisch nachvollziehbar sind – auch wenn sie sich widersprechen. Nenne jeweils die zugrunde liegenden Annahmen.“
Calibration Lass die KI (oder dich selbst) jeder Aussage eine Einschätzung der Sicherheit zuordnen – etwa durch einen Confidence Score oder sprachliche Qualifizierungen wie „wahrscheinlich“, „möglich“ oder „unsicher“. Definiere davor was für dich in diesem Fall Sicherheit ist (z. B. Peer-Reviewed Journals, mindestens 5 Quellen, die dies unabhängig voneinander untersucht haben, etc.) So bleibt die festgelegte „Sicherheit“ proportional zur Evidenz. Probiere ggf. eine Skala 1 – 10.
ReflectionBaue kurze Selbstprüfungen ein, z. B. am Ende eines Textes oder nach jeder Aussage: „Welche Annahmen habe ich gemacht?“ oder „Wo könnte Rückmeldung das Ergebnis verändern?“ „Wo ist die Aussage wissenschaftlich angreifbar?“ So beobachtest du aktiv dein eigenes Denken (oder das Modellverhalten).


Diese Strategien sind mehr als Techniken zur Reflexion, sie sichern die Korrekturfähigkeit von Systemen. Heinz von Foerster nannte das „ethische Kybernetik“: die Fähigkeit, Verantwortung für die eigene Konstruktion zu übernehmen (von Foester, 1991).

Bewusstsein darüber ist dabei kein moralischer Zusatz, sondern eine Voraussetzung für Stabilität: Nur wer erkennt, wie (die eigene) Bedeutung entsteht, kann sie anpassen, wenn sie nicht mehr funktioniert.

Unsere Wirklichkeit

Wahrnehmung, Denken und Sprache zeigen uns die Welt nicht, wie sie ist, sondern so, wie wir mit ihr umgehen können. Wir schreiben Dingen oder Situationen Bedeutungen hinzu, fügen Dinge zusammen, erzählen Geschichten. So entsteht eine Wirklichkeit, die für uns funktioniert: brauchbar, aber nie vollständig.

Was wir oft übersehen: Wirklichkeit wird immer konstruiert. Doch erst wenn eine Abweichung auffällt, sprechen wir von Fehlern, Missverstehen oder sogar „Halluzination“. Wir behandeln das dann als Ausnahme – als Ausbruch aus einer vermeintlich neutralen Welt. Dabei ist Zuschreibung, Deutung und Erwartung immer gegeben. Nicht das Konstruieren ist ungewöhnlich, sondern nur, dass es sichtbar wird.

Die Frage ist dabei nicht, ob eine Darstellung „richtig“ ist, sondern ob sie korrigierbar bleibt. Systeme – ob technisch oder lebendig – bleiben handlungsfähig, wenn sie ihre eigenen (Denk-)Modelle reflektieren, deren Grenzen erkennen und hinterfragen können.

Wirklichkeit ist kein fester Punkt, auf den wir uns stellen können. Sie ist ein Gleichgewicht – zwischen dem, was wir erwarten, und dem, was uns begegnet. Wir sehen die Welt nie „wie sie ist“. Aber wir können lernen, wie wir sie bauen – und wie wir sie offen halten für das, was wir noch nicht sehen.

Mehr?

Wenn Wirklichkeit eine Konstruktion ist, brauchen wir Werkzeuge, um sie bewusst zu gestalten – einzeln und gemeinsam.

In meiner Arbeit beschäftigen ich mich genau mit diesen Themen:
Wie Organisationen unter Unsicherheit handlungsfähig bleiben.
Wie man Strukturen schafft, die Lernen ermöglichen – auch bei fehlender Klarheit.
Und wie Systemdenken dabei hilft, mit Mehrdeutigkeit umzugehen.

Wenn dich das interessiert: Hier findest du BeratungKurse und Bücher zu Zusammenarbeit, Systemdenken und Organisation in komplexen Umfeldern.

Bereit, weiterzudenken?

Referenzen

Bruner, J. (1990). Acts of Meaning. Harvard University Press.
Clark, A. (2013). Whatever next? Predictive brains, situated agents, and the future of cognitive science. Behavioral and Brain Sciences, 36(3), 181–204.
Deroy, O., & Spence, C. (2016). Metacognition in Multisensory Perception. Trends in Cognitive Sciences, 20(10), 736–747.
Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience, 11(2), 127–138.
von Foerster, H. (1984). Observing Systems (2nd ed.). Seaside, CA: Intersystems Publications.
von Foerster, H. (1991). Ethics and Second-Order Cybernetics. Paper presented at the International Conference “Cybernetics and Human Knowing,” University of Vienna, Austria.

BEREIT WEITERZUDENKEN?

Zögere nicht. Nimm Kontakt auf.

JETZT WEITERDENKEN

Ähnliche Beiträge