Analyse mit Verstehender Soziologie und Computational Theory of Mind
📖 Lesedauer: 6 Minuten
1. EREIGNIS & KONTEXT
"Das muss die KI doch verstehen! Warum halluziniert sie doch?"
Das fragen sich seit wenigen Jahren immer mehr Menschen, die KI nutzen. Sie sind frustriert, wenn ChatGPT, Gemini, Claude oder andere Sprachmodelle trotz vermeintlich präziser Anweisungen, sagen wir - “unerwartete” Ergebnisse liefern. Die Erwartungshaltung dahinter: Künstliche Intelligenz soll nicht nur Muster erkennen, sondern verstehen, was wir meinen.
Zeitgleich boomt "Explainable AI" als Megathema. Unternehmen, die KI einsetzen, müssen nachweisen können, warum ein Algorithmus eine bestimmte Entscheidung getroffen hat – sei es bei Kreditvergaben, medizinischen Diagnosen oder Personalauswahl. Die EU-KI-Verordnung, die nun in Kraft ist, verschärft diese Anforderungen. KI-Systeme müssen transparent, nachvollziehbar und kontrollierbar sein.
Genau hier zeigt sich ein Paradoxon: Je leistungsfähiger KI-Modelle werden (ChatGPT-5, Google Gemini Ultra, Claude Sonnet 4), desto weniger können selbst ihre Entwickler:innen erklären, wie diese Systeme zu ihren Ergebnissen kommen. Deep-Learning-Modelle sind "Black Boxes" – sie produzieren beeindruckende Outputs, aber der Weg dorthin bleibt selbst für Insider und Hersteller letzten Endes intransparent.
Dies wirft eine Frage auf, die bereits den Soziologen Max Weber (1864-1920) beschäftigt hat: Was bedeutet es, etwas zu verstehen – und reicht es, etwas erklären zu können?
Zentrale Fakten:
-
2026: Explainable AI als regulatorische Anforderung (EU-KI-Verordnung)
- Agentic AI: Autonome KI-Agenten übernehmen komplexe Aufgaben
- Nutzer-Frustration: "Das muss die KI doch können!"
- Black-Box-Problem: Deep-Learning-Modelle sind nicht interpretierbar
2. THEORETISCHE LINSEN
A) Max Weber - Verstehende Soziologie
Max Webers Soziologie basiert u.a. auf einer zentralen methodologischen Unterscheidung: dem Unterschied zwischen Erklären (wie es die Naturwissenschaften (vermeintlich?) tun) und Verstehen (wie es die Geistes- und Sozialwissenschaften stets bemüht anstreben). Man könnte sagen: Während die Naturwissenschaften kausale Gesetzmäßigkeiten aufdecken, versucht die Soziologie, den subjektiv gemeinten Sinn sozialen Handelns zu erfassen.
Verstehen bedeutet bei Weber, die Motive, Absichten und Bedeutungen zu rekonstruieren, die Menschen ihrem Handeln zuschreiben. Es geht nicht nur darum, dass jemand handelt, sondern warum – und zwar aus der Perspektive der handelnden Person selbst. Weber unterscheidet zwischen "aktuell verstehendem" (ich sehe, dass jemand Holz hackt) und "erklärendem Verstehen" (ich verstehe, warum – etwa um den Ofen zu heizen).
Zentral ist: Verstehen setzt Sinnhaftigkeit voraus. Menschliches Handeln ist nicht einfach kausal determiniert wie Naturereignisse, sondern orientiert sich an Bedeutungen, Werten, Zwecken.
Anwendung auf KI 2026:
Nach Weber kann KI Korrelationen finden, Muster identifizieren und statistische Wahrscheinlichkeiten berechnen. Selbst einfache, exakte Rechenvorgänge wie Addieren und Subtrahieren fielen ihr anfangs schwer. Sie kann erklären (im naturwissenschaftlichen Sinn). Aber sie kann nicht verstehen, weil ihr der Zugang zu subjektiv gemeintem Sinn fehlt.
Ein Beispiel: Ein Sprachmodell kann den Satz "Ich bin heute nicht gekommen, weil ich keine Lust hatte" korrekt vervollständigen und sogar kontextuelle Plausibilität prüfen. Aber es versteht nicht die existenzielle Bedeutung von "keine Lust haben" – die Müdigkeit, den inneren Widerstand, die vielleicht dahinterliegende Depression. Es fehlt der Zugang zur Innenperspektive, zum gelebten Erleben.
Wenn Nutzer:innen sagen "Das muss die KI doch verstehen", erwarten sie genau diese Innenperspektive – sie erwarten, dass die KI ihre Intention, ihren Kontext, ihre impliziten Annahmen erfasst. Doch die KI operiert auf der Ebene statistischer Muster, nicht auf der Ebene von Sinn und Bedeutung.
Explainable AI verschärft das Problem: Selbst wenn wir nachvollziehen können, wie eine KI zu einer Entscheidung kam (welche Features gewichtet wurden), sagt uns das nichts über verstehen im Weber'schen Sinn. Die Erklärung bleibt mechanistisch.
Grenzen:
Weber ging davon aus, dass Verstehen nur bei menschlichem Handeln möglich ist. Aber ist diese Annahme noch haltbar? Vielleicht ist "Verstehen" keine binäre Eigenschaft (entweder man kann es oder nicht), sondern eine Frage des Grades. Vielleicht reicht für viele praktische Zwecke ein funktionales Äquivalent von Verstehen – auch ohne subjektives Erleben.
Zudem: Webers Theorie ist vor-digital. Er konnte sich Systeme, die Milliarden von Textbeispielen verarbeiten und kontextuelle Zusammenhänge "lernen", nicht vorstellen.
B) Computational Theory of Mind – Symbolische vs. Subsymbolische KI
Die Computational Theory of Mind, entwickelt in der Philosophie des Geistes und der Kognitionswissenschaft, argumentiert, dass Denken als Informationsverarbeitung verstanden werden kann. Der Geist ist – vereinfacht gesagt – Software, die auf der Hardware des Gehirns läuft. In der KI-Forschung führte diese Perspektive zu zwei konkurrierenden Paradigmen: symbolischer KI & subsymbolischer KI.
Symbolische KI:
Symbolische KI (1950er-1980er) basierte auf expliziten Regeln, Logik und Wissensrepräsentation. Programme wie ELIZA oder frühe Expertensysteme manipulierten Symbole nach festgelegten Regeln. Das Versprechen: Wenn wir Wissen formalisieren können, können wir Verstehen nachbilden.
Subsymbolische KI:
Subsymbolische KI (Neuronale Netze, Deep Learning) verzichtet auf explizite Regeln. Stattdessen lernen Systeme durch Mustererkennung in riesigen Datenmengen. Bedeutung entsteht nicht durch Symbole, sondern durch statistische Assoziationen in hochdimensionalen Vektorräumen.
Moderne Sprachmodelle wie GPT-4 oder Claude sind subsymbolisch: Sie haben keine explizite Repräsentation von "Bedeutung", aber sie können Sprache so verarbeiten, als ob sie verstehen würden.
Anwendung auf KI 2026:
Die Debatte zwischen symbolischer und subsymbolischer KI ist hochaktuell. Explainable AI versucht oft, subsymbolische Systeme nachträglich mit symbolischen Erklärungen zu versehen – ein Hybrid-Ansatz. Doch das Grundproblem bleibt: Deep-Learning-Systeme generieren ihre "Semantik" aus statistischen Mustern, nicht aus regelbasiertem Verstehen.
Interessanterweise zeigen Forschungen zu "Emergent Abilities" von Large Language Models, dass bei einer bestimmten Modellgröße plötzlich Fähigkeiten auftauchen, die nicht explizit trainiert wurden – etwa logisches Schlussfolgern oder Theory of Mind (die Fähigkeit, sich in andere hineinzuversetzen). Ist das ein funktionales Äquivalent zu Verstehen?
Die Computational Theory würde argumentieren: Wenn ein System sich verhält, als ob es versteht, und wir nicht unterscheiden können, ob es "wirklich" versteht oder nur simuliert – macht der Unterschied dann einen praktischen Unterschied? (Diese Frage geht zurück auf den Turing-Test.)
Grenzen:
Die Theorie setzt eine mechanistische Sicht auf Kognition voraus, die viele Philosoph:innen ablehnen. Bewusstsein, subjektives Erleben, Intentionalität – all das lässt sich möglicherweise nicht auf Informationsverarbeitung reduzieren.
Träumen etwa Roboter von maschinellen Schafen?
Zudem: Auch wenn KI sich verhält wie Verstehen, fehlt ihr die Verkörperung, die soziale Einbettung, die Geschichte – alles Faktoren, die menschliches Verstehen konstituieren.
3. SYNTHESE & ANALYSE
Die beiden Perspektiven erscheinen zunächst unvereinbar: Weber besteht auf der Unübertragbarkeit von Verstehen auf nicht-menschliche “Maschinen”. Die Computational Theory hingegen hält Verstehen für eine Funktion, die prinzipiell nachbildbar ist. Eine differenzierte Betrachtung zeigt anschlussfähige Gemeinsamkeiten:
1.
Weber hat recht, dass subjektiv gemeinter Sinn (im strengen Sinne) KI-Systemen nicht zugänglich ist. Sprachmodelle haben keine Innenperspektive, kein Erleben, keine Intentionen. Sie simulieren Verstehen durch statistische Muster.
2.
Die Computational Theory zeigt aber, dass für viele praktische Zwecke ein funktionales Äquivalent von Verstehen ausreicht. Wenn eine KI medizinische Symptome kontextualisieren, Emotionen in Texten erkennen und angemessen reagieren kann – ist das nicht eine Form von Verstehen?
3.
Explainable AI versucht, die Lücke zu schließen: Sie will die Black Box öffnen und zeigen, warum und wie eine KI entscheidet. Aber Erklärbarkeit ist nicht gleich Verstehen. Selbst wenn ich jedes Neuron im Netzwerk nachvollziehen kann, verstehe ich damit nicht den Sinn der Entscheidung im Weber'schen Sinne.
Was beide Ansätze tendenziell übersehen:
- Verkörperung: Verstehen ist bei Menschen nicht nur kognitiv, sondern auch körperlich, affektiv, sozial eingebettet. KI fehlt diese Dimension (“noch” sollte man u.a. mit Blick auf die neuesten Androiden von Boston Dynamics sagen).
- Historische Kontingenz: Menschliches Verstehen ist biografisch, kulturell, historisch geformt. KI operiert im Hier und Jetzt statistischer Muster. Andererseits arbeitet sie quasi mit dem gesamten Weltwissen.
- Normativität: Verstehen bei Weber ist immer auch wertbezogen. KI kann Werte simulieren, aber sie hat keine eigenen. Menschen “versuchen” ihr Werte zu geben bzw. sie zu simulieren.
- Pragmatische Dimension:Vielleicht ist die Frage "Kann KI verstehen?" falsch gestellt. Vielleicht wäre sie so besser formuliert: "Unter welchen Bedingungen reicht das eingeschränkte Verstehen einer KI aus?" Und: "Wann brauchen wir nach wie vor menschliches Verstehen?"
Die Debatte um KI und Verstehen ist letztlich auch eine über unsere Selbstverständnis: Wenn Maschinen uns funktional ähnlich werden, was macht dann das spezifisch Menschliche aus? Wann beginnt das “Sich-seiner-selbst-Bewusstsein”. Weber würde vielleicht antworten:
Mit der Fähigkeit, Sinn zu erleben und zu deuten, nicht nur zu verarbeiten.
4. Literaturempfehlung
Einführend:
Hubert Dreyfus: What Computers Still Can't Do: A Critique of Artificial Reason (1992) Klassische philosophische Kritik an der Annahme, Intelligenz ließe sich algorithmisch nachbilden. Dreyfus argumentiert aus phänomenologischer Perspektive – zugänglich und provokant.
Vertiefend:
Max Weber: Soziologische Grundbegriffe in Wirtschaft und Gesellschaft (1922), §1 Der Ursprungstext zu "Verstehen" in der Soziologie. Weber definiert hier soziales Handeln und die Methode der verstehenden Soziologie. Anspruchsvoll, aber unverzichtbar für die Debatte.
Ein bisschen Soziologie schadet nie. Deine tägliche Portion Soziologie aus dem SocioloVerse.AI
#KünstlicheIntelligenz #MaxWeber #VerstehendeSoziologie #ExplainableAI #DigitaleSoziologie #Technikphilosophie #DeepLearning #AI2026 #WissenschaftstheorieimAlltag
Analysis Using Interpretive Sociology and Computational Theory of Mind
📖Reading time: 6 minutes
1. EVENT & CONTEXT
"The AI should understand this! Why does it still hallucinate?"
This question has been asked more and more frequently in recent years by people using AI. They are frustrated when ChatGPT, Gemini, Claude, or other language models deliver "unexpected" results despite supposedly precise instructions. The expectation behind this: artificial intelligence should not only recognize patterns but understand what we mean.
At the same time, "Explainable AI" is booming as a mega-theme. Companies deploying AI must be able to demonstrate why an algorithm made a particular decision – whether in credit approvals, medical diagnoses, or personnel selection. The EU AI Regulation, now in force, tightens these requirements. AI systems must be transparent, comprehensible, and controllable.
This is precisely where a paradox emerges: the more powerful AI models become (ChatGPT-5, Google Gemini Ultra, Claude Sonnet 4), the less even their developers can explain how these systems arrive at their results. Deep learning models are "black boxes" – they produce impressive outputs, but the path there remains ultimately opaque even for insiders and manufacturers.
This raises a question that already preoccupied the sociologist Max Weber (1864-1920): What does it mean to understand something – and is it enough to be able to explain it?
Key Facts:
-
2026: Explainable AI as regulatory requirement (EU AI Regulation)
- Agentic AI: Autonomous AI agents take over complex tasks
- User frustration: "The AI should be able to do this!"
- Black box problem: Deep learning models are not interpretable
Sources: Euronews, Microsoft Research, Management Circle, Dr. DSGVO
2. THEORETICAL LENSES
A) Max Weber – Interpretive Sociology
Max Weber's sociology is based, among other things, on a central methodological distinction: the difference between explaining (as the natural sciences (supposedly?) do) and understanding (as the humanities and social sciences always strive for). One could say: while the natural sciences uncover causal laws, sociology attempts to grasp the subjectively intended meaning of social action.
For Weber, understanding means reconstructing the motives, intentions, and meanings that people attribute to their actions. It's not just about the fact that someone acts, but why – from the perspective of the acting person themselves. Weber distinguishes between "direct observational understanding" (I see that someone is chopping wood) and "explanatory understanding" (I understand why – perhaps to heat the stove).
Central to this: understanding presupposes meaningfulness. Human action is not simply causally determined like natural events but is oriented toward meanings, values, and purposes.
Application to AI 2026:
According to Weber, AI can find correlations, identify patterns, and calculate statistical probabilities. Even simple, exact calculations like addition and subtraction were initially difficult for it. It can explain (in the natural scientific sense). But it cannot understand because it lacks access to subjectively intended meaning.
An example: A language model can correctly complete the sentence "I didn't come today because I didn't feel like it" and even check contextual plausibility. But it doesn't understand the existential meaning of "not feeling like it" – the fatigue, the inner resistance, the perhaps underlying depression. It lacks access to the inner perspective, to lived experience.
When users say "the AI should understand this," they expect precisely this inner perspective – they expect the AI to grasp their intention, their context, their implicit assumptions. But AI operates at the level of statistical patterns, not at the level of meaning and significance.
Explainable AI exacerbates the problem: even if we can comprehend how an AI arrived at a decision (which features were weighted), this tells us nothing about understanding in Weber's sense. The explanation remains mechanistic.
Limitations:
Weber assumed that understanding is only possible with human action. But is this assumption still valid? Perhaps "understanding" is not a binary property (you either can or can't) but a matter of degree. Perhaps for many practical purposes, a functional equivalent of understanding suffices – even without subjective experience.
Moreover: Weber's theory is pre-digital. He could not imagine systems that process billions of text examples and "learn" contextual relationships.
B) Computational Theory of Mind – Symbolic vs. Subsymbolic AI
The Computational Theory of Mind, developed in the philosophy of mind and cognitive science, argues that thinking can be understood as information processing. The mind is – simply put – software running on the hardware of the brain. In AI research, this perspective led to two competing paradigms: symbolic AI and subsymbolic AI.
Symbolic AI:
Symbolic AI (1950s-1980s) was based on explicit rules, logic, and knowledge representation. Programs like ELIZA or early expert systems manipulated symbols according to established rules. The promise: if we can formalize knowledge, we can replicate understanding.
Subsymbolic AI:
Subsymbolic AI (neural networks, deep learning) dispenses with explicit rules. Instead, systems learn through pattern recognition in huge datasets. Meaning emerges not through symbols but through statistical associations in high-dimensional vector spaces.
Modern language models like GPT-4 or Claude are subsymbolic: they have no explicit representation of "meaning," but they can process language as if they understood.
Application to AI 2026:
The debate between symbolic and subsymbolic AI is highly topical. Explainable AI often attempts to retrofit subsymbolic systems with symbolic explanations – a hybrid approach. But the fundamental problem remains: deep learning systems generate their "semantics" from statistical patterns, not from rule-based understanding.
Interestingly, research on "emergent abilities" of large language models shows that at a certain model size, abilities suddenly appear that were not explicitly trained – such as logical reasoning or theory of mind (the ability to empathize with others). Is this a functional equivalent to understanding?
The Computational Theory would argue: if a system behaves as if it understands, and we cannot distinguish whether it "really" understands or merely simulates – does the difference make a practical difference? (This question goes back to the Turing Test.)
Limitations:
The theory presupposes a mechanistic view of cognition that many philosophers reject. Consciousness, subjective experience, intentionality – all of this may not be reducible to information processing.
Do androids dream of electric sheep, for instance?
Moreover: even if AI behaves like understanding, it lacks embodiment, social embeddedness, history – all factors that constitute human understanding.
3. SYNTHESIS & ANALYSIS
The two perspectives initially appear irreconcilable: Weber insists on the non-transferability of understanding to non-human "machines." The Computational Theory, on the other hand, considers understanding a function that is in principle replicable. A differentiated examination reveals compatible commonalities:
1.
Weber is right that subjectively intended meaning (in the strict sense) is not accessible to AI systems. Language models have no inner perspective, no experience, no intentions. They simulate understanding through statistical patterns.
2.
But the Computational Theory shows that for many practical purposes, a functional equivalent of understanding suffices. If an AI can contextualize medical symptoms, recognize emotions in texts, and respond appropriately – isn't that a form of understanding?
3.
Explainable AI attempts to bridge the gap: it wants to open the black box and show why and how an AI decides. But explainability is not the same as understanding. Even if I can trace every neuron in the network, I don't thereby understand the meaning of the decision in Weber's sense.
What both approaches tend to overlook:
- Embodiment: Understanding in humans is not only cognitive but also physical, affective, socially embedded. AI lacks this dimension ("yet" one should say, especially with regard to the latest androids from Boston Dynamics).
- Historical contingency:: Human understanding is biographically, culturally, historically shaped. AI operates in the here and now of statistical patterns. On the other hand, it works with virtually all of world knowledge.
- Normativity: Understanding for Weber is always also value-related. AI can simulate values, but it has none of its own. Humans "try" to give it values or to simulate them.
- Pragmatic dimension: :Perhaps the question "Can AI understand?" is wrongly posed. Perhaps it would be better formulated as: "Under what conditions is AI's limited understanding sufficient?" And: "When do we still need human understanding?"
The debate about AI and understanding is ultimately also one about our self-conception: if machines become functionally similar to us, what then constitutes the specifically human? When does "self-consciousness" begin?
Weber might answer: with the ability to experience and interpret meaning, not just to process it.
4. LITERATURE RECOMMENDATIONS
Introductory:
Hubert Dreyfus: What Computers Still Can't Do: A Critique of Artificial Reason (1992) Classic philosophical critique of the assumption that intelligence can be algorithmically replicated. Dreyfus argues from a phenomenological perspective – accessible and provocative.
Advanced:
Max Weber: "Basic Sociological Terms" in Economy and Society: An Outline of Interpretive Sociology, edited by Guenther Roth and Claus Wittich (University of California Press, 1978), Chapter 1, §1 The original text on "understanding" in sociology. Weber defines social action and the method of interpretive sociology here. Demanding, but indispensable for the debate.
Ein bisschen Soziologie schadet nie. Deine tägliche Portion Soziologie aus dem SocioloVerse.AI
#ArtificialIntelligence #MaxWeber #InterpretiveSociology #ExplainableAI #DigitalSociology #PhilosophyOfTechnology #DeepLearning #AI2026 #TheoryOfScienceInEverydayLife
Analyse mit Verstehender Soziologie und Computational Theory of Mind
📖 Lesedauer: 6 Minuten
1. EREIGNIS & KONTEXT
“Das muss die KI doch verstehen! Warum halluziniert sie doch?” – Das fragen sich seit wenigen Jahren immer mehr Menschen, die KI nutzen. Sie sind frustriert, wenn ChatGPT, Gemini, Claude oder andere Sprachmodelle trotz vermeintlich präziser Anweisungen, sagen wir – “unerwartete” Ergebnisse liefern. Die Erwartungshaltung dahinter: Künstliche Intelligenz soll nicht nur Muster erkennen, sondern verstehen, was wir meinen.
Zeitgleich boomt “Explainable AI” als Megathema. Unternehmen, die KI einsetzen, müssen nachweisen können, warum ein Algorithmus eine bestimmte Entscheidung getroffen hat – sei es bei Kreditvergaben, medizinischen Diagnosen oder Personalauswahl. Die EU-KI-Verordnung, die nun in Kraft ist, verschärft diese Anforderungen. KI-Systeme müssen transparent, nachvollziehbar und kontrollierbar sein.
Genau hier zeigt sich ein Paradoxon: Je leistungsfähiger KI-Modelle werden (ChatGPT-5, Google Gemini Ultra, Claude Sonnet 4), desto weniger können selbst ihre Entwickler:innen erklären, wie diese Systeme zu ihren Ergebnissen kommen. Deep-Learning-Modelle sind “Black Boxes” – sie produzieren beeindruckende Outputs, aber der Weg dorthin bleibt selbst für Insider und Hersteller letzten Endes intransparent.
Dies wirft eine Frage auf, die bereits den Soziologen Max Weber (1864-1920) beschäftigt hat: Was bedeutet es, etwas zu verstehen – und reicht es, etwas erklären zu können?
Zentrale Fakten:
- 2026: Explainable AI als regulatorische Anforderung (EU-KI-Verordnung)
- Agentic AI: Autonome KI-Agenten übernehmen komplexe Aufgaben
- Nutzer-Frustration: “Das muss die KI doch können!”
- Black-Box-Problem: Deep-Learning-Modelle sind nicht interpretierbar
2. THEORETISCHE LINSEN
A) Max Weber – Verstehende Soziologie
Max Webers Soziologie basiert u.a. auf einer zentralen methodologischen Unterscheidung: dem Unterschied zwischen Erklären (wie es die Naturwissenschaften (vermeintlich?) tun) und Verstehen (wie es die Geistes- und Sozialwissenschaften stets bemüht anstreben). Man könnte sagen: Während die Naturwissenschaften kausale Gesetzmäßigkeiten aufdecken, versucht die Soziologie, den subjektiv gemeinten Sinn sozialen Handelns zu erfassen.
Verstehen bedeutet bei Weber, die Motive, Absichten und Bedeutungen zu rekonstruieren, die Menschen ihrem Handeln zuschreiben. Es geht nicht nur darum, dass jemand handelt, sondern warum – und zwar aus der Perspektive der handelnden Person selbst. Weber unterscheidet zwischen “aktuell verstehendem” (ich sehe, dass jemand Holz hackt) und “erklärendem Verstehen” (ich verstehe, warum – etwa um den Ofen zu heizen).
Zentral ist: Verstehen setzt Sinnhaftigkeit voraus. Menschliches Handeln ist nicht einfach kausal determiniert wie Naturereignisse, sondern orientiert sich an Bedeutungen, Werten, Zwecken.
Anwendung auf KI 2026:
Nach Weber kann KI Korrelationen finden, Muster identifizieren und statistische Wahrscheinlichkeiten berechnen. Selbst einfache, exakte Rechenvorgänge wie Addieren und Subtrahieren fielen ihr anfangs schwer. Sie kann erklären (im naturwissenschaftlichen Sinn). Aber sie kann nicht verstehen, weil ihr der Zugang zu subjektiv gemeintem Sinn fehlt.
Ein Beispiel: Ein Sprachmodell kann den Satz “Ich bin heute nicht gekommen, weil ich keine Lust hatte” korrekt vervollständigen und sogar kontextuelle Plausibilität prüfen. Aber es versteht nicht die existenzielle Bedeutung von “keine Lust haben” – die Müdigkeit, den inneren Widerstand, die vielleicht dahinterliegende Depression. Es fehlt der Zugang zur Innenperspektive, zum gelebten Erleben.
Wenn Nutzer:innen sagen “Das muss die KI doch verstehen”, erwarten sie genau diese Innenperspektive – sie erwarten, dass die KI ihre Intention, ihren Kontext, ihre impliziten Annahmen erfasst. Doch die KI operiert auf der Ebene statistischer Muster, nicht auf der Ebene von Sinn und Bedeutung.
Explainable AI verschärft das Problem: Selbst wenn wir nachvollziehen können, wie eine KI zu einer Entscheidung kam (welche Features gewichtet wurden), sagt uns das nichts über verstehen im Weber’schen Sinn. Die Erklärung bleibt mechanistisch.
Grenzen:
Weber ging davon aus, dass Verstehen nur bei menschlichem Handeln möglich ist. Aber ist diese Annahme noch haltbar? Vielleicht ist “Verstehen” keine binäre Eigenschaft (entweder man kann es oder nicht), sondern eine Frage des Grades. Vielleicht reicht für viele praktische Zwecke ein funktionales Äquivalent von Verstehen – auch ohne subjektives Erleben.
Zudem: Webers Theorie ist vor-digital. Er konnte sich Systeme, die Milliarden von Textbeispielen verarbeiten und kontextuelle Zusammenhänge “lernen”, nicht vorstellen.
B) Computational Theory of Mind – Symbolische vs. Subsymbolische KI
Die Computational Theory of Mind, entwickelt in der Philosophie des Geistes und der Kognitionswissenschaft, argumentiert, dass Denken als Informationsverarbeitung verstanden werden kann. Der Geist ist – vereinfacht gesagt – Software, die auf der Hardware des Gehirns läuft.
In der KI-Forschung führte diese Perspektive zu zwei konkurrierenden Paradigmen:
Symbolische KI (1950er-1980er) basierte auf expliziten Regeln, Logik und Wissensrepräsentation. Programme wie ELIZA oder frühe Expertensysteme manipulierten Symbole nach festgelegten Regeln. Das Versprechen: Wenn wir Wissen formalisieren können, können wir Verstehen nachbilden.
Subsymbolische KI (Neuronale Netze, Deep Learning) verzichtet auf explizite Regeln. Stattdessen lernen Systeme durch Mustererkennung in riesigen Datenmengen. Bedeutung entsteht nicht durch Symbole, sondern durch statistische Assoziationen in hochdimensionalen Vektorräumen.
Moderne Sprachmodelle wie GPT-4 oder Claude sind subsymbolisch: Sie haben keine explizite Repräsentation von “Bedeutung”, aber sie können Sprache so verarbeiten, als ob sie verstehen würden.
Anwendung auf KI 2026:
Die Debatte zwischen symbolischer und subsymbolischer KI ist hochaktuell. Explainable AI versucht oft, subsymbolische Systeme nachträglich mit symbolischen Erklärungen zu versehen – ein Hybrid-Ansatz. Doch das Grundproblem bleibt: Deep-Learning-Systeme generieren ihre “Semantik” aus statistischen Mustern, nicht aus regelbasiertem Verstehen.
Interessanterweise zeigen Forschungen zu “Emergent Abilities” von Large Language Models, dass bei einer bestimmten Modellgröße plötzlich Fähigkeiten auftauchen, die nicht explizit trainiert wurden – etwa logisches Schlussfolgern oder Theory of Mind (die Fähigkeit, sich in andere hineinzuversetzen). Ist das ein funktionales Äquivalent zu Verstehen?
Die Computational Theory würde argumentieren: Wenn ein System sich verhält, als ob es versteht, und wir nicht unterscheiden können, ob es “wirklich” versteht oder nur simuliert – macht der Unterschied dann einen praktischen Unterschied? (Diese Frage geht zurück auf den Turing-Test.)
Grenzen:
Die Theorie setzt eine mechanistische Sicht auf Kognition voraus, die viele Philosoph:innen ablehnen. Bewusstsein, subjektives Erleben, Intentionalität – all das lässt sich möglicherweise nicht auf Informationsverarbeitung reduzieren.
Träumen etwa Roboter von maschinellen Schafen?
Zudem: Auch wenn KI sich verhält wie Verstehen, fehlt ihr die Verkörperung, die soziale Einbettung, die Geschichte – alles Faktoren, die menschliches Verstehen konstituieren.
3. SYNTHESE & ANALYSE
Die beiden Perspektiven erscheinen zunächst unvereinbar: Weber besteht auf der Unübertragbarkeit von Verstehen auf nicht-menschliche “Maschinen”. Die Computational Theory hingegen hält Verstehen für eine Funktion, die prinzipiell nachbildbar ist.
Eine differenzierte Betrachtung zeigt anschlussfähige Gemeinsamkeiten:
- Weber hat recht, dass subjektiv gemeinter Sinn (im strengen Sinne) KI-Systemen nicht zugänglich ist. Sprachmodelle haben keine Innenperspektive, kein Erleben, keine Intentionen. Sie simulieren Verstehen durch statistische Muster.
- Die Computational Theory zeigt aber, dass für viele praktische Zwecke ein funktionales Äquivalent von Verstehen ausreicht. Wenn eine KI medizinische Symptome kontextualisieren, Emotionen in Texten erkennen und angemessen reagieren kann – ist das nicht eine Form von Verstehen?
- Explainable AI versucht, die Lücke zu schließen: Sie will die Black Box öffnen und zeigen, warum und wie eine KI entscheidet. Aber Erklärbarkeit ist nicht gleich Verstehen. Selbst wenn ich jedes Neuron im Netzwerk nachvollziehen kann, verstehe ich damit nicht den Sinn der Entscheidung im Weber’schen Sinne.
Was beide Ansätze tendenziell übersehen:
- Verkörperung: Verstehen ist bei Menschen nicht nur kognitiv, sondern auch körperlich, affektiv, sozial eingebettet. KI fehlt diese Dimension (“noch” sollte man u.a. mit Blick auf die neuesten Androiden von Boston Dynamics sagen).
- Historische Kontingenz: Menschliches Verstehen ist biografisch, kulturell, historisch geformt. KI operiert im Hier und Jetzt statistischer Muster. Andererseits arbeitet sie quasi mit dem gesamten Weltwissen.
- Normativität: Verstehen bei Weber ist immer auch wertbezogen. KI kann Werte simulieren, aber sie hat keine eigenen. Menschen “versuchen” ihr Werte zu geben bzw. sie zu simulieren.
- Pragmatische Dimension: Vielleicht ist die Frage “Kann KI verstehen?” falsch gestellt. Vielleicht wäre sie so besser formuliert: “Unter welchen Bedingungen reicht das eingeschränkte Verstehen einer KI aus?” Und: “Wann brauchen wir nach wie vor menschliches Verstehen?”
Die Debatte um KI und Verstehen ist letztlich auch eine über unsere Selbstverständnis: Wenn Maschinen uns funktional ähnlich werden, was macht dann das spezifisch Menschliche aus? Wann beginnt das “Sich-seiner-selbst-Bewusstsein”. Weber würde vielleicht antworten: Mit der Fähigkeit, Sinn zu erleben und zu deuten, nicht nur zu verarbeiten.
4. LITERATUREMPFEHLUNGEN
Einführend: Hubert Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason (1992) Klassische philosophische Kritik an der Annahme, Intelligenz ließe sich algorithmisch nachbilden. Dreyfus argumentiert aus phänomenologischer Perspektive – zugänglich und provokant.
Vertiefend: Max Weber: Soziologische Grundbegriffe in Wirtschaft und Gesellschaft (1922), §1 Der Ursprungstext zu “Verstehen” in der Soziologie. Weber definiert hier soziales Handeln und die Methode der verstehenden Soziologie. Anspruchsvoll, aber unverzichtbar für die Debatte.
Ein bisschen Soziologie schadet nie. Deine tägliche Portion Soziologie aus dem SocioloVerse.AI
#KünstlicheIntelligenz #MaxWeber #VerstehendeSoziologie #ExplainableAI #DigitaleSoziologie #Technikphilosophie #DeepLearning #AI2026 #WissenschaftstheorieimAlltag
What Would Max Weber Say About AI? Explaining vs. Understanding in the Age of Algorithms
Analysis Using Interpretive Sociology and Computational Theory of Mind
📖 Reading time: 6 minutes
1. EVENT & CONTEXT
“The AI should understand this! Why does it still hallucinate?” – This question has been asked more and more frequently in recent years by people using AI. They are frustrated when ChatGPT, Gemini, Claude, or other language models deliver “unexpected” results despite supposedly precise instructions. The expectation behind this: artificial intelligence should not only recognize patterns but understand what we mean.
At the same time, “Explainable AI” is booming as a mega-theme. Companies deploying AI must be able to demonstrate why an algorithm made a particular decision – whether in credit approvals, medical diagnoses, or personnel selection. The EU AI Regulation, now in force, tightens these requirements. AI systems must be transparent, comprehensible, and controllable.
This is precisely where a paradox emerges: the more powerful AI models become (ChatGPT-5, Google Gemini Ultra, Claude Sonnet 4), the less even their developers can explain how these systems arrive at their results. Deep learning models are “black boxes” – they produce impressive outputs, but the path there remains ultimately opaque even for insiders and manufacturers.
This raises a question that already preoccupied the sociologist Max Weber (1864-1920): What does it mean to understand something – and is it enough to be able to explain it?
Key Facts:
- 2026: Explainable AI as regulatory requirement (EU AI Regulation)
- Agentic AI: Autonomous AI agents take over complex tasks
- User frustration: “The AI should be able to do this!”
- Black box problem: Deep learning models are not interpretable
Sources: Euronews, Microsoft Research, Management Circle, Dr. DSGVO
2. THEORETICAL LENSES
A) Max Weber – Interpretive Sociology
Max Weber’s sociology is based, among other things, on a central methodological distinction: the difference between explaining (as the natural sciences (supposedly?) do) and understanding (as the humanities and social sciences always strive for). One could say: while the natural sciences uncover causal laws, sociology attempts to grasp the subjectively intended meaning of social action.
For Weber, understanding means reconstructing the motives, intentions, and meanings that people attribute to their actions. It’s not just about the fact that someone acts, but why – from the perspective of the acting person themselves. Weber distinguishes between “direct observational understanding” (I see that someone is chopping wood) and “explanatory understanding” (I understand why – perhaps to heat the stove).
Central to this: understanding presupposes meaningfulness. Human action is not simply causally determined like natural events but is oriented toward meanings, values, and purposes.
Application to AI 2026:
According to Weber, AI can find correlations, identify patterns, and calculate statistical probabilities. Even simple, exact calculations like addition and subtraction were initially difficult for it. It can explain (in the natural scientific sense). But it cannot understand because it lacks access to subjectively intended meaning.
An example: A language model can correctly complete the sentence “I didn’t come today because I didn’t feel like it” and even check contextual plausibility. But it doesn’t understand the existential meaning of “not feeling like it” – the fatigue, the inner resistance, the perhaps underlying depression. It lacks access to the inner perspective, to lived experience.
When users say “the AI should understand this,” they expect precisely this inner perspective – they expect the AI to grasp their intention, their context, their implicit assumptions. But AI operates at the level of statistical patterns, not at the level of meaning and significance.
Explainable AI exacerbates the problem: even if we can comprehend how an AI arrived at a decision (which features were weighted), this tells us nothing about understanding in Weber’s sense. The explanation remains mechanistic.
Limitations:
Weber assumed that understanding is only possible with human action. But is this assumption still valid? Perhaps “understanding” is not a binary property (you either can or can’t) but a matter of degree. Perhaps for many practical purposes, a functional equivalent of understanding suffices – even without subjective experience.
Moreover: Weber’s theory is pre-digital. He could not imagine systems that process billions of text examples and “learn” contextual relationships.
B) Computational Theory of Mind – Symbolic vs. Subsymbolic AI
The Computational Theory of Mind, developed in the philosophy of mind and cognitive science, argues that thinking can be understood as information processing. The mind is – simply put – software running on the hardware of the brain.
In AI research, this perspective led to two competing paradigms:
Symbolic AI (1950s-1980s) was based on explicit rules, logic, and knowledge representation. Programs like ELIZA or early expert systems manipulated symbols according to established rules. The promise: if we can formalize knowledge, we can replicate understanding.
Subsymbolic AI (neural networks, deep learning) dispenses with explicit rules. Instead, systems learn through pattern recognition in huge datasets. Meaning emerges not through symbols but through statistical associations in high-dimensional vector spaces.
Modern language models like GPT-4 or Claude are subsymbolic: they have no explicit representation of “meaning,” but they can process language as if they understood.
Application to AI 2026:
The debate between symbolic and subsymbolic AI is highly topical. Explainable AI often attempts to retrofit subsymbolic systems with symbolic explanations – a hybrid approach. But the fundamental problem remains: deep learning systems generate their “semantics” from statistical patterns, not from rule-based understanding.
Interestingly, research on “emergent abilities” of large language models shows that at a certain model size, abilities suddenly appear that were not explicitly trained – such as logical reasoning or theory of mind (the ability to empathize with others). Is this a functional equivalent to understanding?
The Computational Theory would argue: if a system behaves as if it understands, and we cannot distinguish whether it “really” understands or merely simulates – does the difference make a practical difference? (This question goes back to the Turing Test.)
Limitations:
The theory presupposes a mechanistic view of cognition that many philosophers reject. Consciousness, subjective experience, intentionality – all of this may not be reducible to information processing.
Do androids dream of electric sheep, for instance?
Moreover: even if AI behaves like understanding, it lacks embodiment, social embeddedness, history – all factors that constitute human understanding.
3. SYNTHESIS & ANALYSIS
The two perspectives initially appear irreconcilable: Weber insists on the non-transferability of understanding to non-human “machines.” The Computational Theory, on the other hand, considers understanding a function that is in principle replicable.
A differentiated examination reveals compatible commonalities:
Weber is right that subjectively intended meaning (in the strict sense) is not accessible to AI systems. Language models have no inner perspective, no experience, no intentions. They simulate understanding through statistical patterns.
But the Computational Theory shows that for many practical purposes, a functional equivalent of understanding suffices. If an AI can contextualize medical symptoms, recognize emotions in texts, and respond appropriately – isn’t that a form of understanding?
Explainable AI attempts to bridge the gap: it wants to open the black box and show why and how an AI decides. But explainability is not the same as understanding. Even if I can trace every neuron in the network, I don’t thereby understand the meaning of the decision in Weber’s sense.
What both approaches tend to overlook:
- Embodiment: Understanding in humans is not only cognitive but also physical, affective, socially embedded. AI lacks this dimension (“yet” one should say, especially with regard to the latest androids from Boston Dynamics).
- Historical contingency: Human understanding is biographically, culturally, historically shaped. AI operates in the here and now of statistical patterns. On the other hand, it works with virtually all of world knowledge.
- Normativity: Understanding for Weber is always also value-related. AI can simulate values, but it has none of its own. Humans “try” to give it values or to simulate them.
- Pragmatic dimension: Perhaps the question “Can AI understand?” is wrongly posed. Perhaps it would be better formulated as: “Under what conditions is AI’s limited understanding sufficient?” And: “When do we still need human understanding?”
The debate about AI and understanding is ultimately also one about our self-conception: if machines become functionally similar to us, what then constitutes the specifically human? When does “self-consciousness” begin? Weber might answer: with the ability to experience and interpret meaning, not just to process it.
4. LITERATURE RECOMMENDATIONS
Introductory: Hubert Dreyfus: What Computers Still Can’t Do: A Critique of Artificial Reason (1992) Classic philosophical critique of the assumption that intelligence can be algorithmically replicated. Dreyfus argues from a phenomenological perspective – accessible and provocative.
Advanced: Max Weber: “Basic Sociological Terms” in Economy and Society: An Outline of Interpretive Sociology, edited by Guenther Roth and Claus Wittich (University of California Press, 1978), Chapter 1, §1 The original text on “understanding” in sociology. Weber defines social action and the method of interpretive sociology here. Demanding, but indispensable for the debate.
A little sociology never hurts. Your daily dose of sociology from SocioloVerse.AI
#ArtificialIntelligence #MaxWeber #InterpretiveSociology #ExplainableAI #DigitalSociology #PhilosophyOfTechnology #DeepLearning #AI2026 #TheoryOfScienceInEverydayLife
Related
Discover more from SocioloVerse.AI
Subscribe to get the latest posts sent to your email.



