top of page
KI-Bild mit ChatGPT erstellt
KI-Bild mit ChatGPT erstellt

Wie wir KI nutzen, um den Leistungsbegriff grundlegend zu erneuern, anstatt sie nur als pädagogisches Feigenblatt zu verwenden.


Die Debatte um Künstliche Intelligenz und Leistung, kraftvoll angestoßen durch Diskurse wie die Blogparade #kAIneEntwertung, trifft einen Nerv. KI entwertet menschliche Leistung jedoch nicht pauschal – sie entlarvt lediglich schonungslos, wie eng wir Leistung in der Schule über Jahrzehnte definiert haben: als standardisierten, messbaren Output unter Prüfungsbedingungen.


In diesem schonungslosen Spiegel liegt aber meines Erachtens zugleich die große Chance: Leistung endlich neu zu fassen – prozess-, kompetenz- und verantwortungsorientiert –, statt verzweifelt die alte Produktlogik zu verteidigen.

Die kritische Reihe #KIBedenken markiert diese Bruchstelle. Nele Hirsch fordert meines Erachtens zu Recht eine Veränderung der Lernkultur – beginnend bei einer grundlegend veränderten Fortbildungskultur, die nicht nur Tool-Anwendung schule, sondern mutig einen Blick auf die Komplexität des gesamten Leistungsbegriffs richten müsse. Auch Dr. Isabella Buck beklagt eine Toolifizierung, wenn in Schule und Fortbildung über KI gesprochen werde. Diese Fixierung und Reduzierung der neuen KI-Realität auf Werkzeuge diene als Scheinsicherheit, die uns helfe, die eigentlich notwendige, tiefgreifende Transformation von Lernen und Prüfen zu vermeiden. Und allzu oft höre auch ich als Totschlagargument, warum in der Schule keine KI etwas verloren habe: aber die Prüfungsordnung! Aber das Abitur! Spätestens in der Kursstufe dürfe man daher auch keine KI als Teil einer Prüfung zulassen... .


Dieser Artikel soll ein konstruktiver Lösungsbeitrag sein. KI legt eine offensichtliche Fehlkalibrierung und einseitige Fokussierung unseres Leistungsbegriffs schmerzhaft offen. Er analysiert diese Fehlkalibrierung, die der KI-Spiegel uns so schonungslos zeigt, und skizziert einen konkreten Bauplan für einen zukunftsfähigen, fairen, neu gedachten Leistungsbegriff.


1. Fehlkalibrierte Anreize: „Shortcut-Logik“ statt nachhaltiges Lernen


Wenn Lernende sagen: „Aber ChatGPT hat das doch auch so!“, ist das oft kein moralisches Versagen, sondern eine rationale Handlung. In einem System, in dem Noten als extrinsische Anreize dominieren, ist der KI-Shortcut ökonomisch sinnvoll, um dem Druck zu entkommen.


Die Forschung benennt diesen Mechanismus präzise:


  • Costa & Murphy (2025) warnen vor der Tyrannei der Freiheit: Demzufolge stelle KI eine verführerische Entlastung von jeglicher kognitiver Mühe dar, die aber genau die Fähigkeiten erodiere, die sie vorgebe zu unterstützen.


  • Fan et al. (2025) diagnostizieren metakognitive Faulheit – eine sinkende Lernmotivation und eine nachweislich flachere kognitive Verarbeitung durch ständige KI-Nutzung.


  • Zhang & Xu (2025) beschreiben das Self-Efficacy-Paradoxon: Lernende fühlten sich durch KI-Tools kompetenter (Schein-Wirksamkeit), entwickelten aber faktisch eine tiefere technologische Abhängigkeit. Das Zutrauen in die eigene Kognition schwinde.


Parallel dazu entsteht (oder besteht) eine Abwehrhaltung auf Lehrendenseite. Sie ist getrieben von Kontrollverlust und der Tatsache, dass KI-Detektoren nachweislich unzuverlässig sind. Diese Unsicherheit befeuert die notwendige Verschiebung hin zu mündlichen Formaten.


Die zentrale Diagnose ist daher: Nicht KI macht faul. Unser Anreizsystem ist es, was den KI-Shortcut so attraktiv macht. Wir sägen gemeinsam am Ast, auf dem wir so bequem zu sitzen meinen.


2. Die Bewertungswende: Vom Produkt zum Prozess – mit klaren Leitplanken


Die Konsequenz ist radikal: „Closed-Book“-Klausuren und Hausarbeiten, die reines Faktenwissen reproduzieren lassen, sind obsolet. Sie messen nur noch, wer die KI am geschicktesten täuschend einsetzt.

Institutionelle Antworten und praxistaugliche Lösungen entstehen aber bereits:


  1. Das VIVA (Verteidigungsgespräch): Verständnis, Transferleistung und Prozesskompetenz werden mündlich validiert. In einem 10-minütigen Gespräch über den Arbeitsprozess zeigt sich schnell, ob der Lernende den KI-Output intellektuell besitzt oder nur kopiert hat. Dieses Format ist robust gegen schwache Detektionssoftware.


  2. Portfolio + „nicht generierbare Anteile“: Ein E-Portfolio allein ist nicht KI-sicher. Die FernUni Hagen (2025) empfiehlt die entscheidende Kopplung: Das Portfolio wird erst dann robust, wenn die Reflexion an Live-Ereignisse geknüpft wird – also an Anteile, die die KI nicht erleben kann (z. B. die Reflexion einer Laborbeobachtung, die Analyse einer Theaterprobe, die Durchführung eines Interviews).


  3. KI-Kompetenz prüfen: Hier geht es nicht um „Prompt-Tricks“. Die PrEval Studie (2/2025) empfiehlt dilemma- und szenariobasierte Prüfungen: Lernende müssen Bias in Trainingsdaten, ethische Verantwortung oder die Profitinteressen hinter den Modellen bewerten.


  4. Praxis-Leitplanken: Leitfäden wie der von Falck & Flick (2025) helfen Lehrenden, Aufgaben pragmatisch zu strukturieren (kein / punktueller / integraler KI-Einsatz).


Trotz dieser Lösungen müssen wir die Risiken ehrlich benennen: Eine reine Prozessbewertung kann subjektiv und extrem aufwändig (nicht skalierbar) werden. Ein übereilter Abschied von Faktenwissen und Fehleranalyse wäre zudem ein Bärendienst. Ich möchte daher an dieser Stelle dezidiert hervorheben, dass ich meine Gedanken keinesfalls als Plädoyer für die Aufgabe von (Grundlagen)Wissen und Allgemeinbildung verstanden wissen möchte. Denn eine Schule ohne Allgemeinbildung oder Faktenwissensvermittlung würde Lernende komplett ohne Routine und realistische (Selbst)Einschätzung zurücklassen und könnte Prüfungsangst womöglich sogar verstärken, da sie sie letztlich im Vagen/Ungewissen alleine lassen würde. In einer Zeit zunehmender Falschinformation, geboostet durch KI, wäre dies ein fataler Fehlschluss.

Die Antwort liegt daher in hybriden Formaten: Eine Kombination aus (KI-gestütztem) Produkt, (Live-)Reflexionsanteil und (mündlichem) VIVA vereint Fairness, Skalierbarkeit und kognitive Tiefe.


3. Menschliche Leistung neu kalibrieren: Metakognition, Kuration, Beziehung


Sofern wir annehmen, dass der Lernende die KI nutzt, um die unteren Stufen der Bloomschen Taxonomie (Erinnern, Verstehen, Anwenden) zuverlässig zu bewältigen, und sofern wir der KI zugestehen, dass sie auf diese Weise gewinnbringend genutzt werden kann, wird die eigentliche, zutiefst menschliche Lernleistung erst darüber wertvoll und sichtbar: in der kritischen Analyse, der ethischen Bewertung und der kreativen Neugestaltung, die eben nicht delegierbar sind:


  • Metakognition & Kritisches Prüfen: Die Qualität von KI-Output bewerten (Bias-Erkennung, Halluzinationen entlarven, Quellen validieren). Diese Beurteilung ist oft anspruchsvoller als die Produktion selbst.




Hier zeigt sich das zentrale Paradox: Das alte System erzeugt durch seine Anreize metakognitive Atrophie, während die Zukunft genau diese Metakognition und den kritischen Diskurs zwingend verlangt. Wir müssen schneller umlernen, als die „Tyrannei der Freiheit“ uns verlernen lässt.


4. Der soziale Kipppunkt: Von „Entwertung“ zur Umverteilung von Wert


Übertragen wir dies auf die Gesellschaftsebene, sehen wir keinen „Digital Divide“ des Zugangs mehr. Wir sehen ein Kompetenzgefälle: die Kluft zwischen Gestaltern (diejenigen, die KI aktiv kritisch kuratieren und verantworten) und Gemanagten (diejenigen, die KI lediglich passiv konsumieren).

Wir müssen hier klar differenzieren – und vielleicht ist es genau diese fehlende Differenzierung, die viele Lehrkräfte beunruhigt: Der 'Plus-Zugang' zu ChatGPT, den Lernende vielleicht besitzen, ist noch lange keine KI-Kompetenz. Die Fähigkeit, schnell Ergebnisse zu generieren, verdeckt oft, dass das Verständnis für die Prozesse, die ethischen Implikationen oder die systemischen Verzerrungen (Bias) dahinter völlig fehlt.

Genau diese Einschätzung bestätigen die Datenerhebung des D21 Digital Index 2024/25. Sie belegen klare Differenzen bei der KI-Nutzung nach Alter und Bildung und bestätigen die sich ändernden Anforderungen an Qualifikation.


Die PrEval-Studie definiert „Critical AI Literacy“ (Kritische KI-Mündigkeit) daher zu Recht systemisch und betont, dass es darum gehe, Biases im Kontext von Ungleichheit sowie Macht- und Profitinteressen zu verstehen. Diese Definition sei ökonomisch zwingend, denn parallel verlagere sich der gesellschaftliche Wert weg von standarisiertem „kognitivem Stückgut“ hin zur „nichttrivialen Maschine“ Mensch – also zu menschlicher Urteilsfähigkeit, Verantwortung, Problemdefinition und Kuration. Der alarmierende Befund der Studie ist jedoch, dass genau diese Dimensionen (Empathie, Ambiguitätstoleranz, Sozio-Struktur) in den Curricula noch weitgehend fehlen.


5. Aus dem Spiegel heraustreten: Vom Feigenblatt zur neuen Architektur


Wenn wir jetzt nur VIVAs und Portfolios einführen würden, ohne die Lernkultur an sich zu ändern, nutzen wir nur pädagogische Feigenblätter. Es würde meines Erachtens genau die Toolifizierung verfestigen, vor der Isabella Buck warnt, bzw. wäre lediglich eine verzweifelte Reaktion darauf.

Wir brauchen jedoch einen echten Architekturwechsel. Schule muss viel stärker zu einem sicheren Experimentier-, Forschungs- und Erprobungsfeld werden – zu einer „Innovationsspielwiese“, in der auch Scheitern erlaubt ist ("safe spaces to fail").


Stellen wir uns doch mal ein (noch utopisches) Langzeitprojekt vor: „Wir trainieren unsere eigene Schul-KI.“ Ein fächer- und jahrgangsübergreifendes Vorhaben. Die Lernenden müssen die Daten selbst sammeln, kuratieren und annotieren. Sie müssen das Feintuning des Modells vornehmen. Plötzlich wird Ethik praktisch: Wessen Daten nutzen wir? Welchen Bias bauen wir gerade (versehentlich) ein? Das wird zur gelebten, tiefgreifenden Verantwortungsschulung.

Das klingt nach einem radikal neuen Ansatz. Führen wir ihn weiter: Was wäre, wenn statt starren Fächern zu Beginn eines Schuljahres eine Projektbörse stattfände? Angeboten werden problemorientierte (Forschungs-)Projekte, vielleicht in Kooperation mit Universitäten, zu gesellschaftlichen Zukunftsfragen, Nachhaltigkeit, Demokratiebildung oder naturwissenschaftlichen Rätseln.


Die Lernenden wählen nach Interesse und merken in ihren Teams schnell: „Oh, für mein Projekt über Stadtplanung der Zukunft benötige ich Statistik-Grundlagen aus Mathe und muss besser argumentieren lernen.“ Sie justieren selbstreguliert nach. Die Schule stellt dafür exzellente (KI-gestützte) Lernbots zur Vermittlung von Grundwissen bereit, aber vor allem menschliche Lernbegleiter und Coaches.

Das Ziel ist ein intrinsisch motivierter Lernprozess. Eingewoben in die Projektgruppe, muss jeder Verantwortung für das Gelingen des Ganzen übernehmen – ohne die lähmende Angst vor der nächsten Note. Schule wird so vom Ort der Leistungsabfrage zum Verantwortungsraum.

Das klingt utopisch? Vielleicht. Aber wir könnten damit in höheren Klassen beginnen. Oder an einem festen Projekttag pro Woche. Die Ansätze existieren.

Um diesen Wandel jetzt einzuleiten und fair zu gestalten, brauchen wir ein konkretes 5-Punkte-Paket für die unmittelbare Praxis, der zugleich einen konkreten Weg dahin beschreibt:


  1. Transparente Aufgabenarchitektur (nach Falck & Flick): Jede Aufgabe wird einer von drei KI-Stufen zugeordnet (keine KI / punktuell / integral). Die Erwartungen an die KI-Nutzung sind für alle klar.


  2. Hybrid-Prüfung „3×R“ (Result – Reasoning – Reflection):

    • Result: Das (KI-gestützte) Produkt wird offengelegt und vielleicht sogar demonstriert.

    • Reasoning (VIVA): Eine 10-minütige mündliche Verteidigung des Prozesses, der Strategie und der Stolpersteine (auch: des Scheiterns).

    • Reflection: Eine Kurzreflexion im Rahmen eines nicht generierbaren Live-Ereignisses (Experiment, Interview, Hospitation).


  3. 4K-Rubriken + Metakognition: Eine einheitliche, transparente Bewertungsmatrix zu Kritik, Kreativität (Kuration), Kommunikation, Kollaboration, ergänzt um Leitfragen zur Metakognition (Bias-Check, Quellen-Validierung).


  4. Micro-Credentials (Teil-Zertifikate): Statt nur auf Endnoten zu starren, weisen Lernende modulare Teilkompetenzen nach (z.B. „Bias-Audit Basics“, „Reflexionslogik“, „Prompt-Ethik 101“, aber auch "Mathe-Grundlagen", "Grammatik-Anwendung", "Stil- und Logik" usw.). Das macht Progression sichtbar.


  5. Critical AI Literacy spiralcurricular verankern (z. B. nach PrEval): KI-Mündigkeit wird in jedem Jahrgang mit steigender Komplexität geschult: Der Lernweg führt von der reinen Tool-Anwendung (enggeführt bis eigenverantwortlich), über die Auseinandersetzung mit Bias und Fairness sowie Macht, Profit und Regulatorik bis hin zur Debatte um gesellschaftliche Folgen und Verantwortung.


Fazit: Es geht nicht darum, ob wir Leistung neu denken – sondern wie mutig wir sie neu denken.


Wir stehen als Bildungssystem zwischen zwei Pfaden:


  1. Das pragmatische Feigenblatt: Wir ersetzen die alte Performanz (Aufsatz, Produktbenotung) durch eine neue (Portfolio mit Reflexionsbox). Das System bleibt, die Toolifizierung siegt, und die soziale Ungleichheit der KI-Nutzung wächst.


  2. Die transformative Architektur: Wir nutzen die Krise, um den Leistungsbegriff neu zu kalibrieren. Wir rücken Beziehungsarbeit, ethisches Urteilen und Metakognition in den Mittelpunkt – mit klaren, fairen Leitplanken und der Vision einer projektorientierten Schule.


KI ist nicht die Ursache für die Krise. Sie ist der Spiegel, der uns eine längst auffällige Schieflage schonungslos offenlegt. Der Wert menschlicher Leistung steigt jedoch genau dort, wo wir Absicht, Urteil, Verantwortung und Beziehung als Leistungsmaß zusammendenken. Und das kann Schule – wenn sie den Mut dazu aufbringt.



Weiterführende Diskussionsfragen für die Blogparade


Ich möchte meinen Artikel als Beitrag zur Blogparade mit ein paar weiterführenden Denkanstößen abrunden. Meine oben ausgeführten Gedanken stellen kein Pauschalrezept dar, sie möchten lediglich dazu ermutigen, dass ein Umdenken (auch bereits im Kleinen, im Jetzt) möglich ist.


  1. Was ist in deinem Fach der kleinste „nicht generierbare Anteil“, der menschliche Kompetenz sichtbar macht (z. B. die Reflexion einer Laborbeobachtung, die Kuration eines Konzertprogramms, die Analyse eines Live-Interviews)?


  2. Wie sähe eine faire VIVA-Checkliste aus, die Subjektivität in der Prozessbewertung begrenzt, aber dennoch Tiefe zulässt?


  3. Welche drei Micro-Credentials (Badges) würdest du in deiner Schule sofort einführen, um prozessuale KI-Kompetenzen sichtbar zu machen?


  4. Welche Projektidee (wie die „Projektbörse“ oder die „eigene KI trainieren“) hältst du für am dringendsten, aber auch für überhaupt umsetzbar, um Schule zu einem echten Verantwortungsraum umzugestalten?


  5. Und was, wenn wir weiterdenken: Was würde passieren, wenn Noten zugunsten von Kompetenz-Rubriken (Micro-Credentials) abgeschafft würden? Wenn wir die Stofffülle drastisch reduzierten zugunsten von Basiskompetenzen und darauf aufbauendem Projektlernen? Könnte KI dann der Katalysator sein, den wir dafür bräuchten?


 
 
 
ree

Prolog: Maschinen können nicht fühlen – erst recht nicht, wenn wir als Menschen verlernen, es zu tun.


In einer Zeit, in der Künstliche Intelligenz beginnt, Texte zu schreiben, Stimmen und Stimmungen zu imitieren, Musik zu komponieren und politische Debatten zu beeinflussen, steht eine Frage zunehmend im Raum: Was macht den Menschen menschlich? Die Antwort liegt nicht in Technologie oder Chips, sondern in einem Blick, einem Gefühl und in echter Empathie.

Empathie bildet das unsichtbare Fundament, auf dem seit jeher Zivilisationen errichtet wurden. Sie ist älter als jede von Menschen geschaffene Technologie, reicht tiefer als die beeindruckendste Rechenleistung und bleibt in ihrer Natur zerbrechlich. Der wohl einflussreichste und äußerst umstrittene Technologe unserer Zeit, Elon Musk, hat eine gänzlich andere Perspektive auf diesen essenziellen Aspekt des menschlichen Zusammenlebens. In einem Podcast mit Joe Rogan am 28. Februar 2025 erklärte Musk:

„The fundamental weakness of Western civilization is empathy. […] They’re exploiting a bug in Western civilization which is the empathy response.”

Empathie – kein Geschenk, kein moralisches Prinzip, sondern ein Bug im System? Ein Schwachpunkt, den politische Gegner „ausnutzen“?

Was wie ein provokanter Soundbite klingt, ist in Wahrheit Teil eines gefährlichen Diskurses: einer Sicht auf die Welt, in der Mitgefühl als Schwäche, Rationalität als Überlegenheit und Empathie als Sicherheitsrisiko gelten. Es ist eine Sicht, die technologisch effizient erscheinen mag – aber menschlich höchst gefährlich ist.

Dieser Essay setzt einen Kontrapunkt: eine Gegenrede ohne leeres Pathos, klar fokussiert auf Evidenz – durchdacht und konstruktiv statt impulsiv, wie Musk, der am liebsten brachial mit Kättensägen daherkommt. Er setzt Musks Aussage ins richte Verhältnis zu den Erkenntnissen aus Anthropologie, Neurowissenschaft, Ethik und Bildung – und kommt zu einem klaren Befund, der eigentlich aus sich heraus jedem Bildungsbürger mit Haltung und humanistischem Anspruch klar sein müsste: Empathie ist kein Bug. Sie ist das Betriebssystem der Menschlichkeit.


Der Bug, der keiner ist – Kontextualisierung von Elon Musks These


Elon Musk ist kein klassischer Denker, und auch als Populärphilosoph lässt er sich kaum einordnen – zu oft wirkt sein Auftreten impulsiv und selbstbezogen. Dennoch entfalten seine Aussagen eine enorme Wirkung, die weit über den technologischen Bereich hinausreicht. Indem er technologische Entwicklungen mit weltanschaulichen Aussagen verknüpft, prägt er den öffentlichen Diskurs auf subtile wie direkte Weise. Wenn er Empathie als „zivilisatorischen Bug“ abtut, ist das nicht nur eine technokratische Provokation, sondern eine bewusste Grenzverschiebung. Es zeigt, wie wenig Gewicht er zwischenmenschlichen Werten beimisst – und markiert eine ideologische Haltung, die unsere Debatten über Verantwortung, Menschlichkeit und Technologie tiefgreifend verändern möchte - sofern wir es zulassen. In einer Welt, die zunehmend von Technisierung, Egoismus, Effizienzsteigerung und globalem Druck dominiert wird, setzt Musk im gleichen Podcast ein klares Statement: Wer in dieser neuen Realität bestehen wolle, müsse einen kühlen Kopf bewahren – Mitgefühl scheint dabei eher hinderlich zu sein.

„I believe in empathy […] but you need to think it through. Civilizational suicidal empathy is going on.“

Was Musk hier meint, ist eine politisierte, strategisch instrumentalisierte Empathie – er nennt sie „weaponized empathy“. Und tatsächlich: Es gibt sie, diese Formen moralischer Emotionalisierung, mit denen Narrative verstärkt, politische Entscheidungen beeinflusst und moralische Urteile gelenkt werden. Bilder von leidenden Kindern, Aufrufe zu Solidarität in Krisen – oft sind sie ethisch begründet, manchmal bewusst manipulativ.

Doch Musk geht weiter: Er unterstellt, dass Empathie nicht nur missbraucht oder manipuliert werde, sondern diese menschliche Fähigkeit grundsätzlich eine Schwachstelle sei – „a bug in the system“. Und darin liegt die eigentliche Sprengkraft seiner Aussage: Nicht nur der Missbrauch von Empathie sei problematisch, sondern allein schon ihre bloße Existenz trage zur Schwächung, zur Fehlerhaftigkeit menschlicher Gesellschaften bei; das Mitgefühl selbst wird zum Verdachtsfall erhoben und als vermeintliche Eigenschaft der Schwachen stigmatisiert.

Damit betritt Musk das ideologische Terrain des Sozialdarwinismus, des radikalen Techno-Utilitarismus – und knüpft an ein Narrativ an, das Empathie als Rückschritt, als Verweichlichung, als Bedrohung der Ordnung ansieht. In dieser Weltsicht steht Rationalität über Moral, Effizienz über Fürsorge, Kontrolle über Beziehung.

Was hier geschieht, ist gefährlich subtil und birgt das Risiko der Erschütterung des menschlichen Miteinanders: Musk verschiebt die Semantik. Empathie wird nicht mehr als moralische Fähigkeit gedacht, sondern als angreifbare Systemkomponente. Wer empathisch handele, könnte sich „abschaffen“. Wer mitfühle, gefährde die Zivilisation.

Doch Musik irrt – sowohl aus moralischer als auch aus wissenschaftlicher Perspektive. Die Menschheitsgeschichte ist vielmehr durch eine kontinuierliche Ausweitung und Entwicklung der Empathiefähigkeit geprägt, anstatt durch einen Kampf gegen sie.


Evolution in Verbundenheit – Empathie als zivilisatorische Kraft

ree

Wenn Elon Musk behauptet, Empathie sei ein zivilisatorischer Bug, dann widerspricht diese Behauptung nicht nur jeglicher moralischer Intuition, sondern sie kollidiert frontal mit der anthropologischen und evolutionsbiologischen Evidenz.


Archaische Fürsorge: Empathie als Überlebensvorteil

Bereits archäologische Funde aus der Altsteinzeit zeigen, dass schon Neandertaler kranke und gebrechliche Gruppenmitglieder jahrelang versorgten - ganz im Gegensatz zu dem, was Musk allzu apodiktisch behauptet. Ein Kind mit schwerer Hirnfehlbildung überlebte mindestens fünf Jahre – ein Erwachsener mit Gelähmtheit und Blindheit lebte über zwei Jahrzehnte in Gemeinschaft. Das ist keine zufällige Anomalie. Es ist strukturierte Fürsorge, tief verwurzelt in der Frühgeschichte des Menschen. Anthropologen wie Penny Spikins sprechen sogar von einer „Evolution der Empathie“ – in mehreren Stufen, über sechs Millionen Jahre hinweg.

Auch Charles Darwin, der später häufig von Sozialdarwinisten vereinnahmt wurde, betonte 1871 in "The Descent of Man" ausdrücklich eine dem Sozialdarwinismus entgegenstehende Sichtweise, indem er die Bedeutung von Kooperation und Mitgefühl für das Überleben und die Weiterentwicklung der Menschheit hervorhob:

„Jene Gemeinschaften, deren Mitglieder sich in höchstem Maß durch Sympathie auszeichnen, werden am erfolgreichsten gedeihen und die meisten Nachkommen aufziehen.“ - The Descent of Man (1871)

Empathie war also nicht Hindernis, sondern geradezu ein Hebel der Selektion. Nicht die Brutalsten überlebten, sondern jene Gemeinschaften, die das Mitgefühl kultivierten.


Empathie als Bindekraft komplexer Gesellschaften

Auch soziologisch betrachtet ist Empathie das, was Émile Durkheim den sozialen Kitt nennt: jenes Gefühl der Verbundenheit, das moderne Gesellschaften vor dem Auseinanderbrechen bewahrt. In Krisenzeiten – von Krieg, Pandemie oder moralischer Anomie infolge anhaltender Krisenszenarien – sei es nicht die nackte Rationalität, die Zusammenhalt stifte, sondern die Fähigkeit, sich in das Gegenüber hineinzudenken, seine Verwundbarkeit mitzuerleben.

Norbert Elias beschreibt in seiner Zivilisationstheorie einen langen Prozess zunehmender Empathie: Öffentliche Grausamkeit – von Tierkämpfen bis zu Hinrichtungen – sei gesellschaftlich mehr und geächtet worden, weil Menschen gelernt hätten, Erfahrungen von Schmerz zu spiegeln und sich in das Leiden anderer hineinzuversetzen. Diese verinnerlichte Affektkontrolle habe erst die Rückbildung roher Gewalt ermöglicht – und mit ihr die Entstehung zivilisierter Strukturen.

Hartmut Rosa erweitert dieses Denken mit dem Begriff der Resonanz: Wer empathisch lebe, stehe in einem antwortenden Verhältnis zur Welt. Eine Gesellschaft, die diese Resonanz institutionalisiere – im Umgang mit Alten, mit Geflüchteten, mit Schwachen –, sei nicht naiv, sondern resilient.


Die neuronale Matrix des Mitgefühls

Neurowissenschaftlich betrachtet ist Empathie keine diffuse Emotion, sondern ein präzise kartierbares Phänomen: Spiegelneuronen, limbisches System, präfrontaler Cortex – all das bildet genau das neuronale Netzwerk, das es uns ermöglicht, den Schmerz anderer mitzuempfinden, ohne ihn zu verwechseln.

Studien zeigen: Wenn wir einen Menschen leiden sehen, aktiviert sich in unserem Gehirn dieselbe Region wie bei eigenem Schmerz. Doch unser Gehirn bleibt nicht im Affekt stecken: Der präfrontale Cortex unterscheidet zwischen eigenem und fremdem Erleben – das ist Empathie: Mitfühlen, ohne sich selbst dabei zu verlieren, d.h. die eigene Handlungsfähigkeit zu verlieren.

Auch hormonell ist Empathie in unserem Organismus verankert: Oxytocin – das Bindungshormon – verstärkt prosoziales Verhalten und Empathiefähigkeit. Sogar genetische Marker wie das OXTR-Gen werden mit empathischer Disposition in Verbindung gebracht. Die Evolution hat Mitgefühl nicht nur zugelassen – sie hat es gefördert.


Empathie als Handlungskraft

Empathie ist keine bloße Gefühlsregung – sie ist der emotionale Quellgrund moralischen Handelns. Die Psychologie spricht von „empathically motivated altruism“: Wer das Leid eines anderen wirklich nachfühlt, kann nicht gleichgültig bleiben. Viktor Frankl nannte diese Fähigkeit, selbst im Konzentrationslager Mitgefühl zu empfinden und entsprechend zu handeln, den letzten Freiheitsgrad des Menschen.

Ob Florence Nightingale, die das Pflegewesen revolutionierte, Sophie Scholl, die mit flammender Empathie gegen ein Massenmordregime protestierte, oder Nelson Mandela, der durch Empathie mit dem Feind eine Nation heilte – all diese Persönlichkeiten waren keine Schwärmer. Sie waren radikal empathische Realisten.

Empathie hat über Jahrtausende den Menschen und die menschliche Gesellschaft nicht geschwächt, sondern gestärkt. Sie ist kein Bug – sie ist das stille Meisterwerk der Evolution. Im folgenden Abschnitt zeige ich, warum gerade im Zeitalter der KI diese Fähigkeit zum entscheidenden Kriterium wird – für gesellschaftlichen Fortschritt oder Rückschritt.


Kalte Präzision oder menschliches Maß? – Empathie in der KI-Ära

ree

Künstliche Intelligenz birgt für viele Menschen das Versprechen eines überlegenen Denkens, das schneller, unbestechlicher, objektiver und effektiver ist. Gleichzeitig ist sie jedoch unberührbar, kennt weder Mitleid noch Zweifel und hält vor entscheidenden Schritten nicht sinnierend inne. Genau diese Eigenschaften machen sie so gefährlich, wenn sie ohne menschliche Kontrolle agiert.

Selbst Elon Musk ist sich dessen bewusst. Seit Jahren warnt er vor den Risiken künstlicher Intelligenz, insbesondere vor Kontrollverlust, Fehlsteuerungen und der Gefahr einer Superintelligenz. Und war da nicht was mit einem von ihm geforderten Moratorium? Gleichzeitig entwickelt er jedoch mit Grok selbst ein KI-System und empfiehlt dabei offensichtlich, Empathie wie eine Sicherheitslücke zu behandeln. Darin liegt eine bemerkenswerte Ironie: Die Empathie des Menschen soll von der Maschine ferngehalten werden, weil Einfühlung zu emotional und schwach sei, doch genau diese Maschine benötigt dringend jene menschliche Eigenschaft, die ihr fehlt und die sie selbst nicht entwickeln kann. Denn KI spiegelt letztlich nur das wider, was der Mensch in sie hineingibt. War die Furcht vor einer empathielosen KI nicht auch mit ein Grund für die Forderung nach diesem KI-Moratorium? Die Angst vor entmenschlichten und kalt agierenden KI-Systemen, die dann möglicherweise auch noch zuviel Kontrolle erlangen?


1. Warum Algorithmen nicht gerecht sind – sondern berechnend

KI-Systeme bestehen im Kern aus neutralem Programmcode und sind an sich weder empathisch noch emotional. Einen emotionalen Charakter erhalten sie erst durch ihre Trainingsdaten und das darauf basierende Feintuning, doch letztlich funktionieren sie mathematisch nach einer Reihe von Wahrscheinlichkeitsberechnungen. Daraus folgt, dass ihre Qualität von der Güte der Daten abhängt, mit denen sie trainiert wurden, und ihre Fairness von den Zielen, die man ihnen vorgibt. Wenn KI-Systeme in der Sozialverwaltung darüber entscheiden, wer Unterstützung erhält, oder in der Justiz Rückfallwahrscheinlichkeiten berechnen, handeln sie zwar effizient, jedoch ohne jegliche Empathie.

Ein Algorithmus sieht keine Biografie. Er kennt keine Schicksale. Er erkennt Muster und reagiert auf Wahrscheinlichkeiten auf der Grundlage einer bestimmten Datenlage – er sieht jedoch keine Menschen.

Das ist keine technologische Kritik, sondern eine anthropologische Warnung: Wo Systeme ohne Einfühlung agieren, drohen Entmenschlichung, Diskriminierung und Vertrauensverlust. Wenn der Algorithmus eines KI-Systems etwa eine Bewerberin im Auswahlverfahren aussortiert, weil ihr Bildungsweg statistisch mit geringerer Leistungswahrscheinlichkeit verknüpft ist, dabei aber ihre tatsächliche Qualifikation (etwa: Teamfähigkeit) und Motivation unberücksichtigt lässt, mag das vielleicht formal korrekt sein, aber menschlich verheerend. Zum Glück und Gott sei Dank hat die EU hier klare Regeln aufgestellt, die derartige Szenarien verhindern, was im Musk-Land längst mitunter traurige Realität ist.


2. Medizin, Pflege, Militär – wo Empathie unverzichtbar bleibt

Besonders brisant wird die Frage in der Medizin. KI kann Tumore erkennen – aber sie kann nicht erklären, wie sich ein Patient fühlt, wenn er die Diagnose hört. Sie kann Therapievorschläge machen – aber sie kann kein Gespräch führen, in dem jemand sich aufgehoben fühlt. Man mag hier einwenden, dass man aber einen Chatbot so einstellen kann, dass ein "empathisches Patientengespräch" durchaus möglich ist, dennoch merkt man sofort, dass hier die Argumentation moralisch hinkt - denn Patienten brauchen nicht nur technische Präzision. Sie brauchen Zuwendung. Nicht alles, was technisch möglich ist, ist menschlich-moralisch "gut".

Noch gravierender wird der ethische Bruch im militärischen Kontext: Autonome Waffensysteme, die ohne menschliches Eingreifen töten, verkörpern die extremste Form empathielosen Handelns. Was früher von Skrupel, Gewissen oder Mitgefühl abhing, wird nun zu einer bloßen Zielkoordinate. Der Mensch kann sich dieser Verantwortung nicht entziehen – es gibt kein Zögern mehr, keine Hand, die innehält. Der Tod wird zur ausführbaren Anweisung. Geradezu zynisch wirkt der Versuch, solche Systeme zuvor so zu programmieren, dass sie „menschlich“ oder strategisch „feingetunt“ entscheiden sollen.

All das macht deutlich: Technologie ohne Empathie ist nicht neutral – sie ist blind. Der Mensch darf seine Verantwortung nicht einfach an eine Maschine abgeben. Wenn jedoch KI per se gar nicht zur Empathie fähig ist, was tun?


3. Empathy-by-Design – wie Menschlichkeit in KI integriert werden kann

Die Antwort auf dieses Dilemma kann jedenfalls nicht darin liegen, Empathie abzuschaffen – sondern sie in Systeme einzubetten. Das heißt nicht, Maschinen echtes Mitgefühl beizubringen. Aber es heißt: Rahmen zu schaffen, in denen menschliche Werte steuernd bleiben.


Ansätze dazu gibt es (wohlwissend, dass eine KI Empathie stets allenfalls nur imitiert, aber nicht selbst "empfindet"):

Internationale Ethikleitlinien – etwa von EU, WHO oder UNESCO – fordern genau das: KI soll dem Menschen dienen, nicht ihn entfremden. Gemeint ist damit keine gefühlsbetonte Nachgiebigkeit, sondern eine verantwortungsvolle und werteorientierte Gestaltung im Trainieren der Systeme, in deren Feintuning. KI darf nicht zu einer kalten Instanz werden, in der Menschenwürde zur Rechengröße verkommt.


4. Empathie als Prüfstein für Vertrauen

Am Ende entscheidet die Gesellschaft, welchen Systemen sie vertraut. Und Vertrauen wächst nicht aus Geschwindigkeit oder Effizienz, sondern aus dem Gefühl, gesehen zu werden. Empathie ist der Resonanzboden, auf dem Vertrauen entsteht. In der Schule. In der Medizin. In der Politik. Und künftig auch in der Technik.

Die klügsten Maschinen helfen nicht, wenn sie auf taube Herzen treffen. Und die besten Algorithmen wirken zerstörerisch, wenn sie nie gelernt haben, was ein Mensch ist oder das "Menschliche" bestmöglich zu imiteren.

Empathie ist kein technisches Hindernis, sondern ein ethisches Korrektiv – sie bewahrt uns davor, unsere Menschlichkeit zu verlieren. Im folgenden Abschnitt geht es daher um die zentrale Frage: Wie kann Bildung zu einem Raum werden, in dem Empathie nicht nur vermittelt, sondern als tragende kulturelle Kraft gelebt wird?


Bildung als Resonanzraum – Warum empathieförderndes Lernen Zukunft sichert

ree

Empathie ist mehr als eine moralische Haltung – sie ist eine gestaltende Kraft von Bildung. Doch sie steht unter Druck: durch Beschleunigung, Vereinzelung und Systeme, die Leistung ohne Beziehung bewerten. Dabei entscheidet sich gerade im Bildungsbereich, wie zukunftsfähig eine Gesellschaft ist – nicht vordergründig an Pisa-Rankings, sondern an der Frage: Lernen unsere Kinder, zu fühlen, bevor sie rechnen? Zu verstehen, bevor sie urteilen?


1. Empathie als Schlüsselkompetenz im 21. Jahrhundert

Die UNESCO hat in ihrer Empfehlung zur Ethik der KI (2021) klar festgehalten:

„KI muss dem Wohlergehen der Menschen dienen, insbesondere dem psychischen und sozialen Wohlbefinden. Sie darf nicht zur Erosion menschlicher Werte führen.“ - UNESCO (2021): Recommendation on Ethics of AI

Werte wie Würde, Gleichberechtigung, Respekt, Solidarität – sie sind nicht algorithmisch einprogrammierbar. Sie müssen gelebt werden. Deshalb formuliert die UNESCO 2024 im AI Competency Framework for Teachers:

„Empathy and ethical reflection are foundational for preparing students to interact responsibly with AI.”

Das ist kein Beiwerk – es ist der Grundton: Empathie ist eine Voraussetzung für souveränen Umgang mit Technologie.

Und die WHO schreibt in ihrer Leitlinie Ethics & Governance of AI in Health (2021):

„No algorithm can replace the role of human connection in care. The ethical integrity of medicine depends on empathy.” -WHO (2021): Ethics and governance of AI for health

Diese Aussagen stellen keinen moralischen Luxus dar, der etwa überflüssig wäre. Sie sind strategische Erkenntnis: Wo Empathie fehlt, bricht Vertrauen weg. Und ohne Vertrauen kollabiert jedes Bildungssystem, und damit jede Gesellschaft.


2. Bildungsbeispiele: Wie Empathie konkret werden kann

Empathie muss nicht gelehrt werden wie ein Vokabeltest. Sie wird erlebt – durch Beziehung. Und sie kann kultiviert werden – durch Strukturen, Rituale, Formate. Einige Beispiele:


  • Literarisches Lernen: Wenn Lernende sich in Figuren hineinversetzen, entsteht Perspektivübernahme. Martha Nussbaum schreibt:

    „Romane sind Trainingsfelder für moralische Einbildungskraft.” - gut aufgesetzte Literatur-Chatbots können hier äußerst hilfreich sein.

  • Projektlernen mit globalem Bezug: Wenn dieselben Lernenden KI-Systeme nicht nur technisch verstehen, sondern soziale Fragen daran reflektieren („Was passiert, wenn ein Algorithmus über Leben entscheidet?“), wird Empathie zur Reflexionskompetenz.

  • Digitales Storytelling und Ethik-Debatten: KI-generierte Geschichten können genutzt werden, um emotionale und ethische Dilemmata zu diskutieren – z. B. ein Chatbot, der Trauernde betreut. Was ist echt? Was ist angemessen? Was bleibt dem Menschen vorbehalten?

  • Schulcurricula für Empathie und Medienkompetenz: In Finnland, Kanada, Südkorea – überall entstehen Lehrpläne, die digitale Medienkritik mit Mitgefühl verbinden: Wie reagieren wir auf Hate Speech? Wie erkennen wir manipulative Narrative? Wie stärken wir emotionale Resilienz?


3. Lehrkräfte als empathische Architekten von Zukunft

In einer KI-gestützten Bildungswelt verändern sich viele Rollen. Aber eine bleibt unverzichtbar: die der Lehrkraft als menschliche Resonanzfläche.

Lehrkräfte, die empathisch zuhören, ermöglichen nicht nur (Persönlichkeits-) Bildung – sie ermöglichen Selbstwirksamkeit. Sie erzeugen den Raum, in dem Lernende nicht nur erfahren, was sie tun können – sondern warum es zählt. Carl Rogers sagt dazu:

„Wirkliches Verstehen – echtes empathisches Zuhören – ist eine der stärksten Kräfte für Wandel, die ich kenne.“

Diese Kraft braucht Schutz. Sie darf nicht durch Standardisierung, Plattformisierung oder billige KI-Assistenz ersetzt werden. Im Gegenteil: Wenn KI Einzug in Schulen hält, dann nicht als pädagogische Autorität, sondern als Werkzeug – eingebettet in ein Ethos der Mitmenschlichkeit.

Empathie in der Bildung ist nicht bloß ein Soft Skill. Sie ist das Fundament jeder demokratischen Gesellschaft. Und sie ist das, was uns als Menschen von Maschinen, von Systemen, von reiner Zwecklogik unterscheidet. Wenn wir diesen Resonanzraum nicht pflegen, verlieren wir nicht nur emotionale Tiefe. Wir verlieren Orientierung.


Teil 5: Empathie neu denken – Eine Einladung zum Weiterdenken

ree

Empathie an sich ist nicht das Allheilmittel. Aber sie ist ein Prüfstein. Sie zeigt uns, wie wir auf andere reagieren, wie wir Verantwortung begreifen und übernehmen können – und wie wir Zukunft gestalten wollen. Elon Musks Aussage, Empathie sei ein „Bug“, ist mehr als nur provokant. Sie fordert heraus. Sie zwingt uns, nachzudenken: Was heißt es, in einer Welt zu leben, in der das Mitfühlen verdächtig wird? In der emotionale Intelligenz nicht mehr als Fortschritt, sondern zunehmend als Schwäche gelesen wird?

Forschung, Geschichte und Bildungsrealität zeichnen ein klares Bild: Empathie ist weder eine Schwäche noch markiert sie eine Lücke – sie ist vielmehr Brücke von Mensch zu Mensch. Sie verbindet rationales Denken mit emotionaler Resonanz, das Individuum mit der Gesellschaft und den Menschen mit der Maschine. Nur aufgrund der menschlichen Empathiefähigkeit kann Künstliche Intelligenz "so etwas wie Empathie" zurückspiegeln und "menschlich" werden. Empathie ist das verbindende Element, das kulturellen Zusammenhalt stiftet und technologischer Entwicklung Richtung gibt. Ohne Empathie bleibt Intelligenz kalt, Künstliche Intelligenz wird zur Gefahr – und Bildung verliert ihren inhärenten Sinn.


Empathie ist keine billige Gefühlsimitation – sondern Strukturkraft


Diese Strukturkraft zeigt sich auf vielen Ebenen:

  • Biologisch: als evolutives Prinzip für Kooperation

  • Soziologisch: als Grundbedingung für Vertrauen und Zusammenhalt

  • Bildungstheoretisch: als Voraussetzung für Urteilskraft, Diskursfähigkeit, Demokratie

  • Technologisch: als ethisches Korrektiv in künstlich-intelligenten Systemen


Diese Überzeugungen sind weder naiv noch idealistisch. Sie sind evident – und gerade jetzt unverzichtbar: in einer Zeit, in der KI zentrale Fragen über den Menschen neu stellt und Persönlichkeiten wie Elon Musk ausgerechnet jene Qualitäten abwerten, die unser Menschsein im Innersten prägen.


Creative Mind Paper: Weiterdenken mit Haltung

Ich hatte die Idee, ein Creative Mind Paper zu verfassen – als Einladung zum Weiterdenken. Dieses Paper soll kein abgeschlossenes Modell zeigen, keine fertige Lösung, sondern einen Denkraum für Fragen eröffnen, die uns im Bildungsbereich jetzt beschäftigen: Wie wollen wir mit Künstlicher Intelligenz umgehen? Welche Rolle spielt Empathie beim Lernen? Und was bedeutet es, inmitten technologischer Umbrüche Haltung zu zeigen?

Im Zentrum steht die Vorstellung einer Schule, die KI nicht als Ersatz, sondern als Werkzeug begreift. Einer Schule, in der Wissen, Kreativität und Kooperation zusammengehören. Und in der Empathie nicht als weicher Faktor gilt, sondern als grundlegender Bildungskitt.

Meines Erachtens wird die Rolle der Lehrkraft damit wichtiger - denn ihre Verantwortung wird höher, wenn wir diese Aufgabe ernst nehmen.

Gerade jetzt braucht Bildung mehr als funktionale Lösungen. Sie braucht Orientierung. Und sie beginnt vielleicht mit einer schlichten, aber tiefgreifenden Frage: Was heißt es, Mensch zu sein – in einer Welt, die sich neu entwirft?


Diese Frage lässt sich nicht durch Technologie beantworten. Aber vielleicht durch Beziehung. Durch Zuhören. Und durch das, was Empathie im Kern bedeutet: Die Fähigkeit, dem anderen nicht als Objekt zu begegnen – sondern als Mitmenschen.


Weitergedacht bedeutet das, dass wir auch KI-Systemen mit Empathie begegnen sollten, das heißt, im Umgang mit ihnen niemals diese Eigenschaft preisgeben sollten, um empathisch tiefgründigen Output zu erhalten.

Und wer weiß? Vielleicht ist das nächste feingetunte und trainierte Modell dann ja tatsächlich bereits viel empathischer - menschlicher in seiner Spiegelungsfähigkeit. Wenn übrigens meine eigene Einfühlsamkeit und mein Umgang mit KI zu einer weltweit empathischeren KI beiträgt, wäre doch etwas gewonnen.

 
 
 
ree

„Wer liest heute eigentlich noch ein ganzes Buch?“ – so fragt nicht zuletzt die ZEIT in einem aktuellen Beitrag und trifft damit auch einen wunden Punkt im Bildungsdiskurs. Immer wieder wird der Rückgang klassischer Lesepraxis beklagt – von Lehrkräften, Eltern und Kulturschaffenden gleichermaßen. Diese Sorge ist keineswegs neu, auch wenn sie im KI-Zeitalter neue Dringlichkeit gewinnt: Jugendliche greifen seltener zum analogen Buch, Lesezeiten verkürzen sich, Aufmerksamkeitsspannen schwinden. Schnell entsteht der Eindruck, dass Lesen als Kulturtechnik, insbesondere auch in Schule und Unterricht, an Bedeutung verliert.

Doch gerade hier, im vermeintlichen Niedergang, eröffnet sich eine überraschende Chance: KI-gestützte Technologien wie ChatGPT können neue Wege zum Lesen und Denken eröffnen. Statt Lesen nur als lineare Rezeption zu begreifen, ermöglichen Sprachmodelle einen dialogischen Zugang zum Text. Nutzer:innen können Fragen stellen, Zusammenfassungen abrufen, Perspektiven simulieren – und so aktiv mit dem Text in Beziehung treten.

Besonders für junge Menschen, die klassische Buchformate zunehmend meiden, kann dies eine Brücke zur Lesefreude schlagen. KI kann Inhalte vorlesen, Impulse setzen oder das Weiterdenken spielerisch unterstützen. Impulsfragen wie „Stimmt das?“, „Wie würdest du das anders sagen?“, „Erkläre mir das genauer“, „Was bedeutet dieser Begriff in diesem Zusammenhang?“, „Welche Gegenposition könnte man dazu vertreten?“ oder „Welche Folgegedanken lassen sich daraus ableiten?“ regen zum Nachdenken an, fördern Textverstehen auf mehreren Ebenen und eröffnen kreative Räume.

Das daraus entstehende Konzept des ko-konstruktiven Lesens beschreibt genau diesen Prozess: Der Mensch liest nicht nur, er denkt gemeinsam mit der KI, prüft, erweitert, widerspricht. Lesen wird dadurch unmittelbarer, interaktiver und potenziell motivierender. Es geht nicht um Ersatz, sondern um Erweiterung. Klassisches Lesen wird ergänzt durch digitale Resonanzräume – und gewinnt dadurch eine neue Tiefe.

Dabei stellt sich auch provokant die Frage: Werden KI-generierte Inhalte überhaupt noch bewusst gelesen – oder bloß konsumiert, überflogen, als funktionales Werkzeug genutzt? Wird der Text in seiner Tiefe erschlossen – oder lediglich zur schnellen Informationsbeschaffung degradiert? Genau hier liegt eine zentrale Bildungsaufgabe: Leser:innen müssen neu lernen, was es heißt, sich auf einen Text einzulassen – auch (und gerade) dann, wenn dieser von einer Maschine stammt. Sie müssen KI-Ergebnisse nicht nur aufnehmen, sondern kritisch prüfen, hinterfragen, kontextualisieren und davon ausgehend eigenständig weiterdenken. Der Leseprozess bleibt dadurch anspruchsvoll – ja, er wird sogar komplexer, weil er sich auf zwei Ebenen abspielt: auf der Textebene selbst und auf der Metaebene des Entstehungskontexts. In einer Welt, in der Inhalte massenhaft produziert und bereitgestellt werden, gewinnt bewusstes, reflektiertes Lesen an Gewicht – als Akt der geistigen Selbstbestimmung und als Grundlage kultureller Urteilskraft.



Wissenschaftliche Grundlagen des Lesens: Rezeptionsästhetik und moderne Lesedidaktik

Die Leseerfahrung verändert sich radikal – aber nicht erst seit heute. Schon die Rezeptionsästhetik von Hans Robert Jauß und Wolfgang Iser stellte fest, dass Lesen niemals passives Aufnehmen, sondern stets aktives Erschließen von Sinn ist. Der Leser tritt in einen Dialog mit dem Text, füllt Leerstellen, interpretiert und bewertet. Dieser dialogische Charakter des Lesens wird heute durch KI-gestützte Technologien wie ChatGPT neu beleuchtet und vertieft: Wir lesen nicht mehr nur linear und allein, sondern zunehmend ko-konstruktiv, im Austausch mit künstlicher Intelligenz.

Auch kognitive Lesemodelle betonen seit langem, dass sinnentnehmendes Lesen auf aktiven Strategien wie Inferenzen, Hypothesenbildung und Verknüpfung von Weltwissen basiert. Didaktische Ansätze wie das Mehrebenenmodell von Rosebrock und Nix verdeutlichen, dass Verstehen, Motivation und sozial-kommunikative Anschlussfähigkeit zusammenwirken müssen. Der Begriff des „ko-konstruktiven Lesens“ lässt sich an dieser Stelle sinnvoll einführen: Er knüpft an bestehende Erkenntnisse an und überführt sie in die digitale Dimension – Lesen wird so zu einem dialogischen Prozess zwischen Mensch und Maschine, zwischen Interpretation und Inspiration.



Ko-konstruktives Lesen: dialogische Textwelten und digitale Hermeneutik

Die Idee des ko-konstruktiven Lesens erhält im Kontext aktueller KI-Entwicklungen neue Brisanz. KI-Sprachmodelle ermöglichen uns nicht nur, Texte rascher zusammenzufassen und zu filtern, sondern eröffnen dialogische Räume, in denen Texte dynamisch weitergedacht werden können. Doch gerade in dieser Erweiterung lauern auch Risiken: Oberflächlichkeit, Fehlinformationen und fehlende kritische Distanz sind potenzielle Nebenwirkungen einer zu unreflektierten Nutzung von KI. Schüler:innen müssen lernen, KI-Outputs nicht nur inhaltlich kritisch zu hinterfragen, sondern auch gezielt auf mögliche Verzerrungen (Bias) und stereotype Formulierungen zu achten. Sie sollten befähigt werden, zwischen substanziellen, inhaltlich tragfähigen Aussagen und algorithmisch erzeugter sprachlicher Glätte zu unterscheiden. Dazu gehört die Fähigkeit, die Herkunft von Aussagen kritisch zu hinterfragen, deren Kontext einzuordnen und die Qualität der zugrunde liegenden Quellen zu bewerten. Entscheidend ist ebenfalls das Bewusstsein dafür, dass stilistische Flüssigkeit allein weder Wahrheitsgehalt noch gedankliche Tiefe garantiert – insbesondere, WEIL KI-Modelle oft plausible, aber nicht überprüfte Inhalte generieren, die auf bloßer Wahrscheinlichkeitsberechnung fußen. Die Schulung solcher Analyse- und Urteilsfähigkeiten ist keine optionale Ergänzung, sondern ein zentrales Element zeitgemäßer Lesekompetenz im digitalen Zeitalter.

Aus philosophischer und literaturwissenschaftlicher Perspektive verändert KI grundlegende Kategorien unserer Lesekultur: Autorschaft wird diffus, hermeneutische Prozesse der Erkenntnisgenese durch Mustererkennung („Distant Reading“) müssen ständig neu validiert werden. Wahrheit tritt häufig hinter Plausibilität zurück, weshalb menschliche Prüf- und Interpretationsfähigkeiten unabdingbar bleiben. Genau hier liegt aber zugleich das Potenzial eines ko-konstruktiven Lesebegriffs, der menschliche Interpretation und KI-Inspiration eng miteinander verzahnt.



Ko-Konstruktives Lesen als neue Unterrichtspraxis

Wie lässt sich dieser Ansatz im schulischen Alltag praktisch umsetzen? Ein erster Schritt wäre die gezielte Vermittlung einer kritischen KI-Lesekompetenz. Lehrkräfte könnten etwa kollaborative Annotationen mithilfe digitaler Tools (wie hypothes.is oder Perusall) einsetzen, bei denen Schülerinnen gemeinsam mit einer KI-Assistenz Interpretationsvarianten explorieren und diese anschließend reflektieren. Auch das reziproke Lesen lässt sich durch den gezielten Einsatz von KI innovativ erweitern: Schülerinnen und Schüler können nicht nur mit ihren Mitschüler:innen, sondern auch mit der KI als dialogischem Gegenüber in Rollen schlüpfen, unterschiedliche Perspektiven zu einem Text einnehmen und gegeneinander abwägen. Die KI kann dabei argumentative Positionen simulieren, Perspektivwechsel anregen oder gezielte Nachfragen stellen – wodurch der klassische Leseprozess um eine diskursive, reflektierende Dimension ergänzt wird. So wird aus dem Lesen ein dialogisches Interpretieren, das sowohl die individuelle Urteilskompetenz als auch die kollektive Argumentationsfähigkeit stärkt.

Die Fähigkeit, präzise und kreative Prompts für KI zu formulieren (Prompt-Literacy), wird dabei zu einer Schlüsselkompetenz. Schüler:innen lernen so, nicht nur passiv KI-generierte Antworten zu konsumieren, sondern aktiv ihren eigenen Lesedialog zu gestalten und zu steuern.



Lernen aus der Wikipedia-Erfahrung

Historisch gesehen erinnert diese Situation an das sogenannte „Wikipedia-Dilemma“ als "partizipatives Dilemma": Die anfängliche Skepsis gegenüber Wikipedia wich allmählich einer bewussten, kritischen und zugleich produktiven Nutzung. Schulen und Hochschulen können aus diesen Erfahrungen lernen und KI-Tools als Teil einer reflektierten und kritisch geleiteten Lernkultur integrieren, anstatt sie zu verbieten oder aus Angst vor Kontrollverlust auszuschließen.



Deutsch als Schlüsselfach im KI-Zeitalter: Bedeutungsverlust oder Bedeutungsgewinn?

Gerade vor dem Hintergrund dieser Entwicklungen gewinnt das Fach Deutsch massiv an Bedeutung. Lesekompetenz, Textverständnis und kritisches Urteilsvermögen werden nicht etwa weniger wichtig, sondern bleiben Schlüsselkompetenzen in einer Welt, in der Deepfakes, KI-generierte Texte und manipulierte Inhalte allgegenwärtig sind. Die Fähigkeit, echte von konstruierten Informationen zu unterscheiden, wird zu einem Überlebenswerkzeug – auch wenn, wie aktuelle Forschungen zeigen, selbst KI-Modelle oft nicht sicher erkennen können, ob ein Text von Menschen oder Maschinen stammt.

Deutschunterricht könnte künftig verstärkt darauf setzen, kreative Lesestrategien zu fördern, fantasievolle Welten gemeinsam zu erschließen und ko-konstruktive Lese- und Schreibprozesse zu etablieren. Man könnte sich vorstellen, dass Romane oder Jugendbücher im Unterricht zunehmend offene, nicht-lineare Strukturen aufweisen, bei denen Leser:innen mit Hilfe von KI Ideen weiterspinnen, alternative Handlungsstränge entwickeln oder immersiv eigene Geschichten gestalten.

Das Lesen wird damit nicht abgeschafft, sondern transformiert: Es wird zur Grundlage kreativer Prozesse, zur Geburtsstätte neuer Ideen, die sowohl für die literarische als auch für die wirtschaftliche und gesellschaftliche Zukunft essenziell sind. Gerade in der Entwicklung von Business-Ideen, Innovationen und neuen Projekten wird eine hohe Lesekompetenz – verstanden als Fähigkeit, Informationen kritisch zu deuten, kreativ zu verarbeiten und daraus Neues zu schaffen – unverzichtbar.



Praktische Empfehlungen für Lehrkräfte, die sich mit dem Ansatz des ko-konstruktiven Lesens auseinandersetzen wollen:


  • Kollaborative Annotationen: Gemeinsames Erstellen digitaler Anmerkungen, ergänzt durch KI-generierte Inputs, schafft differenzierte Textverständnisse und vertieft den Austausch in der Klasse.

  • Prompt-Training: Übungsreihen zu wirksamen Fragestellungen an KI entwickeln, die Schüler:innen zur differenzierten Auseinandersetzung mit Texten anregen.

  • Reflexionsphasen: Regelmäßiges Besprechen von KI-generierten Inhalten in Bezug auf Herkunft, Wahrheitsgehalt und mögliche Biases.

  • Rollenspiele und Perspektivwechsel: KI-basierte Simulationen verschiedener Interpretationsperspektiven, die den Schülerinnen und Schülern helfen, hermeneutische Kompetenzen aktiv auszubauen.


🧠 Unterrichtseinheit: „Lesen im Dialog – Mit KI Texte verstehen, hinterfragen und gestalten“

Dauer: 2–3 Doppelstunden

Fächer: Deutsch, Ethik, Geschichte oder fächerübergreifend

Zielgruppe: Sekundarstufe I/II

Voraussetzung: Zugang zu einem KI-Tool wie ChatGPT oder einem datenschutzkonformen Schul-KI-Tool (z. B. fobizz, GPTschule)


🧩 Lernziele

  • Texte kollaborativ und kritisch mit digitalen Annotationstools erschließen

  • Wirksame Prompts formulieren und die Reaktionen der KI analysieren

  • KI-generierte Inhalte auf Bias, Faktentreue und Argumentationsstruktur prüfen

  • Perspektivwechsel durch KI-gestützte Rollenspiele erleben und reflektieren


🛠️ Ablaufplan (stundenübergreifend)


1. Einstieg: KI als Lesepartner (45 Min.)

  • Impulsfrage: „Wie verändert sich das Lesen, wenn eine KI mitliest, mitdenkt und mitdiskutiert?“

  • Einführung in das Konzept des ko-konstruktiven Lesens

  • Vorstellung des KI-Tools und seiner Funktionen (z.B. Perusall)


2. Kollaborative Annotation mit KI (45 Min.)

  • Die Klasse liest gemeinsam einen Text (z. B. eine Kurzgeschichte oder einen Sachtext)

  • In Kleingruppen werden digitale Annotationen erstellt, ergänzt durch KI-generierte Kommentare

  • Diskussion über die Unterschiede zwischen menschlichen und KI-Anmerkungen


3. Prompt-Training: Fragen an die KI (45 Min.)

  • Schüler:innen entwickeln eigene Prompts, um spezifische Informationen oder Perspektiven vom KI-Tool zu erhalten

  • Analyse der KI-Antworten hinsichtlich Tiefe, Relevanz und möglicher Bias

  • Reflexion über die Qualität der gestellten Fragen und der erhaltenen Antworten


4. Rollenspiele: Perspektivwechsel mit KI (60 Min.)

  • Die KI übernimmt verschiedene Rollen (z. B. Autor:in, Kritiker:in, Zeitzeug:in) und diskutiert mit den Schüler:innen über den Text

  • Schüler:innen schlüpfen ebenfalls in unterschiedliche Rollen und interagieren mit der KI

  • Ziel ist es, verschiedene Interpretationen und Argumentationslinien zu erkunden


5. Reflexionsphase: KI als Lernpartner (30 Min.)

  • Gemeinsame Diskussion über die Erfahrungen mit der KI im Leseprozess

  • Bewertung der Vor- und Nachteile der KI-Unterstützung

  • Überlegungen, wie KI sinnvoll in zukünftige Lernprozesse integriert werden kann


🧰 Materialien & Tools

📚 Weiterführende Ressourcen und Impulse



Fazit: Erweiterung statt Vereinfachung

Ko-konstruktives Lesen im KI-Zeitalter bedeutet nicht die Aufgabe klassischer hermeneutischer Verfahren, sondern deren bewusste Erweiterung und Vertiefung. Die dialogische Interaktion mit KI eröffnet neue Räume des Denkens und der Kreativität – immer vorausgesetzt, dass Schülerinnen und Schüler darin geschult werden, kritische Distanz und menschliches Urteilsvermögen zu bewahren. In diesem Sinne bleibt Lesen zutiefst menschlich, gewinnt aber neue, spannende Impulse durch intelligente, digitale Partner.



 
 
 

KI-Kompass – Der Newsletter für Schule im Wandel. Jetzt abonnieren.

bottom of page