Auch zu Beginn des Jahres 2026 sind die Schlagzeilen voll mit KI bezogenen Meldungen. Nach generativen Sprachmodellen beschäftigt uns jetzt agentische KI, KI in Kombination mit Robotics, etc.; Die Entwicklungsgeschwindigkeiten nehmen weiterhin zu, die transformative Bedeutung dieser Technologie in allen Lebensbereichen kann kaum überschätzt werden.
Den technologischen Entwicklungssprüngen folgen unterschiedlichste betriebliche und individuelle Adaptionsstrategien, Upskilling-Anstrengungen, mehr oder weniger langfristige Vorgehenskonzepte in Bezug auf die erforderliche Workforce Transformation. Die Schätzungen zu den Folgen auf Jobprofile, Arbeitsmarkt, Beschäftigungsbedingungen, Chancen- und Risikoverteilung für die Arbeitnehmenden divergieren stark. Es besteht breiter Konsens, dass es erheblicher Weiterbildungs- und Anpassungsstrategien von Unternehmen wie dem einzelnen Mitarbeitenden bedarf, um Chancen neuer Geschäftsmodelle und Produktivitätseffekte zu nutzen und Folgen wie breitflächige Jobverluste zu vermeiden.
Weniger diskutiert werden Fragestellungen, welche mittel- und langfristigen Wirkungen die Nutzung dieser Technologie auf unsere Art des Wissenserwerbs hat und ob zumindest bestimmte Formen der KI-Nutzung nicht auch die Gefahr bergen, basale Grundkompetenzen zu verlernen. Deskilling durch KI – ist da was dran, oder ist das nur eine Befürchtung von Technologieskeptikern und Ewig-Gestrigen?
Die folgenden, keinesfalls abschließenden, Gedanken beziehen sich im Schwerpunkt auf Tätigkeiten mit starkem Schwerpunkt auf Text-/Sprachnutzung und -erstellung, wie sie in Hochschulen, Forschungseinrichtungen und Wissensarbeitskontexten weit verbreitet sind und primär von GenAI auf Basis von Sprachmodellen unterstützt werden.
Deskilling durch (falsche?) KI-Nutzung: Annäherung an das Phänomen des KI-induzierten Kompetenzverlusts
Auch der Ethikrat hat sich mit dem Phänomen auseinandergesetzt. Von ihm stammt folgende Definition des Deskilling (durch KI): »Deskilling tritt ein, wenn KI mehr und mehr Tätigkeiten unterstützt oder völlig übernimmt, für die zwar menschliche Kompetenzen gebraucht werden, diese werden dann nicht mehr ein- und ausgeübt, und gehen in der Folge faktisch oder als Möglichkeit verloren – für die Gesellschaft und für den einzelnen«.
Ist das ein wirklich neues Problem? Hat nicht jede Technologie das Potenzial, durch Substitution menschlicher Tätigkeiten den bisher ausführenden Menschen dieser (geistigen oder körperlichen) Kompetenz zu entwöhnen? Dieses Phänomen wird als »cognitive offloading« bezeichnet. Haben wir nicht alle mit dem Taschenrechner das schnelle Kopfrechnen verlernt? Welcher Taxifahrer hat heute noch echtes navigationsbezogenes Wissen, wenn doch Google Maps alles weiß? Schmerzlich spürbar werden solche bekannten Verluste dann, wenn ganze Systeme ausfallen und beispielsweise genau dieses Navigationswissen auch ohne Techniksupport gefragt ist. Wir kennen die Debatte in der Fliegerei: Der Autopilot ist Standard; aber wenn es ernst wird, muss der Pilot im Extremfall auf dem Hudson landen können, und zwar auf Sicht.
Zielbild souveräner und verantwortlicher Nutzer
Das mögliche Problem: Wünscht man sich – und davon geht die folgende Problembeschreibung aus – einen souveränen Umgang mit generativer KI, folgt man einem Zielbild, in dem dem menschlichen Nutzer letztlich immer die finale Beurteilungs-, Einordnungs- und Qualitätssicherungskompetenz verbleibt. Das Narrativ dazu: Wir nutzen die KI, um viel schneller, effizienter, viel größere Mengen von Informationsquellen zu durchforsten, aufzubereiten, in Schlussfolgerungen zu übersetzen – aber wir bleiben immer im »Driver’s Seat«, beurteilen, bewerten, kontextualisieren, und korrigieren ggf. das Erarbeitete, und insbesondere: wir verantworten es auch. Diese finale Verbesserungs- und Freigabeschleife klappt mutmaßlich dann zuverlässig, wenn man diese (nun technisch übernommenen) Erarbeitungsschritte ursprünglich selbst »von der Pike auf« gelernt hat; was aber passiert, wenn ich diese Techniken der Inhaltserfassung und Texterstellung mir selbst gar nicht mehr angeeignet habe oder zunehmend verlerne? Und das kann ja schnell passieren: Wenn ich schon von Beginn meiner Ausbildung / Studium / beruflichen Tätigkeit an diese Technologie nutzen kann, sie als Arbeitserleichterung empfinde, und selbst gar keinen Handlungsdruck mehr fühle, etwas eigenständig auch ohne diesen Support zu erledigen, kann ich Textqualität wirklich erkennen und verbessern, wenn ich deren Produktion nicht selbst wirklich erlernen musste – und das in durchaus aufwendigen und manchmal auch quälenden Arbeitssituationen mit vielen Lernschleifen?
Erneut lässt sich fragen: Ist das überhaupt ein mögliches Problem? Ich meine, ja, wenn man sich ansieht, welche anspruchsvollen Aufgaben mittlerweile von GenAI übernommen werden. Und wenn man zur Kenntnis nimmt, dass die Arbeitsweise der Technologie im »Innern« für die allermeisten Nutzenden zumindest bisher einer Blackbox gleicht.
Neben dieser Herausforderung, inhaltliche Verantwortung für erstellte Texte im Sinne des souveränen und verantwortlichen Nutzenden überhaupt wahrnehmen zu können, hat die Nutzung dieser generativen Sprachmodelle aber noch eine weitere Konsequenz.
Denken durch Schreiben: Schreiben und damit Texterstellung hat wissensgenerierende Funktion
GenAI arbeitet mit Sprache bzw. dem geschriebenen Wort als prioritärem Medium der Aufbereitung und Wiedergabe von Wissen. Sie produziert eigenständig gut lesbare Texte, die häufig genug direkt übernommen werden und deren rasche Erstellung auch als effektive Arbeitserleichterung und Produktivitätsbooster wahrgenommen wird. Welche negativen Effekte sollte das haben? Kognitionspsychologische Forschung hat erwiesen: Das Erstellen von Texten hat, aus Sicht des menschlichen Schreibenden, eine »epistemische«, sprich eine wissensgenerierende Funktion. Was heißt das?
Schreiben dient nicht nur dazu, im Kopf bereits vorhandenes Wissen aufzuschreiben, sondern hilft dabei, neues Wissen zu erzeugen. Beim Schreiben werden Gedanken sortiert, Zusammenhänge klarer, Widersprüche sichtbar und neue Ideen werden »beim Schreiben« geboren. Schreibprozesse wirken also kognitiv strukturierend. Jeder, der längere Texte selbst verfasst, Reflexionsbögen befüllt oder auch Tagebücher geschrieben hat, wird dies alltagsweltbezogen bestätigen. (Auch das Schreiben dieses Blogs beinhaltet für mich als Verfasserin die Anstrengung, die Argumente und Erkenntnisse in eine verständliche und schlüssige Struktur zu bringen und damit hoffentlich anschlussfähig zu werden für hierauf aufsetzende Diskussionen mit Ihnen, den Lesenden). Man »denkt durch Schreiben«, durch die Formulierungsarbeit wird implizites Wissen explizit weiterentwickelt. Verlieren wir also die Fähigkeit der Wissensgenerierung durch die Nutzung von GenAI? Und, weitergedacht, die Fähigkeit zum kritischen Denken? Geben wir, um es wie Frau Prof. Reinmann zu formulieren, mit Schreibprozessen auch Denkprozesse an die KI ab? Verändern wir damit schlicht nur die Arbeitsteilung zwischen Mensch und KI oder verlieren wir damit als einzelne oder Gesellschaft auf Dauer etwas Wesentliches?
Hoch dynamische Studienlage
Einige Studien haben sich bereits mit dieser Fragestellung beschäftigt und es ist unmöglich diese in einem Blog wie diesem sachgerecht zusammenzufassen. Ich füge einige von Ihnen in den Links bei. Eine sehr aktuelle Studie unter Beteiligung von Microsoft Research kommt z. B. zum Schluss, dass der Einsatz von GenAI die Effizienz von Wissensarbeit steigern kann, aber das Risiko einer Überabhängigkeit und eines Rückgangs eigenständigen, kritischen Denkens birgt. Prof. Reinmann resümiert, KI könne kritisches Denken unterstützen, aber auch beeinträchtigen. Unterstützung dadurch, dass schnell Zugriff auf verschiedenste Infos möglich wird, Analysen erleichtert werden, Argumente besser formuliert werden können. Gleichzeitig aber reduziere der Einsatz von KI, verbunden mit einem übermäßigen Vertrauen in die Qualität KI-generierter Inhalte, die Bereitschaft zum kritischen Denken. Je häufiger KI zur kognitiven Entlastung eingesetzt wird, desto ungünstiger wirkt sich das auf kritisches Denken aus, insbesondere bei jüngeren Menschen. »Vertrautheit ersetzt kritische Distanz. Was hilfreich erscheint, wird nicht mehr hinterfragt«.
Sina Metz arbeitet in einem Artikel der ZEIT Online vom 6. Januar 2026 auf, welche Unterschiede in den gemessenen Gehirnaktivitäten bei Nutzenden von ChatGPT, »normalen« Google-Suchen und völlig auf sich selbst gestellten Studierenden bei der Generierung von Texten auftreten. Umgangssprachliche Zusammenfassung der Autorin zu den von ihr zitierten Arbeiten des MIT: Je mehr sich die Teilnehmenden auf externe Tools – Suchmaschine, Chatbot – verließen, desto schwächer war die Verbindung zwischen verschiedenen Hirnregionen. Anders gesagt: »Sie brauchten ihr Hirn weniger«. Die Studie geht zusätzlich darauf ein, inwiefern der beobachtbare Trend, durch die Nutzung dieser Tools nicht mehr ganze Originalquellen am Stück, sondern nur noch KI-erstellte Zusammenfassungen zu lesen, ebenfalls zu einer systematischen Verschlechterung von Verstehens- und Wissensgenerierungsprozessen führt.
Die Herausforderungen liegen auf 4 Ebenen
Folgt man diesen Gedanken, so kann man folgende potenzielle Risikobereiche ausmachen:
- Die Nichthandlungsfähigkeit bei Ausfällen dieser Technologien, auf die man sich einfach verlässt
- Der Verlust des Status eines souveränen Nutzenden, der »auf Augenhöhe« agiert
- Das Einbüßen von Wissen und Können, die uns als kritisch denkendes Wesen auszeichnen und im engeren Sinn als DeSkilling bezeichnet werden können
- Die Einschränkungen, die wir im zwischenmenschlichen Umgang erfahren, wenn unsere (zwischen-)menschlichen Diskurs- und Kommunikationsbefähigungen aufgrund mangelnder Übung eingeschränkt werden
Deskilling als Teil unserer Forschungsagenda
Mit Blick auf die immense Bedeutung von GenAI, ihrer Entwicklungsgeschwindigkeit und die Umfänglichkeit ihrer alltagsweltlichen Durchdringung stellt sich uns als arbeitswissenschaftlichem Institut die Frage, wie mit den genannten potenziellen Herausforderungen umgegangen werden kann. Wenn wir einen SkillLift und keinen SkillShift in zentralen Grundkompetenzen wollen, brauchen wir dringend weitere Forschung und empirischer Untermauerung für eine Reihe an Fragen:
- Gestaltungsprinzipien für »hybride Intelligenz«: Wie organisieren wir Mensch-und-KI‑Zusammenarbeit so, dass Basiskompetenzen erhalten und Meta‑Kompetenzen wie Reflexion, Urteil, Ethik, gestärkt werden? Wie gestalten wir Einarbeitungsprozesse, wieviel Zeit geben wir gerade jungen Mitarbeitenden, diese Basiskompetenzen überhaupt erst einmal aufbauen zu können?
- Messmodelle für Deskilling/Reskilling: Welche validen Indikatoren und Langzeitdesigns erfassen Kompetenzverläufe in realen Arbeits‑ und Lernsettings?
- KI‑robuste Arbeits-, Lern‑ und Prüfungsformate: Welche arbeitsorganisatorischen und didaktischen Designs verhindern Kompetenzverlust und fördern echte Meisterschaft?
- Organisationsgestaltung & Führung: Welche Arbeits‑ und Führungspraktiken fördern z. B. Reflexionsrituale, verantwortete Autonomie und gewährleisten damit die richtige Balance von Produktivitätsgewinn und Kompetenzsicherung im täglichen Arbeitskontext?
- Upskilling‑Programme mit Impact: Welche Programmarchitekturen brauchen wir für Qualifizierungsprogramme, um messbaren Kompetenzzuwachs jenseits reiner Tool‑Bedienung zu gewährleisten?
Die Autorin in ZEIT Online resümiert dazu: »Am Ende geht es vielleicht nicht um die Frage, ob KI uns dumm macht. Sondern darum, wie viel uns das Denken wert ist«.
In unserer Digitaldialog-Reihe »Work Forward« werden wir uns zum Termin am 20. Februar 2026 ebenfalls mit diesem Thema beschäftigen. Ich freue mich, wenn wir dort direkt ins Gespräch kommen!
Tipp: Mehr Einblicke zur Entwicklung und Anwendung von KI in der Arbeitswelt gibt es in der Ausgabe 1/24 des
»FORWARD Magazins. Erfahrt Antworten auf zentrale Fragen: Wie machen wir KI für Unternehmen und Mitarbeitende greifbar? Wo sind KI-Anwendungen sinnvoll? Welche Rolle spielt Ethik im KI-Einsatz? Oder besucht unsere
Veranstaltungen und entdeckt unsere
News und Studien zum Thema »Künstliche Intelligenz«, um stets über die neuesten Entwicklungen informiert zu bleiben.
Leselinks: