Publikationen / vorgänge / vorgänge Nr. 247/248: Zukunft der Bildung

Die ich rief, die Geister, werd ich nun nicht los … Lehrkunst, Digita­li­sie­rung und Virtualität oder: Über die Rückge­win­nung der Autonomie über das eigene Denken und Handeln

Der Beitrag erschien zuerst in der Pädagogischen Rundschau, Jg. 77(2023), H. 6 , S. 751-768. Dieser Text ist frei verfügbar unter der Creative-Commons-Lizenz veröffentlicht.

Inzwischen wird Unterrichten und Lernen durch mechanische Lehrer (heute digitale Systeme) reduziert auf abfragbares Repetitionswissen, das nach Alters- und Leistungsstufen vermittelt und sofort abgeprüft wird. Lernen wird zur Re-Aktion auf Prüfungsfragen. Eine Maschine „versteht“ ja nicht, was an Texten oder Grafiken angezeigt, per Sprachsoftware artikuliert oder als nächste Aufgabe gestellt wird. Ralf Lankau sieht dies in seinem Beitrag kritisch und vertritt eine „pädagogische Wende“. Wer Lernenden eine selbstbestimmte Zukunft ermöglichen und Bildungschancen eröffnen wolle, solle die Fixierung auf das Vermessen von Lernleistungen beenden und auf das Erziehen, Unterrichten, Vermitteln und Verstehen fokussieren.

 

In der Geschichte »Die Schule« (Originaltitel: „The fun they had“) von 1954 beschreibt der russisch-amerikanische Wissenschaftler und Science fiction Autor Isaac Asimov, wie die Schule der Zukunft im Jahr 2157 aussieht – oder genauer: dass es gar keine Schulen mehr gibt. Jedes Kind hat neben seinem Kinderzimmer im Elternhaus einen kleinen Schulraum, in dem es von einem mechanischen Lehrer (einer Maschine mit Bildschirm und einem Schlitz zum Einwerfen der Hausaufgaben) unterrichtet wird. Diese Lehrmaschine ist perfekt auf die Fähigkeiten des einzelnen Kindes eingestellt und kann es optimal beschulen. Nur: Maschinen können kaputt gehen. Die elfjährige Margie wird von ihrem mechanischen Lehrer wieder und wieder in Geographie abgefragt, aber jedes Mal schlechter benotet. Das sieht die Mutter und ruft den Schulinspektor, um den mechanischen Lehrer zu reparieren.

„Margie hatte gehofft, dass er ihn nicht wieder zusammenbringen würde, aber er hatte Bescheid gewusst, und nach einer Stunde oder so hatte das Ding wieder dagestanden, gross und schwarz und hässlich, mit einer grossen Mattscheibe darauf, wo alle Lektionen gezeigt wurden, und mit einem Lautsprecher daneben, der die Fragen stellte.

Aber das war nicht das Schlimmste. Der Teil, den Margie am meisten hasste, war ein Schlitz, in den sie alle Hausarbeiten und die Antworten auf seine Fragen stecken musste. Alles das musste sie in einem Lochcode schreiben, den sie mit sechs Jahren gelernt hatte, und der mechanische Lehrer rechnete die Noten im Nu aus.“i

1. Unter­richts­ma­schi­nen: Von Asimov zu ChatGPT

In wenigen Sätzen beschreibt Asimov, was derzeit zum Teil bereits Praxis ist oder werden soll. Kinder sitzen an Bildschirmen und werden von mechanischen, heute digitalen, Apparaten beschult. Das Unterrichten und Prüfen wird an Maschinen delegiert und entpersonalisiert. Technische Systeme arbeiten heute zwar mit Avataren, Lernsoftware und der sogenannten „Künstlichen Intelligenz“ (KI), aber das Prinzip der sozialen Isolation an Displays und Interaktion mit technischen Geräten statt zwischen Menschen findet sich bereits bei Asimov. Versprochen wird das technisch optimierte, individualisierte Beschulen jedes Kindes dank mechanischer (heute digitaler) Präzision. Der Sozialraum Schule mit Klassenzimmern und Pausenhof wird durch die Beschulung zu Hause ebenso eliminiert wie das gemeinsame Lernen und gegenseitige Helfen. Durch die Auflösung von Schule und Klassenverband arbeiten Kinder ihr Lernpensum an einer Lernstation (in Zeiten der Pandemie vor einem Bildschirm oder an einem Tablet zu Hause) ab. Die Kinder am Display sind dem Apparat ausgeliefert. Mit einer Maschine kann man nicht diskutieren. Die per Video zugeschalteten „Lehrkräfte“ können reale Menschen oder computergenerierte „emphatische Lernbegleiter“ii sein.

Zugleich wird Unterrichten und Lernen durch mechanische Lehrer (heute digitale Systeme) reduziert auf abfragbares Repetitionswissen, das nach Alters- und Leistungsstufen (heute: Kompetenzraster und -stufen) vermittelt und sofort abgeprüft wird. Lernen wird zur Re-Aktion auf Prüfungsfragen. Eine Maschine „versteht“ ja nicht, was an Texten oder Grafiken angezeigt, per Sprachsoftware artikuliert oder als nächste Aufgabe gestellt wird. Maschinen funktionieren nach Steuerungsanweisungen in Maschinencodes. Sie funktionieren korrekt oder sind falsch konfiguriert bzw. defekt. Maschinen (Computer sind Rechenmaschinen) haben weder ein Bewusstsein, noch einen Willen oder irgendeine Absicht. Ein Computersystem kann weder reflektieren noch selbst entscheiden. Alles muss als Programmcode und konkrete Handlungsanweisung hinterlegt sein. Es sind kybernetische Steuerungssysteme, die nur „Richtig“ oder „Falsch“ bzw. als Binärcode Null (0) oder Eins (1) kennen.iii Die Microsoft-Deutschland-Chefin Sabine Bendiek präzisierte in einem FAZ-Interview: „Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen“iv. Es sind Datenverarbeitungsmaschinen.

Das muss man sich in Erinnerung rufen, da es im Kontext digitaler und besonders der aktuellen KI-Systeme auf Basis großer Sprachmodelle (Large Language Models, LLM) wie ChatGPT, Bard u.a. Tendenzen gibt, die Grenze zwischen Mensch und Maschine in beide Richtungen aufzulösen und Maschinen zu Lebewesen zu überhöhenv. Der Anthropomorphismus (die Vermenschlichung und Zuschreibung menschlicher Eigenschaften an Maschinen) und der Animismus (die Zuschreibung mentaler Eigenschaften an Maschinen) sind zwar historische Konstanten, bekommen ihre besondere Dynamik aber dadurch, dass die heutigen IT- und KI-Systeme bereits in Webanwendungen, Suchmaschinen und Apps im Einsatz sind, ohne dass wir uns darüber im Klaren sind oder Einfluss darauf nehmen könnten. Die Online-Welt wird bereits von Wirtschaftsinteressen dominiert und lässt sich nur über Programme (Browser, Datenbanken, Suchroutinen, Algorithmen) erschließen, die für Nutzerinnen und Nutzer intransparent sindvi.

Von Maschinen selbst geht keine Gefahr aus. Sie wollen weder die Weltherrschaft übernehmen noch schicken sie Terminatoren als Auftragsmörder oder reisen durch die Zeit. Solche Fantastereien über den Machtanspruch und Gewalttätigkeit der Maschinen gegenüber Menschen dienen dazu, von den tatsächlichen Gefahren und konkreten Geschäftsinteressen abzulenken, die auch mit dem aktuellen KI-Hype verbunden sindvii. Tatsächliche Gefahr geht von Menschen und deren Interessen und von bereits etablierten Machtstrukturen aus, die über digitale Kanäle die Sozialsysteme und die öffentliche Meinung okkupieren. Die langjährige Google-Mitarbeiterin und heute Signal-Chefin Meredith Whittacker thematisiert diese Ablenkungsstrategie:

„Anstatt uns auf Fragen der Macht, Asymmetrien, Diskriminierung, der Verschlechterung der Arbeit zu konzentrieren, konzentrieren wir uns auf Science-Fiction-Fantasien. (…) Das Narrativ von künstlicher Intelligenz dient dazu, das Überwachungsgeschäftsmodell als Kern der Tech-Industrie zu festigen und auszuweiten.“viii

Der Kampf, der gerade ausgefochten wird, ist ein Kampf um Marktanteile und die Aufmerksamkeit der Konsumenten. Microsoft versucht über die milliardenschwere finanzielle Unterstützung von OpenAI (das sind die Entwickler von ChatGPT und Dall-E2) Google die Vorreiterrolle bei Suchmaschinen und Werbeplätzen streitig zu machen. Der Clou der aktuellen Bots wie ChatGPT oder das Google-Pendant Bard ist ja, dass man nicht mehr Stichworte eingibt und eine Liste von Links angezeigt bekommt, die man anklickt. Bei den neuen ChatBots stellt man Fragen und bekommt komplette Antworten oder gibt Anweisungen und bekommt das fertige Ergebnis als Text oder Video, Präsentation oder Programmcode. Das Denken, Recherchieren und Formulieren wird an Bots ausgelagert. Man tippt Anweisungen in eine Eingabemaske (den Prompt), die Programme machen daraufhin, je nach Aufgabenstellung, die Hausaufgaben, schreiben Hausarbeiten oder Dissertationen (der Grad der Wissenschaftlichkeit ist ebenso einstellbar wie die Altersstufe für Texte in der Schule). Gedichte oder Musikstücke lassen sich damit ebenso generieren wie Bilder oder Videos u.v.m. Das Leistungsspektrum ist durchaus beeindruckend.

Die Funktionsweise und das Problem falscher Antworten oder erfundener Inhalte (Konfabulationen) sind anderweitig ebenso beschrieben worden wie typische Merkmale zum Identifizieren computergenerierter Grafiken und Bilder. Hier steht in Frage, welche Bedeutung und Konsequenzen solche kybernetischen Steuerungssysteme als Tools für Schulen haben (können) oder ob nicht eher die IT-Systeme umkonfiguriert werden müssen, bevor man sie in Bildungseinrichtungen einsetzen kann. Denn selber Denken (können) war einst Aufgabe und Ziel von Unterricht und ist nach wie vor die Basis für Bildungsprozesse.

Die binäre Logik technischer Systeme ist für funktionale und für konkrete Aufgaben und z.B. Prüfverfahren, etwa in der automatisierten Produktion, notwendig und effizient. Es sind Grundprinzipien des Qualitätsmanagements: Standardisierung und Automatisierung von Prozessen mit dem Ziel der Normierung der Produktion und der Resultate. Für die industrielle Herstellung von Gütern oder Dienstleistungen ist das als Arbeits- und Produktionsplanung sinnvoll. Für Lernprozesse hingegen greift ein derart reduziertes, mechanistisches Verständnis von Lernen und die Reduktion auf Prüfbarkeit zu kurz – auch wenn diese Vorstellungen vom Nürnberger Trichter bis zu heutigen Anwendungen der so genannten „Künstlichen Intelligenz“ (KI) reichen. Aber zum Denken lernen als Ziel von Lehre und Unterricht brauchen wir ein menschliches Gegenüber, den direkten Dialog, die Auseinandersetzung und den Diskurs. So formulierte es Immanuel Kant im Text „Was heißt: sich im Denken orientieren?“ (1786). Sollte das fehlen, bekämen wir nur leere Köpfe, die zwar das Repetieren (heute: Bulimie-Lernen) trainieren, aber nicht selbständig denken und Fragen stellen könnten.

Die Maschinenmetapher für Lernende und Lernen ist womöglich das durchgängige Missverständnis bei der Diskussion über Informationstechnik (IT) und KI in Schulen. Lernen wird als mechanischer und/oder technischer Vorgang verstanden, die Lerner selbst als zwar organische und psychische Wesen, letztlich aber steuerbares Systeme. Nur: (Lern)Software, ChatBots und KI-Systeme sind Datenverarbeitungsmaschinen, der Mensch ist es nicht. Wenn daher mit Rechnersystemen in Schulen gearbeitet werden soll, muss man als erstes klären: Was sind das für Systeme, was können sie und vor allem, was können diese informationstechnischen Systeme nicht?

2. Begriffs­klä­rung: Was bedeutet digital und digita­li­sie­ren?

Digit bedeutet Ziffer oder eine Stelle in der Anzeige eines elektronischen Geräts. Als Adjektiv bedeutet digital „in Ziffern dargestellt oder auf Digitaltechnik bzw. -verfahren beruhend“. Als Verb bedeutet „etwas zu digitalisieren“, beliebige „Information“ (noch ohne Kontext und Bedeutung) in ein technisches Signal zu transformieren, um es maschinenlesbar zu machen. Ob Text oder Bild, Mimik oder Gestik, Töne oder Raumtemperatur: Alles wird durch Sensoren, Kameras oder Mikrofone aufgezeichnet und zu Daten, Dateien und Datensätzen konvertiert. Diese Digitalisate werden nach der Logik von Datenverarbeitungssystemen, mit Hilfe entsprechender Programme und Algorithmen, verarbeitet. Digitalisierung als technischer Prozess sagt nichts darüber, was mit diesen Daten passiert. Die Aufgabe übernehmen Algorithmen. Es sind Handlungsanweisungen (Operationsbefehle), die vorgeben, wie Rechner bzw. Software Daten verarbeiten (sollen). Der wichtigste Unterschied: Bei proprietärer (herstellerabhängiger) Software kennt nur das Unternehmen den Sourcecode und damit die konkrete Funktionalität. Bei Software nach den Regeln der Free + Open Source Software (FOSS) ist der Code öffentlich, kann gelesen und geändert werden. Als IT des 21. Jh. sollte ausschließlich Open Source Software zum Einsatz kommen. Das gilt vor allem für den Einsatz von IT im Kontext von Sozialsystemen (Arbeit, Bildung, Gesundheit). Hier bedeutet Digitalisierung, dass Daten über menschliches Verhalten, über die Psyche und Emotionen der Probanden aufgezeichnet, maschinenlesbar gemacht und automatisiert ausgewertet werden, um menschliches Verhalten zu steuern. Hier muss die Transparenz der Algorithmen Pflicht werden, da Entscheidungen über und für Menschen getroffen werden.

Digitale Transformation bezeichnet die Forderung der IT- und Wirtschaftsverbände, nach und nach alle menschlichen Lebensbereiche nach den Parametern und Anforderungen von Datenverarbeitungssystemen und Datenökonomie umzustrukturieren, um sie der Logik von Aufzeichnung, Auswertung und algorithmisierter Berechenbarkeit anzupassen. Die Konsequenz, zumindest für die Datenökonomie: Es ist nur noch relevant, was als Daten erfasst (datafiziert) und digital gesteuert werden kann. Der Dreisatz der Digitaltechnik lautet: Automatisieren, Digitalisieren, Kontrollierenix. Nicht der Mensch mit seinen Bedürfnissen steht im Mittelpunkt technischer Systeme, sondern die Effizienz und Optimierung der Datenverarbeitung. Das führt zum Begriff des Überwachungskapitalismusx, den die US-amerikanische Wirtschaftswissenschaftlerin Shoshana Zuboff für die Datenökonomie der US-Konzerne und deren Agieren in Europa und weltweit geprägt hat. In Schulen wird aus der Verbindung von Digitaltechnik und Learning Analytics zur Profilierung der Schülerinnen und Schüler Überwachungspädagogikxi.

Der relativ neue Begriff Digitalität als Substantiv soll die digital codierte Verbindung zwischen Menschen, zwischen Menschen und Objekten und zwischen Objekten des „Internet of Things“ (IoT) umfassen. Statt der eher technischen Definition von Digitalisierung sollen mit dem Begriff der „Kultur der Digitalität“ (Stalder) soziale und kulturelle Praktiken beschrieben werden, ähnlich dem (ebenso ungenauen) „Digital Lifestyle“. Der Begriff intendiert die Akzeptanz der Allgegenwart und permanenten Interaktion von Menschen mit digitalen Endgeräten und netzbasierten Diensten. Wie bei Negropontes Definition von „Post-Digitalität“xii wird über Datenaufzeichnungs- und Datenverarbeitungssysteme im privaten wie im öffentlichen Raum, in der Kleidung und demnächst im eigenen Körper nicht mehr diskutiert, weil sie allgegenwärtig und als normal akzeptiert sind. Die Rechner rücken uns buchstäblich auf und in den Leibxiii. Kulturpolitisch wird mit dem Begriff der Digitalität die nächste Stufe des Technikdeterminismus als Paradigma etabliert: Der Mensch ist nurmehr ein Element der Interaktionskette von Daten sendenden Objekten und Netzwerkdiensten. Bildungspolitisch setzt sich die Fraktion der Digitalwirtschaft durch und realisiert die Vision von Asimov. Die letzte Stufe der Überhöhung der IT-Systeme findet sich beim israelischen Historiker Yuval Noah Harari. In seinem Buch „Homo Deus“ buchstabiert er die Fiktion aus Allgegenwart und Allmacht technischer Systeme aus. Menschen sind nurmehr Datenspender:

„Menschen sind lediglich Instrumente, um das Internet der Dinge zu schaffen, das sich letztlich vom Planeten Erde aus auf die gesamte Galaxie und sogar das gesamte Universum ausbreiten könnte. Dieses kosmische Datenverarbeitungssystem wäre dann wie Gott.“xiv

Auf die Idee, Datenverarbeitungssysteme als neue Gottheit zu vermarkten, können nur Digital-Adventisten kommen. Aber Technikgläubigkeit ist eine Basis für praktizierten Utilitarismusxv. Das Synonym für die zunehmend vollständige Technisierung des Lebensraums mit dem Menschen als integriertem Datenspender und Funktionselement ist „Smart“: Smart Home, Smart School, Smart City, Smart World. Smart steht dabei nicht für „schlau“, sondern für vollständig verdateter Realraum. Kameras, Mikrofone und Sensoren zeichnen das gesamte menschliches Verhalten und die Umgebung auf und generieren daraus virtuelle Räume wie bei Computerspielen oder Simulationen. Andere Akteure können als Avatare integriert werden, Interaktion zwischen den Figuren ist optional möglich. Die Grenze zwischen Realraum und virtuellen Parallelwelten verwischt sich ebenso wie die Unterscheidung zwischen realen Personen und Avataren als Gegenüber. Geht es nach den Anbietern dieser Systeme, trifft man sich, spielt und kommuniziert im computergenerierten 3D-Raum und weiß nicht (immer), wer eine reale Person ist, wer Avatar oder Fakeprofil. Das ist, als Immersion (Eintauchen) bezeichnet, sogar das Ziel. Die virtuelle Umgebung wird als real empfunden.

Bei der erweiterten Realität (Augmented Reality, AR) bewegt man sich dabei noch im Realraum, bekommt aber auf eine (halb)transparente Brille künstliche Objekte eingeblendet. Wirklichkeit und Simulation verschmelzen. Bei Mixed Reality-Brillen kann man die Transparenz der Brille umschalten auf rein virtuelle Welten und ist dann komplett im computergenerierten Raum, mit Kopfhörer auch akustisch komplett abgekoppelt. Marc Zuckerberg benutzt den Begriff „Metaverse“ für seine Variante virtueller Räume. Metaverse wurde von Virtual Reality-Fans bereits für Second Life adaptiert, ein Computerspiel von 2003.Eingeführt hatte den Begriff ursprünglich der Science-Fiction-Autor Neal Stephenson in seinem Roman „Snow Crash“ (1992). Es ist eine Dystopie. In den USA herrschen nach einer schweren Wirtschaftskrise hohe Arbeitslosigkeit, Armut und Gewalt. Viele Menschen flüchten daher in virtuelle Scheinwelten. Diese virtuellen Welten sind heute nahezu fotorealistisch, mit entsprechender Hardware (Arbeitsspeicher, Grafikkarte, Netzanschluss) läuft die Anzeige fast verzögerungsfrei. Warum Zuckerberg eine Dystopie zur Vision erklärt, ist eine andere Frage.

Wichtig ist: Alles, was heute an virtuellen Anwendungen und Szenarien entwickelt wird, hat Vorläufer in Literatur und Film. Zugrunde liegt ein schöpferischer Akt, der es erlaubt, sich phantastische, surreale und fiktive Welten vorzustellen. Reisen zum Mittelpunkt der Welt oder durch die Galaxis gehören ebenso dazu wie die Imagination der benötigten Geräte und Fahrzeuge bzw. die Fähigkeit, alle Figuren und Wesen gedanklich zu konstruieren, die für die Geschichte gebraucht werden. Das nennt man Phantasie und Vorstellungskraft und ist die Quelle für Kreativität und Schöpfungskraft.

Dafür erzählt man Kindern eigene Geschichten. Liest ihnen Märchen und Sagen vor, führt sie an das Lesen heran. Beim Zuhören wie beim Lesen wird die eigene Vorstellungskraft aktiviert. Texte und Geschichten sind Inspiration. Aus Buchstaben auf Papier oder dem Gehörten und eigener Intuition werden lebendige Figuren. Ein Albert Einstein zugeschriebenes Zitat lautet nicht umsonst: „Wenn Sie wollen, dass Ihre Kinder intelligent sind, lesen Sie ihnen Märchen vor. Wenn Sie wollen, dass sie intelligenter werden, lesen Sie ihnen mehr Märchen vor.“ Kinder, denen vorgelesen wird und die selbst lesen, entwickeln Phantasie und Vorstellungskraft, sind neugierig und offen für Unbekanntes. Im Idealfall werden es mutige Menschen, die sich angstfrei neue Aufgaben zutrauen und sich selbst sagen, was man jedem Kind an Mut und Selbstvertrauen mit auf den Weg geben möchte: „Das habe ich noch nie vorher versucht. Also bin ich völlig sicher, dass ich es schaffe!”xvi Entscheidend ist die individuelle Übersetzung von Buchstaben und Text zu eigenen Vorstellungen, was man bei Kinder- und Jugendbüchern beobachten kann. Falls, wie heute üblich, ein (d)englischer Begriff vonnöten ist, könnte man das Active Mind Reality (aktive Gedanken-Realität) nennen oder auf deutsch: Vorstellungskraft und Imaginationsfähigkeit. Im Gegensatz zu konsumierten, technisch generierten Bilder entwickelt man eigene und eigenständige, mentale Bildwelten die – als Kunstpädagoge ergänze ich das gerne – parallel gezeichnet, gemalt und modelliert werden können.

So wird es ein Kreislauf. Aus Bilderbüchern, die man gemeinsam anschaut, werden Vorlese- und Lesebücher, der Textanteil steigt, bis Illustrationen nur noch am Kapitelanfang stehen. Die Visualisierung übernimmt der oder die Lesende, es werden Vorstellungswelten und parallel reale Zeichnungen oder Bilder. Beim Schauen von Filmen oder computergenerierten Welten sieht man hingegen nur, was sich andere ausgedacht, gestaltet oder heute mit Software generiert haben. Vor allem: Beim Lesen imaginiert ein Mensch Dinge und Personen, die es nicht gibt. Heute scheinen Phantasie und Vorstellungskraft der Menschen erschöpft, weil das Lesen zur Informationsaufnahme verkümmert. Dabei sind gerade Kreativität und Phantasie und die Fähigkeit zur Imagination menschliche Fähigkeiten, die nicht digital oder technisch abgebildet werden können. Offenbar sind die derzeitigen Bildungseinrichtungen auf Anderes ausgerichtet.

3. Kybernetik und Psychologie vs. Pädagogik

Die Idee, Unterricht und Lehre ließe sich automatisieren und automatisiert prüfen, ist älter als Computer oder Internetxvii. In seiner kurzen Geschichte der Unterrichtsmaschinen schreibt Claus Pias über „Lerngutprogrammierung, Lehrstoffdarbietungsgeräte und Robbimaten“xviii. Er referiert über die Thesen des Psychologen Pressey, der bereits 1926 beklagt hatte, Erziehung hätte den geringsten Wirkungsgrad aller denkbaren Unternehmungen, weshalb der Lehrbetrieb arbeitswissenschaftlich (nicht pädagogisch) optimiert werden müsse. „Im Klartext: Wie bekommt man mit möglichst wenig Ressourcen möglichst viel Stoff möglichst schnell in die Köpfe?“ Vorläufer und Impulsgeber waren Psychologen wie William Stern, der bereits im Jahr 1900 die „Psychologisierung des gesamten menschlichen Lebens“ prognostizierte. Stern und Kollegen wie Hugo Münsterberg postulierten 1912 als psychotechnische Maxime: „Alles muss messbar sein“. Psycho-Technik wurde zur Leitdisziplin des „Psycho-Ingenieurs“xix.

Nach diesem Verständnis sind selbst Emotionen „Kompetenzen“, die sich trainieren und zur Selbstoptimierung verändern lassen. Der Psychologe David McClelland leitete aus diesem Kompetenzbegriff schließlich das „pädagogische Versprechen einer umfassenden Formbarkeit des Menschen“ abxx. Das Erfassen und Personalisieren der Emotionen wird heute über digitale Endgeräte wie Smartphone und Tablet mit eingebauten Kameras und Mikrofon realisiert. Nach dem Einloggen über eine persönliche Identifikationsnummer (ID) liefern diese Geräte personalisierte Lern- und Verhaltensdaten in Echtzeit. Aus personalisierten Nutzerdaten lassen sich die fünf Dimensionen der Persönlichkeitspsychologie des Fünf-Faktoren-Modells (engl. OCEANxxi) berechnen. Diese Persönlichkeitsmerkmale (Offenheit, Gewissenhaftigkeit, Extrovertiertheit, Verträglichkeit und emotionale Stabilität in der jeweiligen Ausprägung auf einer Skala von -5 bis +5) ergeben präzise Abbilder der Persönlichkeitsstruktur, der mentalen und psychischen Belastbarkeit und der Leistungsbereitschaft, des emotionalen wie des sozialen Verhaltens, der sexuellen Präferenzen u.v.m.

Zusammen mit Bewegungs- und Kommunikationsprofilen aus anderen digitalen Kanälen (Social-Media-Apps, Browserverläufe, Metadaten über das Kommunikationsverhalten), entstehen präzise Persönlichkeits- und Verhaltensprofile. Das Ziel ist, mit Hilfe dieser Daten menschliches Verhalten per Web und App möglichst effizient zu beeinflussen: entweder freundlich durch „Anstupsen“ (Nudging) oder massiv durch persuasive (verhaltensändernde) Technologien (Propaganda, Werbung, Influencing).

Steuerbarkeit der Probanden ist das Ziel kybernetischer Systeme. Zu Beginn der 1950er Jahren stritten zwei Fraktionen um die Deutungshoheit. Kybernetiker in der Nachfolge von Norbert Wiener, dem Namensgeber der Kybernetik, arbeiten mit mathematischen Modellen. Behavioristen in der Tradition des Biologen B.F. Skinner (Vordenker des programmierten Lernens) nutzen (verhaltens)biologische Modelle. Gemeinsam ist Kybernetik wie Behaviorismus die Überzeugung, dass der Mensch als (mathematisches resp. biologisches) Regelsystem definiert und mit Hilfe entsprechender Parameter gesteuert werden könne, entweder als mathematisch-technisches System bzw. nach dem „Input-Output-Schemata“ (Blackbox) als biologistische Variante der Fremdsteuerung.

Beide Vorstellungen sind erfreulicherweise zu unterkomplex, um Lernen und Verhalten jenseits von (biologischem) Reflex und Drill adäquat beschreiben zu können. Allerdings ist die Kybernetik, heute unter dem Marketingbegriff „Künstlichen Intelligenz“, das mathematische Modell, auf dem viele Netzdienste beruhen. Das Manko dabei: Der Begriff „Intelligenz“ wird so (verkürzt) definiert, dass er von Maschinen simuliert werden kann. Das reicht für berechnete Resultate als Simulation von Intelligenzxxii und eine vordergründig erstaunliche Vielfalt an Ergebnissen. Es bleiben gleichwohl mathematische Modelle, die mit Hilfe von Mustererkennung, Wahrscheinlichkeitsrechnung und Statistik wie „stochastische Papageien“ funktionieren und fröhlich korrekte mit falschen Phrasen kombinieren und sinnfrei nachplappern, was statistisch möglich istxxiii.

Allerdings ist es den Entwicklern und Anbietern digitaler (sozial nur genannter) Medien gelungen, unser „Gehirn zu hacken“, in dem sowohl elementare menschliche Bedürfnisse (Sozialität, Resonanz) bedient werden, die das Ausschütten körpereigene Substanzen (Dopamin) durch Posts und (Re) Tweets anregen. Durch unkalkulierbares Feedback wird sowohl die ständige Erwartungshaltung adressiert wie das Belohnungssystem korrumpiertxxiv. Das Ergebnis: Smartphonesucht. Dafür ist zwar noch keine medizinisch internationale Diagnose definiert, wohl aber empirisch belegt. Krankenkassen bieten inzwischen Hilfe und Ratgeber an. Die Wirkmächtigkeit der Kombination aus Wahrnehmungs- und Verhaltenssteuerung durch Smartphone und Apps beschreibt Harari. Im Interview zum Jahreswechsel 2021/22 wurde er gefragt, warum er kein Smartphone besitze. Die Antwort des Wissenschaftlers, der sich dezidiert mit den Auswirkungen der Digitalisierung auf menschliches Verhalten befasst, ist erhellend. Er sei nicht naiv und wisse, dass er in einer zunehmend smarten Umwelt auch ohne Smartphone verfolgt werden könne. Es gehe um mehr:

„Der Hauptpunkt ist, Ablenkungen fernzuhalten. Ich weiß, wie schwierig es ist, den Geist zu kontrollieren, konzentriert zu bleiben. Und außerdem: Die Menschen auf der anderen Seite des Smartphones – die klügsten Menschen der Welt – haben in den vergangenen 20 Jahren gelernt, wie man das menschliche Gehirn durch das Smartphone hacken kann. Denen bin ich nicht gewachsen. Wenn ich gegen die antreten muss, werden sie gewinnen. Also gebe ich ihnen nicht meinen Bildschirm, gewähre ihnen keinen direkten Zugang zu meinem Gehirn.“xxv

Harari kann als Wissenschaftler selbst darüber bestimmen, für was er Rechner und Netzwerkdienste einsetzt und welche Dienste er nutzt. Wir gewöhnen Kinder hingegen schon in der Grundschule oder in der Kita an Tablets und gewähren IT-Anbietern „direkten Zugang zu deren Gehirnen“xxvi. In seiner Ablehnung des Smartphones ist der Historiker Harari so konsequent wie der Chefentwickler bei Microsoft Jaron Lanier in seinem Urteil über Social Media-Apps. Lanier, Internetpionier und Vordenker der virtuellen Realität, hat 2018 zwei Bücher herausgegeben. „Anbruch einer neuen Zeit. Wie Virtual Reality unser Leben und unsere Gesellschaft verändert“ ist seine Hommage an die Geschichte und Faszination der Entwicklung virtueller Welten. Er meint nicht den Konsum! Der schmale Band „Zehn Gründe, warum du deine Social Media Accounts sofort löschen musst“ ist als Imperativ formuliert und kritisiert die Manipulation der Psyche der Nutzer. Diese Apps machten süchtig und untergraben den freien Willen, so seine Analyse. Sie verleiten zu unsozialem Verhalten, führen zum Verlust von Empathie und machen letztlich einsam und unglücklich. Ein Gutachten des U.S. Surgeon General (so etwas wie die oberste Gesundheitsbehörde in den USA) hat in einer Studie 2023 zur psychischen Gesundheit von Kindern und Jugendlichen vor Social Media gewarnt und sowohl die Gesetzgeber wie die Unternehmen und Eltern aufgefordert, gemeinsam am Schutz der Kinder und Jugendlichen zu arbeitenxxvii. Das Schadpotential dysfunktionaler Nutzung von Bildschirmmedien ist aus vielen Studien, nicht zuletzt aus der Zeit der Pandemie, belegtxxviii. Während IT-Experten wie Jaron Lanier, in der Tradition eines Joseph Weizenbaumxxix, vor dem unreflektierten Einsatz solcher Netzanwendungen warnen, propagieren digitalaffine Lehrkräfte (nicht immer mit dem notwendigen technischen Sachverstand) deren Einsatz in Schulen und lassen sich von der IT-Wirtschaft instrumentalisieren. Dazu gehört die Forderung nach Informatikunterricht für alle und informatisches Denken schon in der Grundschule.

4. Infor­ma­ti­sches Denken versus frei flottie­rende Phantasie

Die Gesellschaft für Informatik (GI) startete im Mai 2020 zusammen mit mehreren IT-Berufsverbändenxxx die „Offensive Digitale Schultransformation“ (#Odigs)xxxi. Die Bildungspolitik wird aufgefordert, konkrete Maßnahmen zur digitalen Transformation der Schulen zu ergreifen. Die digitale Transformation der Gesellschaft, so die Logik der IT- und Wirtschaftsverbände, verlange nach einer ebensolchen digitalen Transformation von Schulen. Dazu gehöre unter anderem die „verpflichtende informatische und digitale Grundbildung in der Breite der Lehrkräfteaus- und -weiterbildung, verpflichtender Informatikunterricht für alle Schülerinnen und Schüler und mehr IT-Fachpersonal für die Schulen, um digitale Infrastrukturen aufbauen und dauerhaft pflegen“ zu könnenxxxii. In sieben Forderungenxxxiii wird ein vollständig auf Digitaltechnik und informatisches Denken ausgerichtetes, gleichwohl staatlich zu finanzierendes, Bildungssystem beschrieben.

Informatisches Denken, der deutsche Begriff für Computational Thinking, ist eine Problemlösungsstrategie, die eine beliebige Aufgabenstellung so lange in Teilaufgaben zerlegt, bis diese Teilaufgaben mathematisch beschrieben, in einen Algorithmus (eine Handlungsanweisung für Rechensysteme) übersetzt und von einem Computerprogramm berechnet werden kann. Berechnungen können beliebig komplex werden und immer höhere Rechenleistungen erfordern, das Grundprinzip bleibt identisch. Die Aufgabe muss mathematisch beschreibbar, die Lösung berechenbar und eindeutig (binär, Null oder Eins) sein. Die amerikanische Wissenschaftlerin Jeanette Wing übersetzt Comptaional Thinking nicht mit „wie ein Computer zu denken, sondern wie eine Informatikerin oder ein Informatiker“, aber auch ihr geht es um das Berechnenbare.

„Informatisches Denken beruht auf der Mächtigkeit und den Grenzen von Berechnungsprozessen, ob sie nun von Menschen oder Maschinen ausgeführt werden. (…) Grundsätzlich wird die Frage behandelt: Was ist berechenbar?“xxxiv

Berechenbarkeit als Prämisse beschreibt zugleich das Defizitäre dieser Disziplin. Sehr vieles von dem, was die Menschen und ihr Leben in Gemeinschaft ausmacht, ist nicht berechenbar. „Nicht alles, was zählt, kann gezählt werden, und nicht alles, was gezählt werden kann, zählt“ wird als Zitat meist Albert Einstein zugeschrieben (stammt aber wohl von William Bruce Cameronxxxv). Von wem der Spruch auch stammt, er weist auf einen zentralen Umstand. Gerade das nicht Berechenbare macht den Menschen und seine Lebenswelt aus. Man nennt es Kultur. Menschliche Kultur beruht auf deutlich mehr als mathematischen, informatorischen oder technischen Denkmodellen und -schemata. Kultur ist Ausdruck der Vielfalt der Menschen und ihrer Ideen, ihrer Lebens- und Denkweisen und ihrer Phantasie, Kreativität und Schöpfungskraft. Kultur beruht nicht zuletzt auf Gemeinschaft und Empathie, Kooperation und Sozialität, die nicht berechnet werden können, sondern gelebt werden. Wer die Standardphrase von Valley-StartUps „Wir programmieren eine bessere Welt“ sprachlogisch und kultursensibel hinterfragt, wird solche technikdeterministischen Ansätze daher eher als Drohung begreifen denn als Fortschritt.

Kreativität, Intuition und Imagination bleiben in technizistischen Modellen ebenso außen vor wie die schöpferische Phantasie, Sinnlichkeit und Körperlichkeit. Eine berechnete Welt ist keine humane, sondern ein auf Berechenbarkeit verkürztes Modell von Wirklichkeit, so wie virtuelle Welten nur die sinnlich verkürzte Simulation von Wirklichkeit sind. Der amerikanische Wissenschaftler James Bridle, der über Künstliche Intelligenz promoviert wurde, beschreibt die Verschiebung zwischen informatischem Denken und der Realwelt als Simulation von Realität:

„Computerdenken ist eine Ausweitung dessen, was andere als Solutionismus bezeichnet haben: die Überzeugung, dass sich jedes Problem durch die Anwendung von Berechnung nach Art eines Computers lösen lässt. (…) Abgesehen von dem Irrtum geht Computerdenken – oftmals unbewusst – davon aus, dass die Welt wirklich so ist, wie die Solutionisten sie sich vorstellen. Es verinnerlicht den Solutionismus dermaßen, dass sich die Welt überhaupt nicht mehr in Kategorien denken oder artikulieren lässt, die nicht berechenbar sind.“xxxvi

In Schulen wird schon länger auf MINT-Fächer verkürzt und der Schwerpunkt auf die algorithmisch modellierte, mathematisch berechnete virtuelle „Realität“ gelegt, statt die Vielfalt der Zugänge zur Realwelt zu thematisieren. Wenn Schülerinnen und Schüler dann noch nach Konzepten des „selbstorganisierten Lernens“ immer öfter am Touchscreen und mit einem Avatar lernen (sollen), übernehmen sie zwangsläufig diese Denkschemata und Modelle und verwechseln, wie die Entwickler und Programmierer, über kurz oder lang, Modell und Wirklichkeit.

„Die Hohepriester des Computerdenkens vermengen Approximation [mathematische Annäherung an einen Sachverhalt; rl] mit Simulation und ersetzen die Welt durch fehlerhafte Modelle ihrer selbst; und damit gewinnen sie, die Modellierer, die Kontrolle über die Welt.“xxxvii

Der PISA-Chef-Koordinator Andreas Schleicher hat 2018 auf die Frage, ob alle Schüler/innen programmieren lernen müssten, verneint:

„… damit bereiten wir junge Menschen eher auf unsere Gegenwart vor als auf ihre Zukunft. Denn in einer sich rasant verändernden Welt werden sie sich vielleicht noch vor dem Ende der Schulzeit fragen, was Programmieren eigentlich einmal war.“xxxviii

Er fordert stattdessen den Unterricht so zu gestalten, dass Menschen neugierig, sozial und selbständig denken und handeln könnten:

„Menschen, die für sich selber denken und gemeinsam mit anderen Menschen arbeiten können, die einen unverwechselbaren Sinn für Recht und Unrecht, Sensibilität und Empathie für andere Menschen und Sichtweisen, und ein gutes Verständnis für die Grenzen individuellen und kollektiven Handelns mitbringen und die jeden Tag offen für neue Entwicklungen sind, werden in der digitalen Welt eine große Zukunft finden.“xxxix

Das lernt man nicht alleine am Bildschirm, sondern nur in Gemeinschaft, im Sozialverband und im direkten Dialog. Hilfreich für alle Schülerinnen und Schüler ist hingegen Logik-Unterricht, also Mathematik und Philosophie, weil das logische und strukturierte Denken und das schlüssige Argumentieren an Verbalsprachen (auch Programmiersprachen sind Sprachen) und abstrakte Zeichensysteme (Gleichungen, Formeln, auch Partituren) gebunden ist. Wer die aktuellen Diskussionen über KI und die Automatisierung von Berufen verfolgt, weiß, dass in Zukunft vieles an Texten und Programmcodes nicht mehr selbst geschrieben wird. Stattdessen werden Anweisungen an Bots formuliert. Dafür muss man seine Sprache beherrschen, exakt und logisch strukturiert formulieren können, braucht ein qualifiziertes, umfangreiches Vokabular und Sprachvermögen. Linguistik und Semiotik als Verständnis für die Struktur von Sprachen (und Computerlinguistik als Unterdisziplin) bereiten daher besser auf die Zukunft vor als das Lernen heutiger Programmiersprachen. Sprache und Philosophie, Mathematik und Musik für alle ist zukunftsweisend und emanzipierend. Dazu müssen die ästhetischen Fächer Musik und Kunst und (moderater) Bewegung wieder fest im Stundenplan verankert werden. Phantasie ist gefragt und Empathie, Offenheit und Neugier, nicht binäres Denken. Das können Maschinen besser. Mit einem soliden Fundament an Wissen zu Sprache, Logik und Mathematik ist dann bei entsprechendem Interesse auch Informatik eine Option.

5. Pädagogik statt Metrik: Der Mensch im Mittelpunkt

Wirtschaftsverbände und IT-Lobbyisten fordern seit mehr als 30 Jahren, mit Verweis auf angebliche Vorzüge digitaler Medien im Unterricht, den immer früheren Einsatz von IT in Schulen oder, besser noch, in Kitas. Der Hinweis auf fehlende Evidenz wird gekontert mit der Behauptung, es seien „nur die Potentiale noch nicht ausgeschöpft“xl. „Evidence of a Potential“ nennt Jesper Balslev diese Strategiexli, die sich praktischerweise einfach behaupten und nur schwer widerlegen lässt. Jetzt gibt es von Seiten der Digitalbefürworter einen neuen Masterplan. Sie behaupten einfach, bereits die Frage nach dem Mehrwert von Digitaltechnik in Schulen sei obsolet. So agiert u.a. das Forum Bildung Digitalisierung e.V., ein Zusammenschluss privater Stiftungenxlii, die sich nach eigener Aussage für eine „systemische digitale Transformation im Bildungsbereich“ einsetzen. Die in diesem Forum durch ihre Stiftungen vertretenen Unternehmen kommen aus der IT- und Telekommunikationswirtschaft (Vodafone, Telekom) bzw. sind Akteure der Digitalisierung von Bildungseinrichtungen. Das Credo: „In Projekten, Publikationen und Veranstaltungen identifizieren wir Gelingensbedingungen für den digitalen Wandel an Schulen und navigieren durch die notwendigen Veränderungsprozesse“xliii.

Im Gefolge der Stiftungen finden sich erwartungsgemäß digitalaffine Lehrkräfte, die solche Setzungen in ihre Argumentation übernehmen und ebenfalls fordern, über Bildung nur noch „unter den Bedingungen der Digitalisierung“ zu diskutieren. Über Sinn, Nutzen und Mehrwert von IT im Unterricht muss dann praktischerweise gar nicht mehr gesprochen werdenxliv. Genau so gut könnte man ausschließlich Automobil-Hersteller darum bitten, Mobilitätskonzepte für das 21. Jh. zu entwickeln – und sich wundern, dass dabei lediglich Auto-Mobilität herauskommt, wenn auch mit Elektro-Motoren, samt Sondergenehmigung für Porsche-Fahrer und eFuel-Verbrennermotoren. „Lehrpläne sind das Ergebnis des Kampfes der gesellschaftlichen Interessengruppen um ihren Einfluss auf die heranwachsende Generation“, formulierte der Göttinger Erziehungswissenschaftler Erich Wenigerxlv. Partikularinteressen dominieren das Gemeinwohl, auch in der Bildungspolitik und das heißt, in Anlehnung an den militärisch-industriellen Komplex, vor dem der scheidende US-Präsident US-Präsidenten Dwight D. Eisenhower in seiner Abschiedsrede vom 17.1.1961 eindringlich warnte, bildungsindustrieller Komplexxlvi.

Als Praktiker wird man gegenfragen, warum Bildungseinrichtungen weltweit auf Präsenzunterricht bestehen und Fernunterricht nur anbieten, wenn es durch Krankheit, große Distanzen oder andere äußere Umstände nicht möglich ist, Schülerinnen und Schüler vor Ort zu unterrichten. Man kann fragen, warum es in Kunst- und Musik-Akademien üblich ist, dass Studierende nach dem Grundstudium zur Vermittlung der technischen Grundlagen und des Fachwissens) in Meisterklassen wechseln und sich als Meisterschüler in der direkten und oft 1:1-Auseinandersetzung mit der jeweiligen Professorin, dem jeweiligen Professor weiterbilden. Das gilt sogar für Musikerinnen und Musiker, die bereits sehr erfolgreich im Beruf stehen und z.B. Sommerkurse besuchen.

Wir brauchen einen Paradigmenwechsel: Statt der Fixierung auf Technologie brauchen wir eine Besinnung auf das Erziehen und Unterrichten als Kernaufgabe pädagogischer Arbeit. Statt der empirischen Bildungsforschung – mit dem Paradigma der Metrik und Psychometrie – müssen Bildungseinrichtungen sich wieder auf ihre Kernaufgabe des Lehrens und Lernens als individuellen und sozialen Prozess im Miteinander besinnen, auf Gemeinschaft, Bindung und Vertrauen als Basis pädagogischer Arbeit. Der Dreisatz aus Messen, Steuern, Regeln der Kybernetik (oder heute: KI) ist für Sozialsysteme ebenso ungeeignet wie Parameter der Ökonomie (Schulen als Unternehmen, Menschen als sich selbst optimierendes Humankapital). Das aktuelle Bildungssystem krankt an den Prämissen aus der (Daten-)¬Ökonomie, dem Ausrichten an Kennzahlen und der Verkürzung auf technisch-informatisches Denken. Wer den Menschen als nach Bedarf zurichtbares, berechenbares, programmierbares Objekt definiert, verabschiedet sich aus dem bildungspolitischen, demokratischen und humanen Diskurs.

Wer hingegen Lernenden jeglichen Alters eine selbstbestimmte Zukunft ermöglichen und Bildungschancen eröffnen möchte, beendet die Fixierung auf das Vermessen von Lernleistungen und fokussiert (wieder) auf das Erziehen und Unterrichten, auf das Vermitteln und Verstehen lehrenxlvii. Ich nenne das „pädagogische Wende“, die die empirische Wende aus kleinteiligen Lernstandserhebungen, fortwährender Diagnostik und permanentem Monitoring samt Kennzahlen und Rankings ablösen muss. Die pädagogische Wende überantwortet Schule und Unterricht wieder den studierten und qualifizierten Lehr- und Fachkräften, statt sie nach Parametern der Betriebswirtschaft und Informatik (samt Automatisierungs- und Standardisierungsparametern) auszurichten. Der Mensch ist ein kooperatives und kooperierendes Wesen, Lernen ein individueller und sozialer Prozess. Das Ziel sind nicht abprüfbare Lernleistungen, sondern Persönlichkeitsentwicklung in Gemeinschaft und Bildung im Dialog.

6. Erziehen und Unter­richten als Aufgabe der Pädagogik

„Probleme kann man niemals mit derselben Denkweise lösen, mit der sie entstanden sind“, hat Albert Einstein formuliert. Es bedeutet, dass weder neoliberale noch kybernetische, weder informatische noch psychologische Modelle und Methoden den Unterricht bestimmen dürfen. Der Mensch muss wieder als Subjekt (nicht Muster), mit seinen konkreten Bedürfnissen und seinem individuellen Anspruch auf Bildung und Einbindung in die Sozialgemeinschaft im Mittelpunkt stehen. Digitaltechnik muss wieder zum Werkzeug im Dienst der Menschen werden, statt Instrument der permanenten Kontrolle zu sein. Entscheidend ist für alle Schulformen und Lebensalter: Statt Zwangsdigitalisierung, Automatisierung und Zentralisierung nach den Parametern der Daten-Ökonomie muss wieder das pädagogische Primat gelten. Das bedeutet Präsenz und Beziehungsarbeit, inhaltszentriert nach der jeweiligen Fachlogik statt kompetenzorientiert und ohne Lernende vermessen und algorithmisch berechnet über kleinteilige Lernkontrollen steuern zu wollen. Die im Unterricht eingesetzten technischen Medien (IT und KI) müssen durch Lehrkräfte und Schüler steuerbar sein, nicht umgekehrt.

Wir müssen grundsätzlich aufhören, Lernen und Unterricht von Medien- und Digitaltechnik her zu definieren. Stattdessen stehen das „Verstehen lehren“ (Andreas Gruschka) und der Dialog, stehen die Klassen- und Lerngemeinschaft im Mittelpunkt. Nur dann können Bildungseinrichtungen wieder ihrem Ursprungsgedanken gerecht werden: Ein Ort der Muße, der Wertevermittlung, Erziehung und Bildung zu sein, in der Menschen zu mündigen, selbstverantwortlichen Persönlichkeiten werden, die sich aus intrinsischer Motivation in die Gesellschaft einbringen. Auf einem Schulleitungssymposium in der Schweiz wurden bereits 2017 als bildungspolitische Ziele Kriterien einer adäquaten Bildung für eine offene Zukunft formuliert: „eine stärkere Perspektivenorientierung auf Persönlichkeitsentwicklung, Mündigkeit, Förderung von Gemeinschaftssinn, Selbstverantwortung, verantwortungsvolle Partizipation an der Demokratie und achtungsvoller Umgang mit der fragilen Umwelt“xlviii. Nichts davon lässt sich berechnen, programmieren oder per KI vermitteln. Solche Kriterien zu vermitteln gelingt nur in Präsenz, durch Bindung und Vertrauen, Dialog und Diskurs. Andernfalls könnte wahr werden, was der Historiker Harari im Oktober 2020 zum Rückblick auf das Jahr 2020 formulierte:

„In 50 Jahren werden sich die Menschen gar nicht so sehr an die Epidemie selbst erinnern. Stattdessen werden sie sagen: Dies war der Moment, an dem die digitale Revolution Wirklichkeit wurde. (…) Im schlimmsten Fall werden sich die Menschen in 50 Jahren daran erinnern, dass im Jahr 2020 mithilfe der Digitalisierung die allgegenwärtige Überwachung durch den Staat begann.“xlix

Statt Bildungseinrichtungen an externen Partikularinteressen der Wirtschaft auszurichten, müssen der Sozialort Schule und das Lernen in der Gemeinschaft wieder Mittelpunkt und Selbstverständnis von Bildungseinrichtungen werden. Was auf allen Ebenen fehlt, sind fachlich qualifizierte Lehrkräfte, Schulpsychologinnen, Sozialarbeiter u.ä. Hier Lösungen zu entwickeln muss Priorität haben. Das geht nur, wenn man die Praktiker einbindet und multiperspektivisch diskutiert, wie es in einem Positionspapier zur Weiterentwicklung der KMK-Strategie „Bildung in der digitalen Welt“ gefordert wirdl.

„Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten“, lautet noch ein Albert Einstein zugeschriebenes Zitat. Wir werden unsere Probleme nicht mit derselben Denkweise lösen, mit der wir sie geschaffen haben. Daher sei in aller Deutlichkeit formuliert: Wir müssen aufhören, von Digitalisierung, digitaler Transformation und Digitalität als etwas zu sprechen, was man notwendig nutzen, an das man sich anpassen und deren Logik man sich unterordnen müsse. Dieser Fatalismus blendet vorsätzlich und wissentlich aus, dass hinter den Entwicklungen von „smarten“ (d.h. datenbasierten) Technologien reale Menschen und expandierende Unternehmen mit konkreten wirtschaftlichen Interessen stehen. Andernfalls bestimmen sehr wenige, sehr reiche Männer mit Partikularinteressen und autokratischem, zum Teil irrationalem und psychotischem Verhalten, wie gesellschaftsverändernde Technologien das Zusammenleben bestimmen (sollen).

„Ganz konkret ist, frei nach Immanuel Kant, das Austreten aus der selbst verschuldeten Unmündigkeit des Nachplapperns technikdeterministischer Erzählungen angesagt“li

Die Aufgabe demokratischer Staaten, ihrer Institutionen und der Bürgerinnen und Bürgern ist es, die rechtlichen, kulturellen, sozialen und technischen Rahmenbedingungen für eine (digitale) Souveränität zu erarbeiten. Das gilt, stärker noch als für alle anderen Lebensbereiche, für die Bildungseinrichtungen und umfasst die Hoheit über die eingesetzten Werkzeuge und Nutzerdaten. Die EU hat eine Verordnung zu KI verabschiedet und arbeitet an Vorgaben zum Schutz der Arbeitnehmerinnen und Arbeitnehmer gegen die Überwachung durch KI am Arbeitsplatz (workplace surveillance). Das ist zwingend notwendig, sollte aber schon jetzt und vorher für Kinder und Jugendliche in Bildungseinrichtungen umgesetzt werden (Verbot von learning surveillance).

Das Erfreuliche: Es gibt technische Alternativen für den datensparsamen und überwachungsfreien Einsatz von IT in in Schulen. Die Details sind anderweitig ausformuliertlii. Aber wenige Aspekte genügen, um die Richtung aufzuzeigen. Gearbeitet wird ausschließlich mit Open Source-Software und Linux als Betriebssystem, es gibt keinen Rückkanal für Schülerdaten zu Herstellern von Software oder anderen Datensammlern und es werden keine (Lern-)Profile erstellt. Rechner werden als Werkzeug eingesetzt, wenn es pädagogisch sinnvoll ist, ohne Überwachung und Steuerung der Nutzer. Wichtige Begriffe für die IT des 21. Jh. sind digitale Souveränität der Nutzer, Dezentralisierung, Datensparsamkeit, Hoheit der Nutzer über ihre Daten samt Löschoption und verbindliche Transparenz der Algorithmen. Das sind offene IT-System für offene Gesellschaften statt des Panoptikums, zu dem die Datenökonomie das Web gemacht hat. Für das Web als Plattform der internationalen Begegnung hat der „Vater des Web“ und Professor am MIT in Massachusetts, Tim Berners-Lee, bereits 2019 mit seinem „Contract for the Web“ einen Vertrag formuliert, der alle Beteiligten in die Pflicht nimmt.

„Das Web wurde entwickelt, um Menschen zusammenzubringen und Wissen frei verfügbar zu machen. Jeder Mensch hat die Aufgabe, sicherzustellen, dass das Web der Menschheit dient. Indem sie sich den folgenden Grundsätzen [des Contract; siehe Link, rl] verpflichten, können Regierungen, Unternehmen und Bürger weltweit dazu beitragen, das offene Web als öffentliches Gut und Grundrecht für jeden Menschen zu schützen.“liii

Das ist anstrengend, erfordert aktive Zusammenarbeit und Partizipation statt Konsum und einen intensiven, interdisziplinären und internationalen Diskurs. Aber das ist notwendig und konstituierend für den emanzipatorischen und selbstverantworteten Einsatz von Technologien in Demokratien und besonders in Bildungseinrichtungen, zumal in der Arbeit mit minderjährigen Schutzbefohlenen. Die Frage ist schlicht: Gelingt es, Digital- und Netzwerktechnologien zur Emanzipation und Förderung der Autonomie der Menschen einzusetzen oder bleiben IT-Systeme Machtinstrumente zur Steuerung der Menschen? Die zentrale Frage für die pädagogische Arbeit ist dabei: Gelingt es, junge Menschen wieder für eigene Vorstellungswelten zu begeistern, für das Spiel mit Worten und eigenen Formen der Visualisierungen, dem Spiel mit Formen und Klängen und dem Entwickeln von Gedanken-Welten. Intelligenz, Kreativität und Phantasie haben ja, wenn überhaupt, nur Menschen, nicht Maschinen.

Nachsatz: She was thinking about the fun they had

Im zweiten Teil der Geschichte von Asimov findet der 13-jährige Tommy auf dem Speicher ein altes Buch, in dem beschrieben wird, wie das früher war mit Büchern und der Schule. Geschichten gab es früher nur in solchen Büchern. Als Tommy weiter vorliest, dass die Kinder nicht von Maschinen unterrichtet wurden, sondern von Männern, protestiert Margie. Ein Mann sei dafür nicht klug genug und kein Mensch könne so viel wissen wie ein mechanischer Lehrer. Zudem:

„Mir würde es nicht gefallen, wenn ein fremder Mann ins Haus käme, um Schule zu halten.“ Tommy kreischte vor Lachen. „Du weißt nichts, Margie. Die Lehrer haben nicht bei den Kindern im Haus gelebt. Sie hatten ein besonderes Haus, und alle Kinder gingen dorthin.“ – „Und alle Kinder lernten dasselbe?“ – „Klar, wenn sie im gleichen Alter waren.“ – „Aber meine Mutter sagt, ein Lehrer muss genau für den Jungen oder das Mädchen eingestellt werden, die er lehrt, und dass jedes Kind andere Lektionen bekommen muss, weil die Kinder im Lernen ganz verschieden sind.“ – „Trotzdem haben sie es damals nicht so gemacht. Wenn es dir nicht gefällt, brauchst du das Buch ja nicht zu lesen.“liv

Sie bettelt darum, das Buch lesen zu dürfen. Doch die Mutter ruft sie zur Ordnung, sie müsse zurück an ihre Schulmaschine. Während sie wieder alleine vor ihrer, nun reparierten mechanischen Lernmaschine sitzt, stellt sie sich vor, wie es wohl wäre, mit anderen Kindern zusammen in einem Klassenraum zu lernen, gemeinsam zu spielen und sich gegenseitig zu helfen. Der letzte Satz, der Kurzgeschichte gibt der Geschichte im Englischen ihren Titel. „Margie musste daran denken, wie glücklich die Kinder in den alten Tagen gewesen sein mussten. Wie schön sie es gehabt hatten.“ „She was thinking about the fun they had“lv.

 

Prof. Dr. Ralf Lankau ist Grafiker, Philologe und promovierter Kunstpädagoge. Seit 2002 lehrt er als Professor für Digitaldesign, Mediengestaltung und Ethik an der HS Offenburg. Er publiziert zu Digitaltechnik und (Medien-) Pädagogik unter anderem auf der Website futur-iii.de (Web: https://futur-iii.de) und im Projekt „Die pädagogische Wende“ (https://die-paedagogische-wende.de).

 

Anmerkungen

i Asimov, Isaac (2016) Die Schule [1954], in: Geliebter Roboter, 3. Aufl., S. 154-158, München: Heyne.

ii Herkersdorf, Markus (2020) KI-basierte Avatare als empathische Lernbegleiter; eLearning-Journal, https://www.elearning-journal.com/2020/05/14/empathische-lernbegleiter/ (6.3.22).

iii Das klassische Beispiel für kybernetische Steuerungssysteme ist der Thermostat. Die Zieltemperatur wird vorgegeben, Sensoren messen die tatsächliche Temperatur und öffnen bzw. schließen das Ventil, messen erneut etc. Es sind Regelkreisläufe mit klaren Parametern (Zieltemperatur X) und Handlungsanweisungen (öffnen/schließen des Ventils, bis X erreicht ist) als Schleife.

iv Armbruster, Alexander (2019): Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine Bendiek, FAZ v. 01.04.2019; https://www.faz.net/aktuell/wirtschaft/diginomics/microsoft-deutschland-chefin-sabine-bendiek-im-interview-16117321.html (3.5.2023).

v Siehe die Stellungnahme „Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz“ des Deutschen Ethikrats vom 20. März 2023, hier Kap. 3.4.2 Der Mensch als Maschine – die Maschine als Mensch?, S. 107f.

vi KI-Systeme wie ChatGPT, Bard u.a. eignen sich weder für das wissenschaftliche Arbeiten noch für den Un-terricht. Die eingesetzten Algorithmen sind ebenso intransparent wie die sich ständig ändernde Datenbasis. Beides wird permanent modifiziert durch Suchanfragen, automatisch erweiterte Datenbestände und erweiter-te Algorithmen bzw. Parameter. Es sind Black Boxes, die ob ihrer Komplexität nicht einmal mehr von ihren Entwicklern verstanden und beherrscht werden (können).

vii Der aktuelle KI-Hype ist der dritte Versuch, informationstechnische Systeme als kybernetische Steuerungs-instrumente zu etablieren. Ausgangspunkt ist die Kybernetik (Norbert Wiener), von John MacCarthy aus Marketinggründen in Artificial Intelligence (AI) umbenannt (Dartmour-Conference, 1956), Expertensysteme in den 1980er Jahren und heute KI-Systeme als Bots.

viii Meredith Whittacker, zit nach Hauck, Mirjam (2023) Eine von den Guten, in: SZ vom 7./8. Juni 2023, S. 17); siehe auch Leisegang, Daniel; Köver, Chris (2022) Neue Signal-Chefin: „Künstliche Intelligenz ist vor allem ein Marketinghype, in: netzpolitik.org vom 30.9.2022; https://netzpolitik.org/2022/neue-signal-chefin-kuenstliche-intelligenz-ist-vor-allem-ein-marketinghype/ (10.6.2023) und ihr Vortrag auf der re:publica 2023 re:publica 2023: Meredith Whittaker – AI, Privacy, and the Surveillance Business Model, https://www.youtube.com/watch?v=x_vD1KUfhl8 (10.6.2023).

ix Zuboff, Shoshana (1988) In the Age of the Smart Machine. The Future of Work and Power, New York: Basics Book

x Zuboff, Shoshanna (2018) Das Zeitalter des Überwachungskapitalismus, Frankfurt: Campus.

xi Burchardt, Matthias; Lankau, Ralf (2020) Aufruf zur Besinnung: Humane Bildung statt Metrik und Technik, in bildungsklick, 3.7.2020; https://bildungsklick.de/schule/detail/aufruf-zur-besinnung-humane-bildung-statt-metrik-und-technik (20.1.2023).

xii Negroponte, Nicholas (1998) Being Digital, Wired.

xiii Damberger, Thomas (2023) De mündige Cyborg, in: Lankau, Ralf (2023) Unterricht in Präsenz und Distanz, Weinheim: Beltz, S. 136-148.

xiv Harari 2017, S. 515.

xv Andere Vordenker der Digitalisten und Technizisten flüchten in pseudophilosophische Konstrukte wie den So-lutionism (Es gibt für alles technische Lösungen.) oder Longtermism (Wir lösen die Problem der nächsten hunderttausend Jahre, können uns daher nicht im heutige Probleme kümmern). Oder sie versprechen Un-sterblichkeit wie Ray Kurzweil (Transhumanismus, Singularity). Aus Technik wird Religion und Heilsversprechen.

xvi Astrid Lindgrens (1987) Pippi Langstrumpf geht einkaufen, Werl: Oetinger.

xvii Pias, Claus (2013): Eine kurze Geschichte der Unterrichtsmaschinen, FAZ vom 10. Dezember 2013; www.faz.net/aktuell/feuilleton/forschung-und-lehre/automatisierung-der-lehre-eine-kurze-geschichte-der-unterrichtsmaschinen-12692010.html (30.6.2022).

xviii Ebd.

xix Stern, William (1903) Angewandte Psychologie. L. William Stern, E. Bernheim (Hrsg.): Beiträge zur Psycholo-gie der Aussage : mit besonderer Berücksichtigung von Problemen der Rechtspflege, Pädagogik, Psychiatrie und Geschichtsforschung. Band 1: Beiträge zur Psychologie der Aussage. Barth, Leipzig 1903–1904, S. 4–45.

xx Gelhard, Andreas (2011) Kritik der Kompetenz, Zürich: diaphanes.

xxi Die „Big Five“ des OCEAN-Modells sind im Englischen: Openness to experience, Conscientiousness, Extra-version, Agreeableness, Neuroticism, jeweils auf einer Skala von schwach (-5) bis stark ausgeprägt (+5).

xxii Hansch, Dieter (2023) Der ehrlichere Name wäre „Simulierte Intelligenz“, in: FAZ vom 1.3.23, S. N2.

xxiii Schulzki-Haddouti, Christiane (2023) Wenn der stochastische Papagei sich verplappert, in: Golem vom 28.2.2023; https://www.golem.de/news/chatgpt-und-datenschutz-wenn-der-stochastische-papagei-sich-verplappert-2302-172227.html (10.6.2023).

xxiv Beim deutsch-französischen Sender Arte gab es im Mai/Juni 2023 dazu eine ganze Sendereihe mit längeren Beiträgen und kurzen Clips zu einzelnen Social Media Apps (je ca. 8 Minuten), die für den Unterricht zu empfehlen sind.

xxv Matthes, Sebastian (2021) Sie haben gelernt, unser Gehirn zu hacken, Interview mit dem Historiker Yuval Noah Harari; in: Handelsblatt vom 30. Dezember 2021 bis 2. Januar 2022, Nr. 253, S. 16-18, https://futur-iii.de/2022/01/sie-haben-gelernt-unser-gehirn-zu-hacken/ (12.6.2023)

xxvi Kindeswohlgefährdung von Amts wegen. Offener Brief zu Tablets in Stuttgarter Kitas, vom 18.10.2021, https://www.aufwach-s-en.de/2021/10/kindeswohlgefaehrdung-von-amts-wegen/ (9.6.2023).

xxvii U.S. Surgeon General (2023) Social Media and Youth Mental Health; https://www.hhs.gov/surgeongeneral/priorities/youth-mental-health/social-media/index.html (10.6.2023).

xxix dpa (2000) Joseph Weizenbaum: Das Internet ist ein riesiger Misthaufen. Heise-online, 24.1.2000; https://www.heise.de/news/Weizenbaum-Das-Internet-ist-ein-riesiger-Misthaufen-30053.html (10.6.2023).

xxx Dazu gehören Bitkom (Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V.), der Bundesverband Künstliche Intelligenz e.V. , der Bundesverband IT-Mittelstand e.V., das Hasso-Plattner-Institut für Digital Engineering gGmbH und mehrere Lehrerverbände.

xxxi GI (2020) Pressemeldung Gesellschaft für Informatik: GI startet „Offensive Digitale Schultransformation“.

xxxii Hannes Federrath, Präsident der Gesellschaft für Informatik und Mitinitiator der Initiative; PM vom 18.5.2020.

xxxiv Wing, Jeannette M.(2006) Computational Thinking. Communications of the ACM, vol. 49, no. 3, pp. 33-35, March 2006; dt. übersetzung: „Computational Thinking – Informatisches Denken“ von Hermann Hellwagner (AAU Klagenfurt), Gerti Kappel und Radu Grosu (TU Wien).

xxxv Cameron, William Bruce (1963) Informal Sociology, a Casual Introduction to Sociological Thinking. New York: Random House.

xxxvi Bridle, James (2019) New Dark Age. Der Sieg der Technologie und das Ende der Zukunft, München: Beck, S. 12.

xxxvii Ebd., S. 46.

xxxviii Andreas Schleicher (2018) Pro und Kontra: Brauchen wir Informatik als Pflichtfach in der Schule?, SZ-Beilage: http://advertorial.sueddeutsche.de/Arbeit-und-Bildung/Pro-und-Kontra-Brauchen-wir-Informatik-als-Pflichtfach-in-der-Schule-/ (14.12.2018).

xxxix Ebd.

xl Exemplarisch OECD-Koordinator Andreas Schleicher in einem Vortrag 2016 in Sydney: Digitaltechnik könne „innovatives Unterrichten“ fördern“ (Folie 9). In der Praxis gelinge das nicht. (Folie 10) und man müsse es als Realität betrachten, dass Technologie in unseren Schulen mehr schadet als nützt – weil es uns nicht gelun-gen sei, sie gut zu integrieren“ (because we have not succeeded in integrating well). Andreas Schleicher: Making Education Everybody’s Business. Eröffnungsansprache auf dem Global Education & Skills Forum 2016; Folien https://de.slideshare.net/OECDEDU/making-education-everybodys-business; Video (ab Minute 30.45): https://www.youtube.com/watch?v=YArPNnqf4nQ (10.6.2023).

xli Balslev, Jesper (2020) Evidence of a potential. The political arguments for digitizing education 1983 -¬‐ 2015. Ph.D. Dissertation, Jesper Balslev, Department of Communication and Arts, Roskilde University, January 2020.

xlii Das Forum Bildung Digitalisierung e.V. ist eine Initiative der Deutsche Telekom Stiftung, der Bertelsmann Stif-tung, der Dieter Schwarz Stiftung, der Joachim Herz Stiftung, der Robert Bosch Stiftung, der Siemens Stif-tung, der Vodafone Stiftung Deutschland und der Wübben Stiftung.

xliii Forum Bildung Digitalisierung: https://www.forumbd.de/verein/; 20.11.2022.

xliv Krommer, Axel (2018) Wider den Mehrwert! Oder: Argumente gegen einen überflüssigen Begriff, https://axelkrommer.com/2018/09/05/wider-den-mehrwert-oder-argumente-gegen-einen-ueberfluessigen-begriff/ (12.6.2023).

xlv Weniger, E. (2018). zit. n. „Das zähe Ringen um verpflichtenden Informatikunterricht an Schulen“, in: FAZ v. 27.12.2018, S. 16.

xlvi Münch, Richard (2018) Der bildungsindustrielle Komplex. Schule und Unterricht im Wettbewerbsstaat, Wein-heim: Beltz.

xlvii Gruschka, Andreas (2011) Verstehen lehren. Ein Plädoyer für guten Unterricht. Ditzingen: Reclam.

xlviii Simanowski, Roberto (2021) Digitale Revolution und Bildung S. 92, Weinheim: Beltz.

xlix Luepke, Marc von; Harms, Florian (2020) „Im schlimmsten Fall kollabiert unsere Weltordnung. Interview mit dem Historiker Harari, 23.10.2020; https://www.t-online.de/nachrichten/wissen/geschichte/id_88582030/harari-zur-pandemie-corona-hat-das-potential-die-welt-besser-zu-machen-.html (2.5.2023).

l Braun et. al. (2021) Braun, Tom, Andreas Büsch, Valentin Dander, Sabine Eder, Annina Förschler, Max Fuchs, Harald Gapski, Martin Geisler, Sigrid Hartong, Theo Hug, Hans-Dieter Kübler, Heinz Moser, Horst Niesyto, Horst Pohlmann, Christoph Richter, Klaus Rummler, und Gerda Sieben. 2021. «Positionspapier Zur Weiter-entwicklung Der KMK-Strategie ‹Bildung in Der Digitalen Welt›». MedienPädagogik: Zeitschrift für Theorie Und Praxis Der Medienbildung, Nr. Statements and Frameworks (November):1-7. https://doi.org/10.21240/mpaed/00/2021.11.29.X. (10.6.2023).

li Grunwald, Armin (2019) Gretchenfrage 4.0, in: SZ vom 26.12.2019, S. 9, https://www.sueddeutsche.de/kultur/kuenstliche-intelligenz-gretchenfrage-4-0-1.4736017 (16.6.2023).

lii Lankau, Ralf (2020) Alternative IT-Infrastruktur für Schule und Unterricht, PDF: https://bildung-wissen.eu/wp-content/uploads/2020/09/lankau_flugschrift_web.pdf (12.6.2023).

liii Hier in dt. Übersetzung: https://contractfortheweb.org/de/252-2/ (10.6.2023).

liv Asimov, 2016, S. 157.

lv Asimov., 2016, S. 158.

nach oben