Publikationen / vorgänge / vorgänge Nr. 241: Demokratie und Rechtsstaat verteidigen

IT in Schulen: Erziehung zu Autonomie oder Konfor­mi­tät? Oder: Warum man Daten­ver­a­r­bei­tung nicht mit Pädagogik verwechseln darf

Seit mehr als 40 Jahren wiederholen sich Diskussionen und Kontroversen über Sinn und Unsinn von Informationstechnik (IT) in Bildungseinrichtungen. Wurde bislang über das Arbeiten an und mit PC, Laptop oder Tablet debattiert, drehen sich aktuelle Diskussionen verstärkt um netzbasierte Anwendungen mit Rückkanal für Schülerdaten. Das Schüler*innenverhalten wird per Software ausgewertet, um Lehrinhalte automatisiert und „individualisiert“ anzupassen. Ergänzt werden solche Lernprogramme um Anwendungen der sogenannten „Künstliche Intelligenz“ (KI), die als „Lernbegleiter“ fungieren und zumindest perspektivisch fehlende Lehrkräfte ersetzen (sollen). Damit werden technische Systeme in Schulen etabliert, von denen nicht einmal mehr die Entwickler wissen, was diese Algorithmen genau tun.

Das erfordert einen kritisch-reflektierenden Diskurs. Dafür vertritt Ralf Lankau im vorliegenden Aufsatz die These, dass essenzielle Elemente der Bildung, wie die Erziehung zu Selbstbewusstsein, Reflexion und einer kritischen Bürgerschaft, mit solchen Lernprogrammen verloren gehen.

 

Das Déjà-vu der Lernma­schinen

Diskussionen über den Einsatz von Medien mit dem Ziel der Automatisierung von Lehr- und Lernprozessen haben eine lange Vorgeschichte. Den Anfang machte der Pädagoge Johann Amos Comenius mit seinem Bilderbuch Orbis sensualium pictus (Die sichtbare Welt, 1658). Dieses zweisprachige lateinisch-deutsche Büchlein sollte durch die Gegenüberstellung der deutschen und lateinischen Worte, ergänzt um illustrierende Holzschnitte, das Lernen vereinfachen. Bezeichnenderweise wurde zugleich behauptet, bei Einsatz dieses Lehrmittels könne man Lehrkräfte durch Hilfslehrer ersetzen. Diese müssten ja nicht mehr unterrichten, sondern nur das korrekte Abschreiben der Vokabeln und auf richtige gegebene Antworten überprüfen (Hübner 2005). In heutiger Diktion hieße das Lernbegleiter und „selbstorganisiertes Lernen“ (SOL). Das illustrierte Buch wird heute durch interaktive Lernsoftware mit automatisiertem Feedback und/oder Avatar ersetzt. Die zugrundeliegenden Schemata der Medialisierung mit dem Ziel der Standardisierung von Lerninhalten und Prüfungen bei gleichzeitiger Dequalifizierung der Lehrenden zieht sich als Konstante durch die Geschichte der Unterrichtsmedien.

Claus Pias beschreibt den Einsatz von Unterrichtsmaschinen und der die dahinterstehenden Theorien im 20. Jh. und referiert die technisch determinierten Phrasen wie „Lerngutprogrammierung“, „Lehrstoffdarbietungsgeräte“ und „Robbimaten“. „Die Idee, Lehre ließe sich automatisieren, um sparsamer, effektiver und sachgemäßer zu unterrichten, sei viel älter als das Internet“ (Pias 2013). Der Unterschied: Im 21. Jahrhundert sind es keine Pädagog*innen mehr wie Comenius im 17. Jahrhundert, die sich für den Einsatz technischer Medien einsetzen, sondern Psycholog*innen. Der Fokus liegt nicht auf der Vermittlung von Sachverhalten mit dem Ziel des Verstehens, sondern auf der automatisierten Prüfbarkeit von Lernleistungen. Pias zitiert unter anderem den Psychologen Pressey, der bereits 1926 beklagte, Erziehung habe den geringsten Wirkungsgrad aller denkbaren Unternehmungen, daher müsse der Lehrbetrieb arbeitswissenschaftlich optimiert werden. „Im Klartext: Wie bekommt man mit möglichst wenig Ressourcen möglichst viel Stoff möglichst schnell in die Köpfe?“ (Pias 2013)

Aus Lehren und Lernen mit dem Ziel, Wissen und Können zu vermitteln respektive sich anzueignen, um sich selbstbestimmt in einer komplexen Umwelt orientieren und agieren zu können, wird ein medienbasiertes „teaching to the test“, das gerne als Lernbulimie bezeichnet wird. Nicht mehr das Verstehen von Zusammenhängen ist gefragt, sondern Repetitionswissen und Prüfbarkeit. Parameter der produzierenden Industrie (Effizienzsteigerung, Kostenreduktion, Prozessoptimierung) werden auf Lernprozesse übertragen. Lernen wird zur Selbstoptimierung nach externen Vorgaben. Das sind keine pädagogischen, es sind betriebswirtschaftliche Modelle der Chicago School of Economics von Gary Becker, Milton Friedman und anderen. Das Ziel ist Humankapital mit geprüften Kompetenzen. Diese ökonomistischen Ansätze sind für menschliches Sozialverhalten (Lernen ist ein individueller und sozialer Prozess, Verstehen lässt sich nicht standardisieren) unterkomplex, wie es der Philosoph und Wirtschaftsnobelpreisträger Amartya Sen (2020) aufzeigt. Aber Technizist*innen sind eine starke Fraktion im Bildungsdiskurs. Sie setzen Medien(-technik) flexibel ein, Bücher werden integriert wie Funk, TV oder Computer. Im Grundverständnis aber frönen sie einem mechanistischen Lernverständnis der Input-Output-Schemata. Aus dem Nürnberger Trichter wird heute ein Erklärvideo, eine Animation oder ein Computerspiel; man selbst wird als Gamer zum Akteur in virtuellen Welten. Aber es bleibt ein Regelkreislauf der Kybernetik (siehe unten). Denn Software zeichnet sich dadurch aus, dass alle nur denkbaren Aktionen vorab festgelegt sein müssen, da andernfalls der Systemabsturz („Blue Screen“, eingefrorenes System) droht.

Psychologen statt Pädagogen

Impulsgeber der Berechenbarkeit von Lernprozessen waren Vordenker der Allgemeinen Psychologie wie William Stern, der bereits im Jahr 1900 die „Psychologisierung des gesamten menschlichen Lebens“ prognostizierte. Stern und Kollegen wie Hugo Münsterberg propagierten seit 1912 als psychotechnische Maxime: „Alles muss messbar sein“ (Münsterberg 1914). Dafür wurden immer ausgefeiltere und kleinteiligere Aufgabenstellungen (beim Einsatz von digitalen Medien „Lernsettings“) und Messmethoden zur Stimulation und Manipulation der Probanden entwickelt. Die Messung wird zur Leitdisziplin des „Psycho-Ingenieurs“[1]. Diese technizistische Sicht auf den Menschen und seine (ebenso mechanistisch verstandene) Psyche war die Voraussetzung dafür, dass Vertreter*innen wie der Psychologe David McClelland glaubten, daraus das „pädagogische Versprechen einer umfassenden Formbarkeit des Menschen“ ableiten zu können (zit. nach Gelhard 2011: 120). Psycholog*innen sind nicht mehr Analytiker*innen und Diagnostiker*innen, sie werden zu Konstrukteur*innen. Erziehen und Unterrichten wird nicht als dialogischer und im Idealfall ergebnisoffener Prozess zwischen Pädagog*innen und Heranwachsenden verstanden, sondern als ein Zurichten nach extern definierten Vorgaben. Aus Erziehung wird Drill, wenn auch teilweise als (Computer)Spiel (Stichwort: Gamification) kaschiert. Entscheidend ist nicht (mehr), wer jemand ist und welche Persönlichkeit sich durch Erziehung und Unterricht entwickeln könnte, sondern wer daraus geformt werden soll. Digitale Medien sind, wie in China zu sehen, die ideale technische Infrastruktur für autoritäre Erziehungs- und Normierungsmethoden.

Selbst Emotionen sind nach diesem Verständnis Kompetenzen[2], die man trainieren und zur Selbstoptimierung verändern könne. Das wird in den 1930er Jahren als „Big Five“-Modell der Persönlichkeitspsychologie systematisiert und nach den Anfangsbuchstaben der englischen Begriffe als OCEAN-Modell publiziert[3]. Mit Hilfe von fünf Dimensionen und deren Ausprägung auf einer Skala von „schwach bis stark ausgeprägt“ könne man die Persönlichkeit der Probanden erfassen kann – und mit entsprechenden Methoden beeinflussen und sogar umformen (affective computing)[4].

Wer dabei an den libertären Paternalismus von Nudging denkt – das mehr oder weniger direkte Beeinflussen von Verhalten durch das „Anstupsen“ der Nutzer*innen oder an persuasive (verhaltensändernde) Techniken, die heute bei der Gestaltung von graphischen Oberflächen (Graphics User Interfaces, GUI) eingesetzt werden –, liegt richtig. Durch die entsprechende Gestaltung lässt sich bei digitalen und interaktiven Bildschirmmedien steuern, auf was Nutzer*innen re-agieren. Um die Wirkmächtigkeit dieser Kombination aus Wahrnehmungs- und Verhaltenssteuerung etwa durch Apps zu verdeutlichen, sei der israelische Historiker Yuval Noah Harari zitiert, der durch Bücher wie Homo Deus als Technik-Apologet bekannt wurde. Er wurde vom Chefredakteur des Handelsblatts, Sebastian Matthes, im Interview zum Jahreswechsel 2021/22 gefragt, warum er kein Smartphone habe. Die Antwort dieses Wissenschaftlers, der sich dezidiert mit den Auswirkungen der Digitalisierung auf menschliches Verhalten befasst, ist erhellend. Er sei nicht naiv und wisse, dass er in einer zunehmend smarten Umwelt auch ohne Smartphone verfolgt werden könne. Es gehe um mehr:

„Der Hauptpunkt ist, Ablenkungen fernzuhalten. Ich weiß, wie schwierig es ist, den Geist zu kontrollieren, konzentriert zu bleiben. Und außerdem: Die Menschen auf der anderen Seite des Smartphones – die klügsten Menschen der Welt – haben in den vergangenen 20 Jahren gelernt, wie man das menschliche Gehirn durch das Smartphone hacken kann. Denen bin ich nicht gewachsen. Wenn ich gegen die antreten muss, werden sie gewinnen. Also gebe ich ihnen nicht meinen Bildschirm, gewähre ihnen keinen direkten Zugang zu meinem Gehirn“ (Matthes 2021).

Das Gehirn wurde gehackt (Finsterbusch 2018). Forscher*innen schlugen Alarm, IT-Konzerne selbst wollten ihre Nutzer*innen vor der Sucht bewahren, hieß es. Bislang ohne Konsequenzen. Der Funktionsumfang der digitalen Endgeräte und die Bildschirmzeiten steigen weiter kontinuierlich. Smart steht dabei nicht für intelligent, sondern für digital gesteuert. Ob Smart Home, Smart Work oder Smart City: Immer mehr Sensoren, Kameras und Mikrofone werden installiert, immer mehr Apps zeichnen permanent Nutzerdaten auf und senden sie in die „Cloud“ (zentrale Rechenzentren von Amazon, Google und Microsoft), in denen sie ausgewertet werden, um beliebige Geräte – oder Menschen über das Netz zu beeinflussen und, wenn möglich, gar zu steuern.

Begriffs­klä­rung: Was bedeutet digital und digita­li­sie­ren?

Auf den 177 Seiten des Koalitionsvertrags der Ampel-Regierung vom Dezember 2021 steht der Begriff „digital“ fast 270-mal, in allen möglichen Varianten. Vom „digitalen Aufbruch“ über „digitale Bildung“, „digitale Bürgerrechte“ und „digitale Teilhabe“ findet sich ein bunter Reigen an Wortkombinationen bis zum pauschalisierenden Ausdruck des sogenannten „digitalen Zeitalters“. Egal, ob Gesundheitssystem, Wirtschaftsförderung oder Umweltschutz: Alles müsse vollständig, vor allem schneller digitalisiert werden. Digitalisierung ist das Mantra und die Lösung zugleich? Sinnvoller ist, Begriffe zu klären.

Das englische „digit“ ist die Zahl oder Ziffer. Als Adjektiv bedeutet digital: „in Ziffern dargestellt oder auf Digitaltechnik oder -verfahren beruhend“. Als Verb bedeutet „etwas zu digitalisieren“, ein beliebiges in ein digitales Signal umzuwandeln und/oder Informationen in maschinenlesbare Daten umzuwandeln, sprich: von Maschinen lesbar zu machen. Ob Text oder Bild, Mimik oder Gestik, Raumtemperatur oder Luftfeuchtigkeit: Alles wird durch entsprechende Sensoren, Kameras oder Mikrofone aufgezeichnet und technisch zu Daten, Dateien und Datensätzen konvertiert. Diese Digitalisate werden anschließend nach der Logik von Datenverarbeitungssystemen – alle Rechner sind Datenverarbeitungssysteme – mit Hilfe entsprechender Programme und Algorithmen be- und verarbeitet. Letztere sind Handlungsanweisungen (Operationsbefehle), wie Rechner Daten verarbeiten (sollen). Spricht man von Digitalisierung im Kontext von Sozialsystemen, bedeutet Digitalisierung, dass Daten über menschliches Verhalten, die Psyche und Emotionen aufgezeichnet, maschinenlesbar gemacht und maschinell ausgewertet werden. Offen ist, wer was mit diesen Daten machen darf und kann.

Digitale Transformation bezeichnet die Forderung von IT- und Wirtschaftsverbänden, zunehmend alle menschlichen Lebensbereiche nach den Parametern und Anforderungen von Datenverarbeitungssystemen und der Datenökonomie umzustrukturieren und somit der Logik von Algorithmen und Berechenbarkeit anzupassen. Die Konsequenz: Es zählt nur noch, was als Daten erfasst (datafiziert), algorithmisch berechnet und gesteuert werden kann. Der Dreisatz der Digitaltechnik lautet: Automatisieren, Digitalisieren, Kontrollieren (Zuboff 1988). Nicht mehr der Mensch mit seinen Bedürfnissen steht im Mittelpunkt technischer Anwendungen, sondern die Effizienz und Optimierung der Datenverarbeitungssysteme. Das führt letztlich zum Überwachungskapitalismus (Zuboff 2018) oder – wie im Falle von Schulen – zur Überwachungspädagogik (Burchardt/Lankau 2020). Der Leitbegriff der Digitalist*innen dafür ist „Big Data“ oder – da Big Data sehr nach Big Brother klingt – die vermeintlich objektivierenden „Data Sciences“. Die Konsequenzen der Datafizierung für Bildungseinrichtung beschreibt Sigrid Hartong (siehe unten).

Der relativ neue Begriff „Digitalität“ soll die digital codierte Verbindung von Mensch zu Mensch, zwischen Menschen und Objekten und zwischen Menschen und den Objekten des „Internet of Things“ (IoT) umfassen. Statt der eher technischen Definitionen der Digitalisierung sollen mit dem Kunstbegriff der Digitalität soziale und kulturelle Praktiken beschrieben werden, ähnlich dem (ebenso ungenauen) „digital lifestyle“. Dieser Begriff beschreibt die Akzeptanz der Allgegenwart von Datenerfassungssystemen und die Dominanz netzbasierter Dienste der Big Five der IT[5]. Die Kultur der Digitalität (Stalder) legitimiert die permanente Interaktion von Menschen mit digitalen Endgeräten, ohne Folgen und Reichweite zu reflektieren, obwohl ein Blick nach China oder die Lektüre der von der ehemaligen Facebook-Mitarbeiterin Frances Haugen geleakten „Facebook-Files“ reichen würde, um die Gefahren der Digitalität wahrzunehmen (Lankau 2021b; Reuter 2021; WJS o.J.). Dabei geht es bekanntermaßen um viel mehr als um Daten: Die Datafizierung menschlichen Verhaltens und seiner Lebensräume wird zur Heilslehre und Religion. Harari beschreibt in Homo Deus die Vision aus Allgegenwart und Allmacht technischer Systeme, in denen Menschen nurmehr Datenspender und Systemoptimierer sind:

„Menschen sind lediglich Instrumente, um das Internet der Dinge zu schaffen, das sich letztlich vom Planeten Erde aus auf die gesamte Galaxie und sogar das gesamte Universum ausbreiten könnte. Dieses kosmische Datenverarbeitungssystem wäre dann wie Gott“ (Harari 2017: 515).

Auf die Idee, Datenverarbeitungssysteme als die neuen Götter zu vermarkten, können nur Digital-Adventist*innen kommen. Dabei kommt der Begriff „Künstliche Intelligenz“ aus der Mathematik und Elektrotechnik und hat dabei nichts mit Intelligenz im menschlichen Sinne zu tun. Was als „Artificial Intelligence“ (AI) oder deutsch KI bezeichnet wird, ist eine zum Teil hochkomplexe und mittlerweile extrem leistungsstarke automatisierte Datenverarbeitung. Letztlich bleiben es jedoch Rechenoperationen. Die Microsoft-Deutschland-Chefin Sabine Bendiek präzisierte in einem FAZ-Interview: „Eine KI kann viele Dinge ganz toll, aber letztlich rechnet sie auf Basis von großen Datenmengen.“ (Armbruster 2019) „Es denkt nicht“ heißt das empfehlenswerte Buch von Rudolf Seising dazu, in dem er die vergessene Geschichte der KI (genauer: der Kybernetik) beschreibt und „Artificial Intelligence“ als Marketingphrase identifiziert.

Datenverarbeitende Systeme sind ideal bei der Normierung und Standardisierung sowie der automatisierten Kontrolle und Steuerung von Prozessen mit definierten Ergebnissen. Werden Prinzipien der informationstechnischen Systeme – hier das Aufzeichnen und Verdaten von menschlichem (Sozial-)Verhalten mit dem Ziel der Verhaltenssteuerung – auf Bildungseinrichtungen und Lehr- und Lernsituationen übertragen, prallen gegensätzliche Logiken aufeinander. Pädagogische Arbeit mit Bildungsanspruch hat das reflektierende und selbstverantwortlich und bewusst handelnde Individuum zum Ziel, das sich als eigenständige Persönlichkeit in die Sozialgemeinschaft integrieren und ein selbstbestimmtes Leben führen kann. Das eigentliche Ideal der Pädagogik ist die Vielfalt der Persönlichkeiten und Lebensentwürfe aus freier Entscheidung und gerade keine Standardisierung und Messbarkeit. Wer über Digitalisierung und die „Künstliche Intelligenz“ spricht, sollte daher immer darauf verweisen (müssen), dass es um das Sammeln und Auswerten von (Nutzer*innen-)Daten geht, um diese maschinenlesbar zu machen oder kurz: Digitalisierung ist kein pädagogisches Konzept.

Kybernetik und Behavi­o­rismus als Matrix

Seit den 1950er Jahren befassen sich neben der Psychologie zwei weitere wissenschaftliche Disziplinen mit Steuerungsmöglichkeiten von Menschen: Kybernetik und  Verhaltensforschung. Kybernetik[6] bedeutet Steuermannskunst, bei Homer in der ursprünglichen Wortbedeutung „Steuermann“. Der Namensgeber der heutigen Kybernetik, Norbert Wiener, benutze Kybernetik im übergeordneten Sinn von Regelungstechnik und Nachrichtenübertragung für technische Systeme. Er beanspruchte deren Gültigkeit allerdings ebenso für Lebewesen (Organismen) und Sozialgemeinschaften. Das ist die Brücke zur Biologie und der behavioristischen Verhaltensforschung.

Wiener war Mathematiker und kooperierte mit mathematischen Behavioristen wie B. F. Skinner, der mit (verhaltens-)biologischen Modellen arbeitete. Gemeinsam ist beiden Ansätzen die Behauptung der Steuerbarkeit von Lebewesen mit berechenbaren Ergebnissen. In der Kybernetik ist das Grundmodell ein Regelkreislauf wie beim Thermostat (Temperaturmessung und automatisches Öffnen oder Schließen des Ventils bei Abweichung vom definierten Messwert). In der Biologie dienen dafür Input-Output-Modelle, die mittlerweile selbst für den Reflex des Pawlowschen Hundes widerlegt sind. Kybernetik wird heute unter dem Label der „Künstliche Intelligenz“ propagiert, obwohl es ausschließlich mathematische Modelle (Mustererkennung, Wahrscheinlichkeitsrechnung, Statistik) sind. Der korrekte und von den damals beteiligten Wissenschaftlern vorgeschlagene Begriff wäre „complex information processing“ (komplexe Informationsverarbeitung). Dieser technisch korrekte Terminus konnte auf der Konferenz 1956 am Dartmouth College in Hanover, New Hampshire (USA) nicht durchgesetzt werden. Stattdessen gelang es John McCarthy, den Begriff „Artificial intelligence“ (Künstliche Intelligenz) zu etablieren, den er bereits bei Forschungsanträgen werbewirksam benutzt hatte (Seising 2021: 118). Gemeinsam ist Kybernetiker*innen und Behaviorist*innen der Glaube, Menschen als mathematisches respektive biologisches Regelsystem definieren und mit Hilfe entsprechender Parameter steuern zu können: messen, steuern, regeln als mathematisch-technisch, programmiertes Lernen als biologische Variante.

Beide Ansätze sind bereits in den 1970er Jahren gescheitert. Kybernetik-Lehrstühle wurden nicht mehr besetzt (der sogenannte KI-Winter), das programmierte Lernen (samt Sprachlaboren) verworfen. Der deutsche Informatik-Pionier Joseph Weizenbaum verspottete denn auch diese „artificial intelligentsia“ und warf ihnen fehlgeleitetes technokratisches Denken vor (Konrad 1998: 288). Beide Theorien erleben heute eine Renaissance. Behauptet wird, dass nur die mangelnde Leistungsfähigkeit der damaligen Rechnersysteme Ursache des Scheiterns gewesen wären. Heute werden Psychotechniken aus der Wahrnehmungspsychologie und Verhaltensforschung in sogenannten Social Media-Anwendungen eingesetzt, um Nutzer*innen möglichst lange am Bildschirm zu halten. Das „programmierte Lernen“ wird heute in der Variante des „selbstorganisierten Lernens“ (SOL) mit Hilfe von Lernsoftware und Learning Analytics vermarktet, ergänzt um einen Avatar als „Lernpartner“- und den ständigen Rückkanal für Nutzerdaten. Denn Daten sind das Kapital der Datenökonomie, personalisierte Verhaltensdaten der Nutzer*innen der Goldstandard.

Logik der Datafi­zie­rung

Sigrid Hartong hat in ihrem Aufsatz Wir brauchen Daten, noch mehr Daten, bessere Daten! (2018) diese Grundprämissen der datengestützten Schulentwicklung ebenso kritisiert wie die absehbaren Folgen (Hartong 2019). Wer datenbasiert entscheiden will, muss Daten generieren und verschiebt den Fokus pädagogischer Arbeit in Richtung Metrik, nebst Optimierung der Datenerhebung und Auswertung. Statt Lehrkräfte werden von den Schulträgern Test- und Qualitätsmanager*innen, Data Stewards (zur Kontrolle der Dateneingabe), Expert*innen für Error Management und ähnliches eingestellt. Der Aufbau einer IT-Infrastruktur zum Vermessen von Lernverhalten generiert vor allem Stellen für System-Administrator*innen und Programmierer*innen. Der Stellenbedarf berechnet sich nach Anzahl der eingesetzten Endgeräte. Bei aktuell knapp 11 Millionen Schüler*innen und einem Schlüssel von einer Systembetreuerstelle pro 400 Endgeräten kommt man auf einen Bedarf von 27.500 IT-Stellen in Schulen. Bei einer Support-Stelle für 300 Endgeräte – als Betreuungsschlüssel für Schulen wäre das realistischer – sind es mehr als 36.600 Stellen. Diese Fachkräfte fehlen auf dem Arbeitsmarkt. „Der nicht hinlänglich sichergestellte IT-Support könnte sich als Achillesferse des Digitalpakts erweisen“, so eine GEW-Studie (2019). Denn selbst wenn es qualifizierte Fachkräfte auf dem Arbeitsmarkt gäbe, würden sie sich kaum an Schulen bewerben. Industrie und Privatwirtschaft zahlen deutlich besser.

Die Kosten für IT-Systembetreuer*innen sind das eine. Es fehlen Lehrer*innen für alle Schulformen (derzeit circa 14.000 Stellen[7], prognostiziert sind bis zu 40.000), es fehlen Schulsozialarbeiter*innen, Schulpsycholog*innen, Mentor*innen und Betreuer*innen. Dazu kommen ungeklärte Fragen zum Datenschutz, der nicht Daten, sondern Grundrechte wie das informationelle Selbstbestimmungsrecht und die Privatsphäre schützt und nicht außer Kraft gesetzt werden kann. Entscheidend ist vor allem, dass gerade die Pandemie gezeigt hat, dass nicht Technik und Endgeräte den Lernerfolg sichern können, sondern ausschließlich qualifizierte Lehrpersonen (Lankau 2023).

„Der Mensch wird am Du zum Ich“ schrieb schon Martin Buber und wird von Meta-Studien wie denen von John Hattie bestätigt (Zierer 2020). Zum selbständigen und kritischen Denken lernen als Ziel von Lehre und Unterricht brauchen wir ein menschliches Gegenüber, den direkten Dialog. So beschreibt es Immanuel Kant im Text Was heißt: sich im Denken orientieren? (1786). Sonst bekämen wir nur leere Köpfe, die zwar das Repetieren trainieren, aber nicht selbständig denken und Fragen stellen könnten. Damit steht die Basisfrage dieses Beitrags zur Diskussion: Sind digitale Medien, wie sie heute in Schulen eingesetzt werden, ein Werkzeug zur Emanzipation und Förderung der Autonomie des Menschen, oder dienen IT-Systeme und Algorithmen dazu, Menschen zu steuern?

Technisch lässt sich heute vieles von dem realisieren, was in den 1950er und 1960er Jahren noch Theorie und Fiktion war, etwa sprechende Computer wie HAL aus Stanley Kubricks Film Odyssee 2000. Nur hat sich der Mensch vor dem Bildschirm in den letzten 60 Jahren in seiner Physis, Psyche und mentalen Leistungsfähigkeit nicht annähernd so fundamental verändert wie die technischen Systeme. Vor allem folgt die anthropologische Ontogenese des Menschen weiterhin den naturgegebenen Entwicklungsstufen und lässt sich weder analog noch digital beschleunigen. Aber wer behauptet, eine „bessere Welt“ zu programmieren, wie der Standardspruch der StartUps aus dem Silicon Valley lautet, oder wer den Menschen die Unsterblichkeit verspricht wie die Transhumanist*innen, indem die Behauptung aufgestellt wird, dass der menschliche Körper zwar sterblich sei, man aber das menschliche Bewusstsein in die Computercloud transferieren und damit ewiges Leben gewährleisten könne, hat den Boden der Wissenschaft und Vernunft ohnehin verlassen und sich der Transzendenz und hypothetischen Erlösungsversprechen überantwortet.

Kommerz statt Bildung

Diese Diskussion ist nicht neu. So hatten Mitarbeiter von Facebook und Google bereits 2018 ein „Zentrum für menschenfreundliche Technik“ gegründet. Die US-Gesellschaft sei von Technologie gekapert, damit verbundene Verhaltensweisen zerfresse die Grundpfeiler der Gesellschaft, beeinträchtige die mentale Gesundheit der Kinder, zerstöre soziale Beziehungen und die Demokratie. Produkte wie Facebook, Twitter, Instagram und Google seien nicht neutral, sondern „Teil eines Systems, dessen Ziel es ist, uns abhängig zu machen“[8]. Exemplarisch zitiert sei ein TED-Talk von Tristan Harris, ehemals Mitarbeiter bei Apple und Google, mit dem Titel: „Wie eine Handvoll Technologieunternehmen jeden Tag Milliarden von Köpfen kontrolliert“ (Harris 2017). Mit seiner Kritik steht er nicht alleine. Das primäre Ziel kommerzieller Plattformen formulierte die ehemalige Produktmanagerin bei Facebook, Francis Haugen. Sie hatte das Unternehmen im Herbst 2021 verlassen, nachdem mehrere interne Interventionen zum Schutz von Kindern abgelehnt wurden. Sie erhob daraufhin schwerwiegende Vorwürfe gegen ihren ehemaligen Arbeitgeber und übergab nicht für die Öffentlichkeit bestimmte Dokumente (die „Facebook Files“) an die amerikanische Börsenaufsichtsbehörde SEC und die Zeitung „The Wall Street Journal“. Der Kern der Anschuldigungen: Der Profit sei Facebook wichtiger als das Wohl der Nutzer*innen.

Diese Diskussionen müssen heute vor dem Hintergrund geführt werden, dass immer neue Anwendungen der „Künstlichen Intelligenz“ auf den Markt kommen und unreflektiert von Schüler*innen benutzt werden. ChatGPT etwa ist ein Bot, der beliebige Texte, von der Hausarbeit über Gedichte bis zu Programmcode generieren kann. Anders als beim (von Google finanzierten) Online-Lexikon Wikipedia werden die Texte nicht von Menschen geschrieben und redigiert, sondern aus Datenbanken und Textbausteinen rekombiniert. Man chattet mit dieser KI per Texteingabe im Prinzip wie schon mit dem ersten Robot Eliza, den Joseph Weizenbaum 1966 am MIT programmierte (siehe unten). Nur weiß man weder, auf welchen Datenbestand die Software zurückgreift (es sind Milliarden digitalisierte Texte), noch kennt man die Algorithmen und Mechanismen, nach denen diese Textbausteine ausgewählt und rekombiniert werden. Im Hintergrund steht die bislang größte Textmenge zur Auswertung bereit, nur weiß niemand, wie das Programm arbeitet. Für die Nutzer*innen bleibt ChatGPT ein Arkanum. Entscheidend ist daher sich zu vergegenwärtigen, dass eine KI eine Software ist, die weder „denkt“ noch „weiß“, welche Daten zu welchem Zweck verarbeitet werden. Software hat kein Bewusstsein. Es ist eine Rechenmaschine.

Da aktuelle KI-Systeme nach dem Prinzip des „maschinellen Lernens“ ohne menschlichen Eingriff sich quasi selbst modifizieren beziehungsweise Regeln automatisch ergänzt werden, wissen nicht einmal die Entwickler*innen, was genau nach welchen Kriterien berechnet wird und wie ChatGPT Ergebnisse zusammenstellt. Bekannt ist, dass bei ChatGPT derzeit 1,7 Milliarden Parameter hinterlegt sind. Das ist für Menschen nicht mehr fassbar. Nutzer*innen vor dem Bildschirm werden zum Stichwortgeber – und dürfen sich überraschen lassen. Diese Form der KI funktioniert dabei nach dem Matthäus-Prinzip: Wer (Wissen) hat, dem wird gegeben. Die Qualität der Fragen oder Stichworte (Prompts) bestimmt die Qualität der Antworten. Und nur wer Vorkenntnisse, Fachwissen und relevante Beurteilungskriterien hat, kann erkennen, ob ein ausgegebener Text überhaupt relevant, richtig oder falsch, faktenbasiert oder frei erfunden ist. Andernfalls muss man blind an die „Weisheit der Maschine“ glauben[9]. Das Spiel mit solchen Werkzeugen ist durchaus spannend als Unterrichtsgegenstand, als Lehrmittel hingegen irrelevant. Schüler*innen müssen sich darauf verlassen können, dass das Unterrichtete sachlich korrekt ist. In 13 Bundesländern werden daher nur vom Kultusministerium geprüfte und zugelassene Lehrmittel in Schulen eingesetzt. Fakten müssen stimmen, die Interpretation ist Unterrichtsgegenstand.

Der entscheidende Aspekt bei der Diskussion über GPT-Software (Generative Pretrained Transformer) wie ChatGPT oder das Gegenstück von Google „Switch Transformer“ ist der Wandel beim Erstellen von Inhalten. Programme wurden ursprünglich von Softwareentwickler*innen geschrieben. Auch Inhalte werden von Menschen geschrieben und lektoriert. Beides kann nun eine Software übernehmen. Der Zauberlehrling hat die Kontrolle über seine Systeme verloren und lässt sich blenden: „Beredtheit beeindruckt – bei Chatbots wie auch beim Menschen. In beiden Fällen kann Beredtheit aber auch leicht über Halbwissen und Unwissen hinwegtäuschen, und genau darin liegt eine Gefahr im breiten Einsatz von Systemen wie ChatGPT“ so Holger Hoos, KI-Professor an der RWTH Aachen (zit. n. Astheimer et al.: 2013). Es wiederholt sich, wenn auch auf technisch höherem Niveau, was Weizenbaum schon 1976 formulierte, als er die Reaktionen des Publikums auf sein Sprachprogramm Eliza beschrieb, das zwar nur Smalltalk und ein paar Phrasen beherrschte, aber als „Kommunikationspartner“ gesehen wurde und aus Kostengründen (!) als Therapeut eingesetzt werden sollte. „Diese Reaktionen auf Eliza haben mir deutlicher als alles bis dahin Erlebte gezeigt, welch enorm übertriebenen Eigenschaften selbst ein gebildetes Publikum einer Technologie zuschreiben kann oder sogar will, von der es nichts versteht“ (Weizenbaum 1976: 20).

Wiener hat solche Fehlentwicklung (Manipulation und Steuerbarkeit des Menschen durch automatisierte technische Systeme) bereits in seinem Buch The Human Use of Human Beings von 1950 kritisiert und einen humanen, nicht berechneten Umgang mit Menschen eingefordert. Aber die Behauptung der Automatisierung und Medialisierung von Lernprozessen sind Basis und Versprechen der milliardenschweren globalen Bildungsindustrie (Global Education Industries, kurz: GEI) und ihrer digitalen Lehrmedien, die zunehmend netzbasiert als autonom agierende Systeme angeboten werden. Es ist, getarnt als Fortschritt, die Zustimmung zur Selbstentmündigung, wenn „KI-basierte Avatare als empathische Lernbegleiter“ vermarktet (Herkersdorf 2020) oder digitale Endgeräte von Schulleiter*innen (!) zu „Lernbegleiter*innen“ geadelt werden, um Lehrkräfte zu sparen (Lebert 2021). Dabei hat die Corona-Pandemie gezeigt, wie entscheidend Präsenzunterricht in der Klassengemeinschaft und die Lehrpersönlichkeit für den Lernerfolg ist (Engzell et al. 2020; Maldonado 2020; Zierer 2020; Zierer 2021).

Was tun?

„Probleme kann man niemals mit derselben Denkweise lösen, mit der sie entstanden sind“, soll Albert Einstein formuliert haben. Das bedeutet, dass weder neoliberal ökonomistische noch informatische oder psychologische Modelle und Methoden das Unterrichten bestimmen dürfen. Gefragt ist Pädagogik. Der Mensch muss wieder als mündiges Subjekt (nicht Muster), mit seinen konkreten Bedürfnissen und seinem individuellen Anspruch auf Bildung und Einbindung in die Sozialgemeinschaft im Mittelpunkt stehen (Bündnis 2017; Lankau 2021a). Konkrete pädagogische und praxisrelevante technische Forderungen zu IT in Schulen sind anderweitig ausformuliert (Lankau 2020). Übergeordnet ist die Forderung einer pädagogischen Wende zugunsten des Lehrens und Lernens in Gemeinschaft.

Fachdidaktiker*innen müssen das Lehrmaterial erstellen, Fachkolleg*innen gegenprüfen, qualifizierte Lehrkräfte den Präsenzunterricht strukturieren und bei Bedarf analoge wie digitale Medien altersadäquat einsetzen. Andernfalls gibt es womöglich ein unsanftes Erwachen, wie es Harari zwar zu Covid-19 formulierte, was aber gleichermaßen auf die IT-Infrastruktur passt, die derzeit flächendeckend installiert wird:

„In 50 Jahren werden sich die Menschen gar nicht so sehr an die Epidemie selbst erinnern. Stattdessen werden sie sagen: Dies war der Moment, an dem die digitale Revolution Wirklichkeit wurde. (…) Im schlimmsten Fall werden sich die Menschen in 50 Jahren daran erinnern, dass im Jahr 2020 mithilfe der Digitalisierung die allgegenwärtige Überwachung durch den Staat begann“ (Lüpke/Harms 2020).

Erforderlich ist die notwendige (Rück-)Besinnung auf das Erziehen und Unterrichten als Kernaufgabe pädagogischer Arbeit. Statt Bildungseinrichtungen an externen Partikularinteressen der Wirtschaft auszurichten, müssen der Sozialort Schule und das Lernen in der Gemeinschaft wieder zum Mittelpunkt von Bildungseinrichtungen werden. Dieser Beitrag schließt mit zwei Zitaten, die Einstein zugeschrieben werden: „Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.“ Wir werden unsere Probleme nicht mit derselben Denkweise lösen, mit der wir sie geschaffen haben. Wenn weiterhin Ökonom*innen und Wirtschaftsverbände über Lehrinhalte bestimmen, kann die empirische Bildungsforschung zwar bis in die Nachkommastellen belegen, was Kinder und Jugendliche alles nicht mehr können und wie viel Grundschüler nicht einmal die Mindeststandards in Schreiben, Rechnen und Zuhören erreichen (IQB-Bericht, KMK 2022). Aber dadurch lernt kein Kind irgendetwas.

Wer gegensteuern möchte, sollte sich stattdessen mit denjenigen an einen Tisch setzen, die „Verstehen Lehren“ als ihre Profession begreifen (Gruschka 2011) und bekannte wie bewährte Konzepte (Reformpädagogik, Laborschule u.a.) in die Praxis umsetzen. Der ganze Mensch mit Sinnlichkeit und Verstand ist Adressat von Erziehung und Unterricht. Neben den elementaren Kulturtechniken Lesen, Schreiben und Rechnen müssen kreative, kommunikative und soziale Fähigkeiten, Wissen und Können vermittelt und praktiziert werden. Dazu gehört es, den Fächerkanon um elementare ästhetische Fächer zu ergänzen: Kunst, Musik und Werken werden ebenso Bestandteil der Basislehre wie Sport und Gemeinschaftsaktionen wie Theater-AGs, das Anlegen von Schulgärten und vieles mehr. Ein ebenfalls Einstein zugeschriebenes Zitat lautet: „Wenn Sie wollen, dass Ihre Kinder intelligent sind, lesen Sie ihnen Märchen vor. Wenn Sie wollen, dass sie intelligenter werden, lesen Sie ihnen mehr Märchen vor.“ Diese Kinder entwickeln Fantasie und Vorstellungskraft, sind neugierig und offen für Unbekanntes. Im Idealfall werden es mutige Menschen, die sich etwas zutrauen, weil man ihnen Freiräume im Denken und Handeln gelassen hat, wenn sie etwa Märchen nachspielen oder sich eigene ausdenken und bei neuen Aufgaben sagen: „Das habe ich noch nie vorher versucht, also bin ich völlig sicher, dass ich es schaffe.“ (Pippi Langstrumpf)

 

Prof. Dr. Ralf Lankau   ist Grafiker, Philologe und promovierter Kunstpädagoge. Seit 2002 lehrt er als Professor für Digitaldesign, Mediengestaltung und Ethik an der HS Offenburg. Er publiziert zu Digitaltechnik und (Medien-) Pädagogik unter anderem auf der Website futur-iii.de (Web: https://futur-iii.de) und im Projekt „Die pädagogische Wende“ (https://die-paedagogische-wende.de)

 

Literatur

Armbruster, Alexander 2019: Nicht jeder muss ein Informatiker sein, Interview mit Microsoft-Deutschland-Chefin Sabine Bendiek, in: Frankfurter Allgemeine Zeitung vom 01.04.2019, https://www.faz.net/aktuell/wirtschaft/diginomics/microsoft-deutschland-chefin-sabine-bendiek-im-interview-16117321.html.

Astheimer, Sven / Armbruster, Alexander / Lindner, Roland 2023: Die digitale Allzweckwaffe, in: Frankfurter Allgemeine Zeitung vom 21.01.2023, S. 21; https://www.faz.net/aktuell/wirtschaft/digitec/die-digitale-allzweckwaffe-chatgpt-18618030.html.

Bernard, Andreas 2023: Wie Gefühle zu Buchstaben werden. Die künstliche Intelligenz Chat GPT verfasst bessere Seminararbeiten als mancher Proseminarteilnehmer. Was heißt das für die Zukunft des Studierens und Schreibens?, in: Süddeutsche Zeitung vom 16.1.2023, S. 9.

Bündnis für humane Bildung 2017: Sieben Forderungen für eine neue Bildungspolitik – „Der Mensch ist des Menschen Lehrer“, https://www.aufwach-s-en.de/2017/10/sieben-forderungen-fuer-eine-neue-bildungspolitik-der-mensch-ist-des-menschen-lehrer/.

Burchardt, Matthias / Lankau, Ralf 2020: Aufruf zur Besinnung: Humane Bildung statt Metrik und Technik, in: bildungsklick v. 3.7.2020; https://bildungsklick.de/schule/detail/aufruf-zur-besinnung-humane-bildung-statt-metrik-und-technik.

Engzell, P. / Frey, A. / Verhagen, M. D. 2020: Learning Inequality During the Covid-19 Pandemic, https://doi.org/10.31235/osf.io/ve4z7.

Gelhard, Andreas 2011: Kritik der Kompetenz, Zürich.

GEW-Studie 2019: Digitale Mindestausstattung aller Schulen kostet rund 21 Milliarden Euro, https://www.gew.de/fileadmin/media/publikationen/hv/Digitale-Medienbildung/BWd—DigitAusstOffensiveBB-A4-2019-web2.pdf.

Gruschka, Andreas 2011: Verstehen lehren. Ein Plädoyer für guten Unterricht, Ditzingen.

Harari, Yuval Noah 2017: Homo Deus, München.

Harris, Tristan 2017: How a handful of Tech Companies control billions of minds every day (Wie eine Handvoll Technologieunternehmen jeden Tag Milliarden von Köpfen kontrolliert), https://www.ted.com/talks/tristan_harris_how_a_handful_of_tech_ companies_control_billions_of_minds_every_day.

Hartong, Sigrid 2019: Learning Analytics und Big Data in der Bildung. Zur notwendigen Entwicklung eines datenpolitischen Alternativprogramms Dokumentation zur Veranstaltung; hrsg. GEW Frankfurt, Frankfurt am Main

Hartong, Sigrid 2018: „Wir brauchen Daten, noch mehr Daten, bessere Daten!“ Kritische Überlegungen zur Expansionsdynamik des Bildungsmonitorings, in: Pädagogische Korrespondenz, H. 58, S. 15-30.

Herkersdorf, Markus 2020: KI-basierte Avatare als empathische Lernbegleiter, in: eLearning-Journal, https://www.elearning-journal.com/2020/05/14/empathische-lernbegleiter/.

Hübner, Edwin 2005: Anthropologische Medienerziehung. Grundlagen und Gesichtspunkte, Frankfurt am Main.

Kaeser, Eduard 2022: Chat GPT: Der Roboter schreibt nicht, er schwafelt. Neun Missverständnisse um die Künstliche Intelligenz, in: Neue Züricher Zeitung vom 26.12.22; https://www.nzz.ch/technologie/chat-gpt-der-roboter-schreibt-nicht-er-schwafelt-ld.1717513.

Kant, Immanuel 1977 [1786]: Was heißt: sich im Denken orientieren? in: Immanuel Kant: Werke in zwölf Bänden, Bd. 5, Frankfurt am Main, S. 304-330.

Konrad, Erhard 1998: Zur Geschichte der Künstlichen Intelligenz in der Bundesrepublik Deutschland, in: Siefkes, D. (Hrsg.): Spezialgeschichte der Informatik, Wiesbaden, S. 287-296.

Kreye, Andrian 2023: Mensch, wie geht es Dir?, in: Süddeutsche Zeitung vom 21./22.01.2023, S. 11-13.

Kultusministerkonferenz 2022: Bericht der KMK: Erste Ergebnisse zum IQB-Bildungstrend 2021: Geringere Leistungen in Deutsch und Mathematik in schulisch herausfordernden Zeiten, https://www.kmk.org/aktuelles/artikelansicht/erste-ergebnisse-zum-iqb-bildungstrend-2021-geringere-leistungen-in-deutsch-und-mathematik-in-schul.html.

Ladenthin, Volker 2021: Zur Begründung von Lernzielen in Konzepten der Kompetenzorientierung; https://bildung-wissen.eu/fachbeitraege/zur-begruendung-von-lernzielen-in-konzepten-der-kompetenzorientierung.html (20.1.2023).

Ladenthin, Volker 2010: Kompetenzorientierung als Indiz pädagogischer Orientierungslosigkeit, in: Vierteljahrsschrift für wissenschaftliche Pädagogik, Jg. 86, H. 3, S. 346-358 (Nachdruck in: Profil: https://bildung-wissen.eu/wp-content/uploads/2012/03/ladenthin-kompetenz.pdf).

Lankau, Ralf (Hrsg.) 2023: Unterricht in Präsenz und Distanz. Lehren aus der Pandemie. Weinheim.

Lankau, Ralf 2021a: Werkzeug im Unterricht statt Allheilmittel. Alternative IT Konzepte für Schulen, in: Lankau, Ralf (Hrsg.): Autonom und mündig am Touchscreen. Für eine konstruktive Medienarbeit in der Schule, Weinheim, S. 169-184.

Lankau, Ralf 2021b: Schülerverhalten überwachen, kontrollieren und analysieren 2.0; in: Pädagogik, H. 1, S. 52-56 (Serie „Digitalisierung aus pädagogischer Perspektive, Folge 7).

Lankau, Ralf 2020: Alternative IT-Infrastruktur für Schule und Unterricht. Wie man digitale Medientechnik zur Emanzipation und Förderung der Autonomie des Menschen einsetzt, statt sich von IT-Systemen und Algorithmen steuern zu lassen. GBW-Flugschrift 2: https://bildung-wissen.eu/wp-content/uploads/2020/10/krautz_flugschrift_digitalisierung.pdf.

Lankau, Ralf 2014: Gestalten als Form des Erkennens. Kreativität und (Digital-)Technik in Kunstpädagogik und Mediengestaltung, München.

Lebert, Achim 2021: Digitale Endgeräte werden zu Lernbegleitern, in: Schulverwaltung Spezial, H. 1, S. 36–39.

Luepke, M./Harms, F. 2020: Interview mit dem Historiker Harari, in: T-Online v. 23.10.2020, https://www.t-online.de/nachrichten/wissen/geschichte/id_88582030/harari-zur-pandemie-corona-hat-das-potential-die-welt-besser-zu-machen-.hhtml.

Maldonado, Joana/De Witte, Kristof 2020: The effect of school closures on standardised student test outcomes, https://bera-journals.onlinelibrary.wiley.com/doi/abs/10.1002/berj.3754.

Matthes, Sebastian 2021: Sie haben gelernt, unser Gehirn zu hacken, Interview mit dem Historiker Yuval Noah Harari; in: Handelsblatt vom 30.12.2021-02.01.2022, S. 16-18,  https://futur-iii.de/2022/01/sie-haben-gelernt-unser-gehirn-zu-hacken/.

Münsterberg, Hugo 1914: Grundzüge der Psychotechnik. Leipzig.

Pias, Claus 2013: Eine kurze Geschichte der Unterrichtsmaschinen, in: Frankfurter Allgemeine Zeitung vom 10.12.2013; www.faz.net/aktuell/feuilleton/forschung-und-lehre/automatisierung-der-lehre-eine-kurze-geschichte-der-unterrichtsmaschinen-12692010.html.

Reuter, Markus 2021: Facebook Files: Facebook wusste, was alles schiefläuft, in: netzpolizitik.org v. 25.10.29021; https://netzpolitik.org/2021/facebook-files-facebook-wusste-was-alles-schieflaeuft/.

Seising, Rudolf 2021: Es denkt nicht. Die vergessene Geschichte der KI, Frankfurt am Main.

Sen, Amartya 2020, [1977]: Rationale Dummköpfe. Eine Kritik der Verhaltensgrundlagen der Ökonomischen Theorie (= Was bedeutet das alles?), Stuttgart.

Stalder, Felix 2016: Kultur der Digitalität, Berin.

Weizenbaum, Joseph 1976: Die Macht der Computer ist die Ohnmacht der Vernunft, Frankfurt am Main

Wiener, Norbert 1985 [1948]: Cybernetics. Or Control and Communication in the Animal and the Machine. Cambridge.

Wiener, Norbert 1950: The Human Use of Human Beings, Boston.

Wilhelm, Katharina 2022: Whistleblowerin Frances Haugen: „Facebook hat Blut an den Händen“, in: ARD-Studio Los Angeles, https://www.tagesschau.de/wirtschaft/unternehmen/frances-haugen-facebook-meta-101.html.

WJS o.J.: The Facebook-Files. A Wall Street Journal Investigation; https://www. wsj.com/articles/the-facebook-files-11631713039.

Zierer Klaus 2022: Der sokratische Eid. Eine zeitgemäße Interpretation. Münster/Wien.

Zierer Klaus 2021: Zwischen Dichtung und Wahrheit: Möglichkeiten und Grenzen von digitalen Medien im Bildungssystem, in: Pädagogische Rundschau, Jg. 75., S. 377-392, https://www.ingentaconnect.com/contentone/plg/pr/2021/00000075/00000004/art00001?crawler=true&mimetype=application/pdf.

Zierer, Klaus 2020: Visible Learning 2020: Zur Weiterentwicklung und Aktualität der Forschungen von John Hattie, Berlin: Konrad-Adenauer-Stiftung e. V., https://www.kas.de/documents/252038/7442725/Visible+Learning+2020.pdf/e664fc77-2b6e-bc9d-f6a1-9b8075268a50.

Zuboff, Shoshanna 2018: Das Zeitalter des Überwachungskapitalismus, Frankfurt am Main/New York.

 

Anmerkungen:

[1] William Stern prägte den Begriff „Psychotechnik“, der vor allem durch die Monographie Grundzüge der Psychotechnik (1914) von Hugo Münsterbergs verbreitet wurde.

[2] Zur kritisch-reflektierten Analyse des Kompetenzbegriffs siehe Ladenthin 2010 und 2021.

[3] Englisch: Openess, Conscientiousness, Extraversion, Agreeableness, Neuroticism, auf deutsch: Offenheit, Gewissenhaftigkeit, Extraversion, Verträglichkeit und Neurotizismus.

[4] Affective Computing (auch Emotions-KI oder Gesinnungsanalyse): Computer sollen durch die Analyse von Mimik, Gestik und (Körper-)Sprache menschliche Affekte und Emotionen messen, um sie zu beeinflussen. Zugrundeliegende Modelle sind allerdings falsch. Der Psychologe Paul Ekman hat sie Ende der 1960er Jahre entwickelt und behauptet, dass „Emotionen und ihre Ausdrucksformen im Gesicht eine universelle und vor allem messbare Qualität haben. Das ist längst widerlegt, es macht es aber einfacher, Emotionen in Daten zu verwandeln, wenn man davon ausgeht, dass alle Menschen gleich dreinschauen, wenn sie traurig, fröhlich oder zornig sind.“ (Kreye 2013: 13) Fehlerhafte Modelle generieren fehlerbehaftete „Ergebnisse“ und sind unbrauchbar.

[5] Das sind: Alphabet/Google, Amazon, Apple, Facebook/Meta, Microsoft.

[6] Bis in die 1970er Jahre hießen einige Informatik-Fachbereiche an Universitäten noch Fachbereich Kybernetik, so z.B. an der TU Berlin (Konrad 1998: 288).

[7] Laut Umfrage des Umfrage des Redaktionsnetzwerks Deutschland unter den Kultusministerien sind es 14.000 Stellen, laut Lehrerverband zwischen 32.000 und 40.000 Stellen (https://www.tagesschau.de/inland/bildung-schulen-lehrermangel-101.html und https://www.news4teachers.de/2022/08/lehrermangel-bis-zu-40-000-freie-stellen-koennen-nicht-mehr-besetzt-werden/ (Stand: 25.01.2023)).

[8] https://humanetech.com/.

[9] Es gibt vergleichbare Programme wie Stable Diffusion oder DaLL-E2 für das automatisierte Generieren von Bildern und Grafiken im Stil bestimmter Maler oder Epochen. Das Grundproblem aber bleibt bei allen automatisierten Ausgaben gleich: Nur wer sich mit einem Thema auskennt, kann die Qualität (und Fehler) der Texte, Bilder oder Grafiken erkennen.

nach oben