KI im Unterricht?

Neues vom Digitalisierungswahn | HLZ Juni 2024

Eine Vorbemerkung: Digitale Medien sind Informationsträger, die mit digitalen Techniken, unter anderem algorithmisch oder mit „generativer Intelligenz“ arbeiten. Sie bieten technische Lösungen für verschiedene Fragestellungen an. Wie sie das tun, ist für Laien in der Regel nicht nachvollziehbar. Oftmals werden die Ergebnisse für objektiv, mitunter gar für wahr(haftig) gehalten. Das Medium selbst sagt jedoch nichts über die Qualität des Inhalts aus. Es obliegt der Rezipientin oder dem Rezipienten, die gegebenenfalls künstlich erzeugten digitalen Artefakte und Ergebnisse zu identifizieren, zu erkennen, einzuordnen, zu bewerten beziehungsweise zu verwerfen.


Das Problem besteht unter anderem darin, dass Bilder nicht mehr auf ihren Wahrheitsgehalt überprüft werden können: Der Mensch hinter dem Bildschirm kann nicht unterscheiden, ob es sich um einen wirklichen, dokumentarischen Ausschnitt der Realität handelt, etwa als Foto oder Filmausschnitt, oder eben um inszenierte oder gar künstlich erzeugte „Wirklichkeit“. Dieses Problem existierte schon beim Kino oder TV, wenn die Zuschauerin oder der Zuschauer nicht unterscheiden kann, ob es sich um einen Spiel- oder Dokumentarfilm handelt. Im übertragenen Sinn gilt dies auch für Texte, bei denen die Rezipientin oder der Rezipient den Wahrheitsgehalt mit wissenschaftlichen Methoden überprüfen müsste, beziehungsweise im Alltag mittels Erfahrungswissen überprüft und gegebenenfalls für plausibel hält oder die Information glaubt und für wahr hält, weil sie aus sicherer Quelle stammt. Sichere Quellen sind im hiesigen Diskurs derzeit der öffentlich-rechtliche Rundfunk und die sogenannten Mainstream-Medien.


Was in der Regel nicht bemerkt wird, ist die Tatsache, dass große US-Digitalkonzerne der geneigten Zuschauerschaft permanent selektierte Nachrichten zukommen lassen, die oftmals mittels illegal generierter Persönlichkeitsprofile zusammengestellt werden und vorhandene Einstellungen stärken. In den „sozialen Netzwerken“ führt dies zur Bildung von Blasen, in denen sich (Vor)Urteile permanent bestätigen und verstärken. Der „normale“ Rezipient beziehungsweise Leser kann aufgrund mangelnder Fachkenntnisse und eingeschränkter Quellenauswahl selten unterscheiden, was in der Fachwissenschaft gilt und was nicht, ungeachtet unterschiedlicher Wissenschaftsauffassungen.


Digitale Verheißungen

Nach dieser Vorbemerkung können wir nun die Verheißungen der digitalen Medien genauer betrachten. Jörg Schieb, WDR-Experte für Digitales, schreibt in seinem Newsletter vom 27. März 2024: „KI-Chatbots sind wie gute Kollegen, denen ich sage: Hey, kannst Du bitte mal was für mich recherchieren? Kannst Du bitte mal herausfinden, ob ... Kannst Du für mich mal dieses Thema gliedern? KI-Chatbots können so was. Und ich sage ganz bewusst: Chatbots. Plural. Denn es gibt nicht nur ChatGPT. Es gibt heute so viele interessante Chatbots. Und ich nutze sie fast alle …"


Ich sage hingegen: Die KI-Chatbots sind wie sehr schlechte Kollegen, da ihre Aussagen eigentlich immer erst überprüft werden müssten. KI wird ja, was wenigen bekannt ist, von Nutzerinnen und Nutzern sowie von Arbeitssklaven „gefüttert“ beziehungsweise trainiert und von privaten Konzernen betrieben. KI wird auch illegal mit jedwedem und ungeprüftem Material gefüttert, ohne Richtiges von Falschem zu trennen. Dieses Training der „Intelligenz“ findet unter frühkapitalistischen, neokolonialen Bedingungen statt und schert sich nicht um geistige Eigentumsrechte. (1)


Es ist nicht nachvollziehbar, warum maschinell erzeugte Informationen oder Gliederungen, das Generieren von Texten oder von Fotos, die Fähigkeiten von Lernenden erhöhen oder sonstwie zu ihrer Orientierung und zur Erweiterung ihrer Fähigkeiten beitragen. Ob es das Erstellen eines Referats oder das Entwerfen eines Plakats im Kunstunterricht ist, die Lernenden sollen lernen und unterstützt werden, aus umfangreichem Material einen Text zu strukturieren, Schwerpunkte zu setzen oder eben in einem bestimmten Stil ein Plakat per Hand oder mittels eines Grafikprogramms zu entwerfen. Sie sollen in höheren Klassenstufen selbst in Datenbanken recherchieren. Dabei werden durch die Eingabe per Prompt keine Fähigkeiten der Gestaltung entwickelt, außer vielleicht Prompts maschinengerecht zu formulieren. Auch das Recherchieren in Datenbanken, die ja selektiv mit Informationen umgehen, will gelernt und reflektiert sein, wenn die Recherche nicht einseitig sein soll.


Auch im Alltagsleben hat maschinengestützte Kommunikation bei Behörden, Versicherungen, Beihilfestellen oder verschiedenen privaten Dienstleistern bereits massiv Eingang gefunden. Dabei geht es nicht um Verbesserung von Dienstleistungen, sondern um die Einsparung „teurer“ menschlicher Arbeitskraft. „Momentan werden KIs so lange im Labor trainiert, bis man denkt, sie sind gut genug. Und dann werden sie in die Umwelt entlassen", erklärt Katharina Zweig, KI-Expertin der TU Kaiserslautern-Landau: „Einem Computer kann man keine Freiräume lassen, er braucht für jede Situation eine Handlungsanweisung. Das ist beim Menschen anders.“ (2)
Google- und Amazon-Suchen werden auch generiert, um Werbung an die Frau oder den Mann zu bringen, nicht um Suchende mit „neutralen“ Informationen zu versorgen. Das entscheiden Algorithmen, die im Auftrag der Besitzer programmiert wurden, und zwar in deren Interessen, der Vermehrung ihres Kapitals und ihrer Macht. Mittels maschineller Auswertung der eigentlich privaten Kommunikation können META, tiktok und Co. schon jetzt Stimmungen und Denkweisen der Benutzerinnen und Benutzer erfassen und gegebenenfalls steuern, zum Beispiel durch Auswahl der Nachrichten, Abschalten von unerwünschter Information, Nudging oder andere Manipulationstechniken.


KI in der Bildung

In einem GEW-Rundbrief erklärt Julian Dorn, man könne KI als Assistenz der Schulverwaltung sinnvoll nutzen. (3) Wer Systeme wie ChatGPT nutzen wolle, müsse vorab drei Aspekte für sich klären:
•    Muss die Antwort der KI wahr sein?
•    Habe ich die Expertise, das Ergebnis zu überprüfen?
•    Bin ich bereit, für die Antwort zu haften?


Aus meiner Sicht verbietet sich nach diesen Kriterien jede (!) Nutzung von KI im Unterricht, da Lehrkräften die Expertise fehlt, die Datensicherheit zu überprüfen und die IT-Abteilungen der Schulträger dazu ebenfalls weder willens noch in der Lage sind. Aus meiner Sicht garantiert die Benutzung der Chatbots von Microsoft, Google und Co. den Datenabfluss, auch wenn man sich bei ChatGPT in der Gratisversion nicht mehr anmelden muss. So macht man die Digitalkonzerne noch stärker und einflussreicher. Inwieweit diese Konzerne ihre „Gestaltungsmacht“ schon jetzt manipulativ einsetzen, kann hier nicht weiter vertieft werden.


Armin Grunwald, Professor für Technikphilosophie und Technikethik am Karlsruher Institut für Technologie und Leiter des Büros für Technikfolgen-Abschätzung des Deutschen Bundestags, sprach schon 2019 von der „Gretchenfrage“, die zu stellen sei, und forderte zur reflektierten Gegenwehr gegen Machtbestrebungen auf: „Wir müssen ernsthaft die Frage stellen: Wer sind die Macher der KI, wer verbreitet die Erzählungen und wer will hier eigentlich seine Werte und Interessen hinter einem vermeintlichen Technikdeterminismus verstecken? Denn auch in der Welt mit KI dient Technikdeterminismus einer Ideologie der Mächtigen. Er verschleiert, dass jede KI gemacht wird, von Menschen in Unternehmen und Geheimdiensten, nach deren Interessen, Werten und Weltanschauungen.“ (4)


Um nicht missverstanden zu werden: Es gibt sinnvolle digitale Werkzeuge und Programme, sofern sie vom Benutzer souverän und datensicher angewendet werden können. Beim derzeitigen Stand der faktischen Herrschaft der Medienkonzerne sieht es damit schlecht aus. Es gibt alternative Software zum Teil auf hohem Niveau, Gimp und Scribus etwa. Das Videokonferenzsystem BigBlueButton kann mit Zoom jedoch nicht konkurrieren. Wer sich mit den Befürworterinnen und Befürwortern der künstlich generierten „Intelligenz“ anlegt, muss mit entschiedenem, milliardenschwer gesponsertem Gegenwind rechnen. Das ändert aber nichts an der Richtigkeit oder Falschheit der Argumentation.

(1)    https://netzpolitik.org/2024/ki-arbeiter-in-kenia-die-arbeitsbedingungen-sind-erbaermlich/ 
(2)    https://www.telepolis.de/features/Diese-Gefahren-drohen-durch-KI-Einsatz-bei-Amazon-Klarna-und-Co-9677852.html
(3)    https://www.gew.de/aktuelles/detailseite/ki-als-assistenz-der-schulverwaltung
(4)    Grunwald (2019): Gretchenfrage 4.0, in: SZ vom 26.12.2019, zitiert nach Lankau