ChatGPT: Zwei kurzweilige Bücher über die Folgen eines Algorithmus für die Bildung

Pädagogik-Professor Klaus Zierer und Ingo Leipner gehen ChatGPT auf den Grund
Die Digitalisierung greift grundlegend in die Entwicklung der Jugend ein. ChatGPT ist nicht in erster Linie ein fantastisches Hilfsmittel, sondern es verändert das Denken und Persönlichkeiten. Warum, das analysieren zwei kurzweilige, aber tiefgründige Publikationen, die v.a. alle Erziehenden lesen sollten.
Bild: Waxmann Verlag

72 Prozent lassen denken!

Das Schuljahr 2024/25 beginnt mit einem neuen, ungebetenen Gast und heimlichen Einflüsterer im Ranzen der Schüler. Mein Freund und Helfer-ChatGPT? Doch es ist eine trügerische Freundschaft! Und die Schulen sind auf das digitale trojanische Pferd nicht vorbereitet. Aber die Schüler!

„Eine aktuelle Studie zeigt, dass ganze 72 Prozent der Schüler ihre Hausaufgaben gar nicht mehr selbst machen, sondern dafür auf ChatGPT und Co setzen“, schreibt die Frankfurter Rundschau.[1] Schüler lassen denken! Es ist verlockend:

Warum sich nach der Schule mit Lektüre quälen? Und mühsam über einer Hausaufgabe grübeln? Der Schüler gibt in ChatGPT die Hausaufgabenfrage ein: „Wie ist das Verhältnis von Karl und Franz in Schillers Räuber?“ In drei Sekunden ist die Antwort da! Liest sich gut, aber fast zu gut! Er bittet ChatGPT: „Arbeite den Text um im Stil eines 15-jährigen Gymnasiasten.“ Drei Sekunden später: "Jetzt passt es, riskier ich einfach mal, das abzugeben", sagt sich der Schüler (ChatGPT Ergebnis s. Fußnote).[2]

Bild: INFO3 Verlag

Die Diskussion ist entbrannt, und das neue Schuljahr stellt alle Lehrenden vor ein neues großes Problem. Wie groß es ist, dazu sind zwei kleine Schriften erschienen, die es aus unterschiedlichen Blickwinkeln heraus behandeln und sich ergänzen. Der Ordinarius für Schulpädagogik Prof. Klaus Zierer (Augsburg) nennt sein Buch „ChatGPT als Heilbringer? Über Möglichkeiten und Grenzen von KI im Bildungsbereich“. Auf 55 Seiten analysiert er die Folgen unter dem Gesichtspunkt der Persönlichkeitsentwicklung und des Bildungsideals. Der Autor Ingo Leipner, bekannt durch sein Buch „Die Lüge der digitalen Bildung“(2018), nennt seine Publikation „KI-Angriff auf das Bewusstsein“. Auf 97 kurzweiligen Seiten analysiert er die Folgen für die Intelligenzentwicklung und setzt sich mit den voreiligen Apologeten von ChatGPT auseinander. Beide Publikationen ergänzen sich ideal. Wir besprechen das Buch von Klaus Zierer und interviewten Ingo Leipner.

Klaus Zierer: ChatGPT als Heilsbringer. Über die Möglichkeiten und Grenzen von KI im Bildungsbereich, Waxmann 2024, 55 Seiten, 9,90 Euro

Ingo Leipner: KI-Angriff auf das Bewusstsein. Kritik der künstlichen Vernunft, INFO3 Verlag, 2024, 97 Seiten, 12,90 Euro

Klaus Zierer, privat

Klaus Zierer: „Es ist bequem, woanders denken zu lassen und unmündig zu sein“

Zierer beginnt mit dem Philosophen Heidegger: „Der heutige Mensch ist auf der Flucht vor dem Denken" (S.16), und warum ChatGPT ein Fluchthelfer ist, das analysiert er. Das Denken, das ChatGPT nutzt, ist ein rechnendes Denken, so Zierer, „indem Wahrscheinlichkeiten berechnet werden, um einen Buchstaben nach dem anderen aneinanderzureihen. Nach dem Sinn wird nicht gefragt" (S.19). Zierer weiter:

 

  • „Was das Wissen mit dem Menschen macht, welche Bedeutung es für sein Leben hat, welche Gefühle es erzeugt und was Gefühle überhaupt sind, diese und ähnliche Fragen können Chatbots nicht verstehen, weil sie nicht berechenbar sind" (S.23).

Das „Denken lassen" führe zum Kompetenzverlust, zur „selbstverschuldeten Unmündigkeit" (S.25). Bildung wird pervertiert. Sie ist aber eigentlich „Autorschaft des eigenen Lebens"(S.31). Beispielhaft definiert Zierer Bildung:

  • „Der Kern der Autorschaft, das Selbstverständnis als entwickelte moralische Person ist die Fähigkeit, Gründe abzuwägen und aufgrund dieser Abwägung zu handeln, also Urteilskraft und Entscheidungsstärke zu besitzen. Das unvollendete Projekt der Aufklärung besagt, die Bildung ganz auf das Ziel einer freien, autonomen Person auszurichten. Bildung soll nicht Untertanen schaffen, Bildung soll nicht das Funktionieren der Ökonomie sicherstellen, Bildung soll keinen ideologischen Zielen dienen, sondern Bildung ist der Weg zur autonomen, zur selbstbestimmten Existenz. Das oberste Bildungsziel ist die vernünftige Freiheit"(S.31).

Bildung wird durch die Digitalisierung und insbesondere ChatGPT einem Algorithmus unterworfen: „Es ist bequem, woanders denken zu lassen und unmündig zu sein" (S.33). Was die Denkflucht in ChatGPT für die Schule bedeutet und welche Alternativen er sieht, das führt Zierer kompakt aus, eine bereichernde Lektüre.

___________________________________________________________________________

„Künstliche Intelligenz bricht der Schule, wie sie heute existiert, das Rückgrat. Es hat in der Geschichte der Bildungseinrichtungen noch nie eine Erfindung gegeben, die so infam die gesamte Motivationsstruktur des Lernsystems infrage gestellt hat, wie diese Atombomben- KI – um mich hier deutlich zu outen. Wir ziehen gerade eine Generation von Jugendlichen heran, die eine Zeitlang ihren Lehrern noch vorgaukeln kann, dass das, was ihnen ChatGPT oder ein anderes Programm geschenkt hat, ihre Leistung sei, und bald nicht mehr wissen, warum sich Lernen überhaupt noch lohnen soll“ (Böhme, Gottfried (2023): ChatGPT bricht der Schule
das Rückgrat, in: FAZ vom 14. Sept. 2023)
.

____________________________________________________________________________

Ingo Leipner, privat

„Menschen trainieren ihren Geist nicht mehr!“

Interview mit Ingo Leipner

Warum ChatGPT und Co. das menschliche Bewusstsein bedrohen, hat Ingo Leipner in seinem kleinen, sehr lesenswerten Buch aufgeschrieben. Hier ein Gespräch mit dem Autor (>>> am Ende des Artikels: Video-Vortrag zur KI von I. Leipner).

Interview: Peter Hensinger von diagnose:funk

 

Diagnose:funk: „KI-Angriff auf das Bewusstsein“ – das hört sich an wie Roboter-Armeen aus düsteren Dystopien …

INGO LEIPNER: Nein, so ist der Titel meines Essays gerade nicht gemeint. Es geht mir um einen viel subtileren Angriff auf unser Denken, wenn wir immer mehr das Schreiben an eine KI delegieren. Ich habe natürlich ChatGPT und ähnliche Programme wie Gemini selbst ausprobiert und gemerkt: Wow, echt stark, wie die KI mir kreative Grübelei abnimmt, mir blitzschnell gute Alternativen für Überschriften liefert und Routine-Texte schnell runterspult. Und genau in diesen Erfahrungen spiegelt sich in meinen Augen der KI-Angriff …

Diagnose:funk: Wie kommen Sie zu dieser Einschätzung?

INGO LEIPNER: Schauen Sie sich das Phänomen genau an: Klar, scheinbar entlastet mich die KI. Doch in Wirklichkeit verliere ich mit jedem Knopfdruck-Text eine Gelegenheit, kognitive Fähigkeiten zu trainieren. Ich suche selbst nicht mehr nach den richtigen Worten; ich versuche nicht mehr selbst den guten Rhythmus einer Überschrift zu finden, ich bin selbst nicht mehr positiv identifiziert mit Texten, die maschinell entstehen. Auch wenn ich über Prompts (Anweisungen) scheinbar dialogisch Texte mit der KI entwickle.

Doch tatsächlich rutscht der eigentliche Prozess des Schreibens hinter die KI-Fassade. Ich erhalte zwar Resultate, die an der Oberfläche funkeln. Aber meine emotionale Beteiligung am Schreibvorgang leidet, was ich selbst gespürt habe, weil intrinsische Motivation verloren geht. Außerdem neigt jede KI zu Halluzinationen, sie jubelt dem Nutzer erfundene „Fakten“ unter, formal sauber formuliert, aber inhaltlich Quatsch.

Diagnose:funk: Warum halten Sie das Schreiben für so wichtig? Vielen Menschen freuen sich über ChatGPT.

INGO LEIPNER: Kaum ein Schreibprozess verläuft völlig linear! Werden Sätze revidiert und durch neue Formulierungen ersetzt, ist das ein rekursiver Ablauf. Das bedeutet, Formulierungen werden ständig überarbeitet, was an andere Stelle neue Formulierungen nach sich zieht. Das zeigt die Komplexität des Schreibens: Einzelne Tätigkeiten überlappen sich, alle Prozesse lassen sich beliebig wiederholen, frühere Aktivitäten vermischen sich mit späteren, jedes neue Wort kann den Anstoß für weitere Worte geben – und alle diese Prozesse können gleichzeitig erfolgen!

Diagnose:funk: Der menschliche Geist ist auf komplexen Wegen unterwegs, um sich anderen Menschen in Texten mitzuteilen.

INGO LEIPNER: Eine großartige Leistung voller Faszination, die bereits bei Alltagstexten zu spüren ist – und in wenigen Fällen mit dem Literatur-Nobelpreis geehrt wird. Vielfältig sind dazu die Fähigkeiten: Kreatives Denken, Offenheit für Inspirationen, Zähigkeit und Durchhaltekraft, Konzentration, kritisches Hinterfragen, Empathie … Alle diese Kompetenzen scheinen mir bedroht zu sein, wenn wir ChatGPT so selbstverständlich in unserem Arbeitsalltag integrieren.

Diagnose:funk: Sie schreiben auch über den Muskelaufbau im Sport. Warum?

INGO LEIPNER: Da gibt es die Regel: „Use it, or lose it“ – Nutze, oder verliere es. Das ist auf die Muskulatur der Athleten gemünzt, die durch hartes Training ihre Form bewahren. Dasselbe Phänomen hat die Neurobiologie im Gehirn erkannt. Das Stichwort lautet „Neuroplastizität“. Mit ChatGPT trainieren wahrscheinlich Menschen ihren Geist weniger; im Gehirn könnten neuronale Verbindungen schwinden. Daher ist intensives Schreiben und Lesen so wichtig, gerade für Kinder und Jugendliche, deren Gehirn sich besonders stark entwickelt. Auf Deutsch könnte ich auch sagen: „Wer rastet der rostet“.

ChatGPT / diagnose:funk

Diagnose:funk: Sie haben es selbst erwähnt: KI kann Routine-Texte übernehmen. Bedeutet das nicht mehr Freiheit für kreative Arbeit?

INGO LEIPNER: Dieser Mythos existiert, seit die Digitalisierung um sich greift. Ich vermute: Die Konsequenz digitaler Systeme besteht in einer ständigen Arbeitsverdichtung. Immer mehr Aufgaben sind in kürzerer Zeit zu erledigen – eine Erfahrung, die viele Menschen an ihren Computer-Arbeitsplätzen machen. ChatGPT ist da nur eine weitere Drehung der Rationalisierungsschraube.

____________________________________________________________________________

Ingo Leipner, Dipl.-Volksw. und Wirtschaftsjournalist

Autor kritischer Bücher zur Digitalisierung der Gesellschaft: „Die Lüge der digitalen Bildung“ (mit G. Lembke, 2015); „Heute mal bildschirmfrei“ (mit P. Bleckmann, 2018); „Die Katastrophe der digitalen Bildung“ (2020). Sein letztes Buch beschäftigt sich mit Manipulationstechniken in Wirtschaft, Wissenschaft und Politik („Moderne Rattenfänger“, Redline 2021).  2024 erscheint im Juni das Buch „Mensch. Mensch. Mensch.“ (mit T. Fischer).

Leipner arbeitet auch freiberuflich als leitender Redakteur für das Wirtschaftsmagazin „econo“ (Haas-Gruppe, Mannheim) und schreibt als Wirtschafsjournalist Texte u. a. zu den Themen Erneuerbare Energie und Unternehmenskultur. Neben Lehraufträgen an der Dualen Hochschule Mannheim ist er als Dozent für journalistisches Schreiben tätig.

______________________________________________________________________________________

Diagnose:funk: In ihrem Buch schreiben Sie auch über die Möglichkeit an Universitäten, eine KI-gestützte Beratung für Studierende aufzubauen. Findet da auch ein „Angriff auf das Bewusstsein“ statt?

INGO LEIPNER: Empirische Daten liegen mir zu diesem Thema nicht vor, weshalb ich den Text als essayistische Spekulation angelegt habe. Sie ist aber ziemlich gut begründet! Seit 2021 gibt es das Forschungsvorhaben „AIStudyBuddy“, das an der Bergischen Universität Wuppertal angesiedelt ist. Das Ziel: Die Wissenschaftler sammeln in einem großen Umfang Daten von Studierenden. So lassen sich Muster in vergangenen, auch gescheiterten Studienverläufen entdecken. Es entstehen „Anhäufungen“ (Cluster) ähnlicher Lebensläufe im Studium, die zum Beispiel Erfolgsbedingungen erkennen lassen – oder typische Szenarien des Scheiterns. So sollen Studierende in der KI-Beratung mögliche Irrwege erkennen.

Diagnose:funk: Das klingt recht positiv, wenn es den Studierenden helfen sollte?

INGO LEIPNER: Auf den ersten Blick ist das toll. Doch es könnte Folgendes geschehen: Scheinbar objektive Informationen kriechen langsam ins Bewusstsein, das subjektive Urteil tritt in den Hintergrund, intuitive Einsichten verlieren an Bedeutung. Der Entscheidungsprozess nimmt einen bequemeren Verlauf, da mathematisch „exakte“ Argumente den Ausschlag geben. Die Leistungsfähigkeit der KI relativiert die Verantwortung für das eigene Leben. Auf der Strecke bleibt das Urteilsvermögen – und die Freiheit des einzelnen Studierenden, der sich einer mathematischen Scheinrationalität zu unterwerfen hat.

Diagnose:funk: Sie schreiben dabei von „stochastischen Erfolgsmenschen“ und „optimierten Biografien“.

INGO LEIPNER: Besonders tückisch ist, dass genau ein Maßstab für „stochastische Erfolgsmenschen“ entsteht: Es droht eine standardisierte Blaupause, an der sich künftig Studierende zu orientieren haben. Da bleibt kein Platz für Zufälle, persönliche Begegnungen oder überraschende Erkenntnisse. Verloren gehen auch Chancen des Scheiterns, das Recht auf Umwege und die Möglichkeit, aus eigenen Erfahrungen sein Leben zu gestalten. Kein Algorithmus sollte Menschen den Mut nehmen, sich eigenen Krisen bewusst zu stellen. Es sind zunächst keine KI-gesteuerten Roboterarmeen, die uns bedrohen. Vielmehr könnte unsere Freiheit allmählich durch Bequemlichkeit sterben.

Diagnose:funk: Lieber Herr Leipner, danke für das Interview. Wir wünschen dem Buch eine große Leserschaft.

ChatGPT / diagnose:funk

Quellen

[1] https://www.fr.de/ratgeber/familie/lehrer-betont-die-klassische-hausaufgabe-hat-ausgedient-93238338.html

[2] ChatGPT Antwort auf die Frage (Prompt): "„Wie ist das Verhältnis von Karl und Franz in Schillers Räuber?" :

"In Friedrich Schillers Drama "Die Räuber" haben die Brüder Karl und Franz von Moor ein ziemlich angespanntes Verhältnis, das von Gegensätzen und Konflikten geprägt ist.

Karl von Moor ist der ältere Bruder und wird am Anfang vom Vater bevorzugt. Er ist eigentlich ein guter Kerl, der viel Wert auf Gerechtigkeit legt, aber durch die Intrigen seines jüngeren Bruders Franz gerät er auf die schiefe Bahn und wird zum Anführer einer Räuberbande. Karl ist sehr leidenschaftlich und handelt oft impulsiv. Er hat große Ideale, die aber immer mehr in Gewalt und Chaos ausarten, weil er sich gegen die Ungerechtigkeit, die ihm widerfahren ist, wehren will.

Franz von Moor, der jüngere Bruder, ist ganz anders. Er ist rücksichtslos, eifersüchtig und manipulativ. Franz will unbedingt die Macht im Haus der Moors haben und ist neidisch auf Karl, weil dieser von ihrem Vater bevorzugt wird. Um seinen Bruder aus dem Weg zu räumen, spinnt Franz böse Intrigen und sorgt dafür, dass Karl von ihrem Vater verstoßen wird. Franz ist eiskalt und geht über Leichen, um seine Ziele zu erreichen.

Das Verhältnis zwischen den beiden Brüdern ist also voller Hass und Konkurrenz. Franz sieht Karl als ein Hindernis, das er beseitigen muss, um die Macht zu erlangen. Karl hingegen will sich an Franz rächen, als er herausfindet, dass dieser ihn verraten hat. Der Streit zwischen ihnen zeigt den Kampf zwischen Gut und Böse, der am Ende beide zerstört.

Der Höhepunkt ihrer Auseinandersetzung ist, als Karl merkt, dass sein Wunsch nach Rache ihn genauso schlecht gemacht hat wie Franz. Er erkennt, dass er seine eigenen Ideale verraten hat. Am Ende verlieren beide Brüder, was zeigt, dass ihr ganzer Streit umsonst war."

Die Antwort von ChatGPT zu Schillers Räuber ist richtig. Doch das ist nicht immer so. Oft liegt ChatGPT daneben. Dazu fragte der Autor ChatGPT

"ChatGPT - warum halluzinierst Du - gib mir eine Antwort und mache mir dazu ein Bild!"

und bekam vom Programm eine Karikatur (s.o.) und die treffende (!) Antwort:

"ChatGPT kann manchmal "halluzinieren", d.h. Antworten generieren, die sachlich falsch oder erfunden sind. Das liegt an mehreren Faktoren:

  1. Probabilistische Natur des Modells: ChatGPT ist ein probabilistisches Modell. Es generiert die nächsten Wörter basierend auf Wahrscheinlichkeiten, die es aus dem Training gelernt hat. Manchmal führt diese Methode dazu, dass das Modell plausible, aber ungenaue oder sogar falsche Informationen liefert, weil es Muster erkennt, die nicht unbedingt wahr sind.

  2. Mangel an Verständnis: Obwohl ChatGPT auf eine große Menge an Textdaten trainiert wurde, hat es kein echtes Verständnis der Welt oder des Kontextes. Es kennt die Bedeutung von Wörtern und Sätzen nur insofern, als es Muster in den Daten erkannt hat, nicht durch ein tatsächliches Verständnis. Daher kann es Zusammenhänge herstellen, die logisch erscheinen, aber in der Realität nicht zutreffen.

  3. Training auf unstrukturierten Daten: Das Modell wurde auf Texten aus dem Internet trainiert, die sowohl korrekte als auch inkorrekte Informationen enthalten. Da es keinen Mechanismus gibt, der das Modell aktiv von richtig und falsch unterscheidet, kann es manchmal falsche Informationen als richtig präsentieren.

  4. Mangel an aktuellen Informationen: Das Modell hat einen Wissensstand, der bis zu einem bestimmten Zeitpunkt aktualisiert wurde (z.B. September 2021 für frühere Versionen). Wenn nach Ereignissen oder Informationen gefragt wird, die nach diesem Zeitpunkt liegen, könnte das Modell "halluzinieren" und Antworten basierend auf veralteten oder erfundenen Informationen generieren.

  5. Fehlende Quellenprüfung: Im Gegensatz zu einem Menschen, der verschiedene Quellen überprüfen kann, um die Richtigkeit einer Information zu bestätigen, hat das Modell keinen direkten Zugriff auf Datenbanken oder das Internet, um seine Antworten zu verifizieren. Es erstellt Antworten ausschließlich auf Basis des trainierten Wissens.

  6. Versuch, kohärente Antworten zu generieren: ChatGPT ist darauf ausgelegt, kohärente und zusammenhängende Texte zu erzeugen. Um dies zu erreichen, füllt es oft Lücken in seinem Wissen mit plausiblen, aber erfundenen Informationen, um eine Antwort zu geben, die natürlich und sinnvoll klingt, selbst wenn sie falsch ist.

Diese "Halluzinationen" sind eine bekannte Herausforderung in der KI-Forschung, und es wird aktiv daran gearbeitet, die Zuverlässigkeit von Modellen wie ChatGPT zu verbessern, insbesondere durch bessere Datenquellen, stärkere Modellarchitekturen und zusätzliche Sicherheitsmechanismen."

 

Ja, ich möchte etwas spenden!