Wir informieren: Joseph Weizenbaum und die Kritik der Künstlichen Intelligenz
Teil 3 und Schluss: Die Grenzen der KI und das zweckorientierte Denken
Weizenbaum sah den Glauben daran, dass Computer Problemlösungs-
maschinen seien, kritisch. Dieser Glaube war für ihn der Ausdruck eines „Instrumentellen Denkens“. Eines, das in den Kategorien Problem und Lösung denkt und entscheidet. Zweckorientiertes Denken sei im Ingenieurwesen, in den Naturwissenschaften und in der Informatik weit verbreitet: „Welches Material brauche ich, damit die Brücke möglichst lange hält? Mit welcher Methode kann ich die Oberflächentemperatur der Sonne messen? Und was muss ich an der Software ändern, damit das selbstfahrende Auto keine Unfälle mehr baut?“
Ganz anders dagegen das wertorientierte Denken, das sich nach ethischen oder moralischen Werten ausrichtet. Doch durch die Errungenschaften der Naturwissenschaften und der Technik habe das instrumentelle Denken nach Weizenbaum die Sicht der Menschen geprägt und ihn von dessen Richtigkeit überzeugt „Was muss ich tun, um Erfolg zu haben? Welches Foto bringt die meisten Likes? Bin ich gut genug für den Job? Oder kann das ein Computer besser als ich? Durch den großen Erfolg und die faszinierende Leistungsfähigkeit des Computers hätten wir, so Weizenbaum, eine ‘technologische Mentalität‘ entwickelt, die nicht nur das instrumentelle Denken verstärke, sondern zugleich davon ausgehe, dass Technologie grundsätzlich das bessere Mittel sei – besser vor allem als Menschen.“
Doch nach Weizenbaum führt dieses Denken dazu, dass Technologie auch in Bereichen eingesetzt werde, wo sie nicht sinnvoll sei und mehr schade als nütze.
Weizenbaum sah deshalb zwei Grenzen des Einsatzes von KI.
Die erste war für ihn der Einsatz bei sozialen Problemen und zwischenmenschlichen Konflikten:
„Wenn zum Beispiel Schüler:innen Lernschwierigkeiten hätten, dann löse man dieses Problem nicht mit neuen Computern, die den Kindern beim Lernen helfen, weil die zugrundeliegenden Probleme in der Regel andere seien: etwa ein schlechtes Betreuungsverhältnis, überforderte Lehrkräfte, Probleme zu Hause, Mobbing durch andere Kinder oder ein zu hoher Leistungsdruck. Der Versuch, Lernschwierigkeiten technisch zu lösen, würde diese Probleme überdecken und sie dadurch möglicherweise noch verschlimmern.“
Die zweite Grenze war für ihn eine moralische. So sah er KI-Anwendungen zur psychotherapeu-
tischen Behandlung von Patient:innen deswegen für nicht sehr geeignet, da Computer weder eine Biografie noch einen Körper hätten, auch keine eigenen Erfahrungen, zudem fehle es ihnen an der nötigen Menschlichkeit.
(Quelle: https://www.weizenbaum-institut.de/media/Publikationen/Einzelpublikationen/Broschuere_ki-mythos-kritik.pdf 35 ff.)