Negative Auswirkungen des Einsatzes von Chatbots im Bildungsbereich

Whatsapp
Facebook
Twitter
Instagram
Telegram

von ELEONORA ALBANO*

Die wahllose Popularisierung von Chatbots könnte Bildungstraditionen untergraben, die auf kritischem Denken beruhen

Die Angriffe des Kapitalismus auf das kritische Denken wirken sich direkt auf die Zukunft der Universität aus. Solche Entwicklungen gibt es zumindest seit der Finanzialisierung des Dreibeins aus Lehre, Forschung und Vertriebsförderung – das die großen Technologiekonzerne vor Kurzem usurpiert haben, indem sie sich als „Gönner“ etablierten.

Dieser Artikel konzentriert sich auf die Form der Schirmherrschaft, die sogenannte Konversationsroboter oder „Chatbots“ im Internet verfügbar macht.

Die Technowissenschaft schreibt diesen Robotern Intelligenz zu und behauptet, sie seien in der Lage, Kurse auf jedem Niveau vorzubereiten, Recherchen zu beschleunigen, bibliografische Überprüfungen zu automatisieren und die Zeit für die Datenerfassung und -verarbeitung zu verkürzen.

Hier zeigt sich, dass die Relevanz dieser Vorwürfe ganz von der kritischen Schulung der Chatbot-Nutzer abhängt.

Es ist wichtig, dass Sie wissen, dass diese Leute lediglich hochfrequente „Argumente“ aus dem Internet wiedergeben. Man muss sich auch darüber im Klaren sein, dass dies durch eine vereinfachte Simulation der Turingmaschine geschieht – die das nächste Symbol in einer kontinuierlichen und vollständig miteinander verbundenen Sequenz vorhersagt –, die jedoch in Wirklichkeit nichts erzeugt.

Daher kann seine unkritische und wahllose Popularisierung Bildungstraditionen untergraben, deren Wirksamkeit auf jahrhundertelanger Praxis des kritischen Denkens beruht.

In diesem Artikel werden die von Big Tech für Studenten und Lehrkräfte angebotenen Tools erörtert. Dabei liegt der Schwerpunkt auf der Zuschreibung von Intelligenz zu den beliebtesten dieser Tools, nämlich Large Language Models (im Folgenden GMLs, wie in englischen LLMs – große Sprachmodelle, das bekannteste Beispiel hierfür ist ChatGPT). Zu diesem Zweck werden die Argumente gegen derartige Vorwürfe zusammengefasst und erweitert. veröffentlicht auf der Website Die Erde ist rund im Dezember 2023.

Es sind sechs Schritte erforderlich.

Zunächst diskutiere ich im Lichte sozialwissenschaftlicher Analysen die unaufhörlichen Transformationen des Kapitalismus seit der Finanzialisierung. Bestimmte zeitgenössische Autoren, wie zum Beispiel Tsoukalis,[I] argumentieren, dass der Begriff Neoliberalismus angesichts der Vielzahl aktueller Möglichkeiten der Profitmaximierung seine Bedeutung verliere.

Ich werde mich jedoch auf das Verhalten konzentrieren, das heißt, ich werde versuchen, das Unbehagen, die Ängste und die Unsicherheit zu verstehen, die dieser ständige Wandel im Produktionssystem verursacht.

Anschließend gehe ich auf die schädlichen Folgen dieser Situation für die Ausübung der Kritik ein und weise auf bestimmte Gefahren hin, die dieser bereits jetzt drohen.

Ich zeige weiterhin, wie die uneingeschränkte Aneignung von Internetinhalten durch die großen Technologieunternehmen es ihnen ermöglicht hat, sich als Förderer der Bildung zu etablieren und Lehrern, Schülern und Forschern eine Vielzahl von Werkzeugen an die Hand zu geben.

Als nächstes analysiere ich die wichtigste davon, nämlich die Sprachtechnologie persönlicher Assistenten (wie etwa Amazons Alexa oder Microsofts Copilot). Zunächst zeige ich, dass die Simulation des höflichen und diskreten Tons einer durchschnittlichen Sekretärin alle möglichen Fantasien über die kognitiven – und sogar sozioaffektiven – Fähigkeiten von Schreib-/Lesemaschinen (oder Sprechern/Zuhörern) weckt.[Ii]). Ich werde nun zeigen, wie sich solche Fantasien auf das tägliche Leben der betroffenen Menschen und Institutionen auswirken und es destabilisieren.

Die erste Fantasie betrifft die Empfindungskraft von Maschinen, das heißt den Glauben an ihre Fähigkeit, Empfindungen und Gefühle zu erfahren und sich dieser bewusst zu werden.

Eine andere Fantasie lässt den antiken Mythos der Steinorakel wieder aufleben, die in der Antike als belebt, empfindungsfähig und intelligent galten. In der aktuellen Version wird behauptet, dass durch die Emulation des menschlichen Denkens durch die Maschine eine perfekte Homologie erreicht wird. Ich werde die Falschheit dieser Annahme demonstrieren, indem ich Schritt für Schritt die auf operanter Konditionierung basierende behavioristische Architektur der GMLs hinter den Chatbots erkläre.

Im Folgenden wird gezeigt, dass die von Sprachrobotern geschaffenen „neuen“ Bedeutungen in Wirklichkeit nicht neu sind, da sie ausschließlich auf Analogien beruhen, die sich mittels ausgefeilter statistischer Funktionen in dem riesigen Korpus des Internets finden lassen.

Kritik unterliegt nicht dieser Einschränkung, da sie ständiges Zweifeln erfordert. Die Tatsache, dass Suchmaschinen aufgrund ihrer Geschwindigkeit und Effizienz in der Lage sind, akzeptable, sehr gute oder sogar ausgezeichnete Antworten zu geben, erlaubt es ihnen jedoch nicht, gute Fragen zu stellen. Daher liegt die Beantwortung von Fragen ausschließlich in der Verantwortung des Benutzers.

Abschließend weise ich auf einige Fallstricke dieser Tools hin, die Benutzer verwirren können, die sie zur Beschleunigung und Automatisierung akademischer Aufgaben wie der Unterrichtsvorbereitung, der Textüberprüfung und der Organisation von Forschungsdaten verwenden möchten.

Ich komme daher zu dem Schluss, dass es sich hierbei um sehr nützliche Ressourcen handelt – allerdings nur für diejenigen, die wissen, wie man sie einer strengen kritischen Prüfung unterzieht.

Die schwindelerregenden Transformationen des Kapitalismus

Seit der Finanzialisierung hat der Kapitalismus neue Wege der Profitgewinnung geschaffen, die weit über die Ausbeutung der Arbeiter hinausgehen. Mit dem Aufkommen und der Popularisierung des Internets begannen die Verbraucher, kostenlos für die Plattformbesitzer zu arbeiten. Denn bei der Nutzung der Plattformen erstellten sie automatisch ein Profil ihrer sozialen Beziehungen und Konsumgewohnheiten, das ohne ihre Zustimmung an interessierte Werbetreibende verkauft wurde. Wie Shoshana Zuboff betonte,[Iii] Diese kontinuierliche Überwachung stellt eine Verletzung der Privatsphäre der Benutzer dar und dient tatsächlich einem mächtigen Überwachungssystem.

Heutzutage beschränkt sich dieser Datenhandel nicht mehr nur auf die Klicks der Internetnutzer. Manche Unternehmen verfügen nicht über die Ressourcen, um Bereiche im Internet zu erstellen und zu pflegen, und speichern ihre Datenbanken daher in den von den großen Technologiekonzernen kontrollierten Clouds. Diesen radikalen Wandel, der Märkte zerstörte, indem er sie in das sogenannte „Cloud Computing“ verlagerte, bezeichnet Yanis Varoufakis treffend als „Technofeudalismus“.[IV]

Der Technofeudalismus beutet Konsumenten und Kapitalisten aus, indem er eine Armee prekär beschäftigter und ausgelagerter Arbeiter ausbeutet, die Daten in einer hierarchischen Struktur klassifizieren und etikettieren, die nur durch gigantische Maschinen möglich wird.

Es handelt sich dabei um eine hochqualifizierte und spezialisierte Belegschaft. Einige sind exakte Wissenschaftler, die bei der Erstellung der algorithmischen Struktur des Netzwerks mitwirken. Andere sind Natur- und Geisteswissenschaftler, die die veröffentlichten Inhalte genau unter die Lupe nehmen und ein komplexes und hierarchisches Klassifizierungsraster erstellen, das nicht nur den Suchmaschinen als Orientierung dient, sondern auch großen Sprachmodellen – deren Anwendungen in ständiger Ausweitung die Benutzer immer stärker verführen und kontrollieren.

Die feministische Denkerin Nancy Fraser[V] prägte den Begriff „Kannibalenkapitalismus“, um diese Form der Dienstleistung zu bezeichnen, die eine immer größere Zahl von Einzelpersonen und Institutionen erfasst. Entsprechend äußerte sich der Journalist und politische Analyst Raul Zibechi[Vi] schlug den Begriff „Mafia-Kapitalismus“ für den Fall vor, dass dieses gefräßige Maul Verbindungen zu Korruption, Drogenhandel und organisierter Kriminalität im Allgemeinen hat.

Lassen Sie uns nun über die Auswirkungen des Missbrauchs dieser anonymen Macht auf unseren Geist und Körper nachdenken. Körper, die der ständigen Nutzung von Bildschirmen, Tastaturen und Mäusen überdrüssig sind, konzentrieren sich auf virtuelle Verbindungen, denen die stimmlichen, gestischen und taktilen Reize, die dem physischen Zusammenleben Zusammenhalt und Kohärenz verleihen, völlig fehlen. Getrieben von dieser Routine akzeptieren sie schließlich den unausweichlichen Mangel an sozioaffektiven Kontakten.

Unter denjenigen, die ihren Lebensunterhalt mit diesen Tätigkeiten verdienen, herrscht nach wie vor Enttäuschung über die Unsicherheit auf dem Arbeitsmarkt und Sorge über die Zahl der Stunden, die man braucht, um ein Grundeinkommen zu verdienen. Die Folge ist eine Vervielfachung der Fälle von chronischem Stress. Die Psychiatrie erkennt die Komplexität des Phänomens nicht an und schlägt daher den Begriff „Burnout“ vor. Die Betroffenen werden mit Medikamenten behandelt.

In diesem Szenario ließe sich die sogenannte „Wissensgesellschaft“ besser andersherum beschreiben, nämlich als „Gesellschaft der Unwissenheit“. Statt die Aufklärung zu fördern, die sie mit ihren Aufklärungsansprüchen verspricht, überschwemmt sie die Öffentlichkeit häufig mit Fachwissen, das sie je nach Mode fabriziert, verbreitet und wieder zerstreut. Die daraus resultierende Vokabelexplosion trägt zu weiterer Verwirrung bei.

Eine weitere Gefahr für die psychische Gesundheit der Bevölkerung liegt in der unaufhörlichen irreführenden Propaganda über die Vorteile von Reichtum, Luxus und Prunk. In letzter Zeit riskieren Menschen mit sehr geringem Einkommen das wenige, was sie haben, im Online-Wettfieber. Das Eintauchen in die störenden und sich wiederholenden Mechanismen sozialer Netzwerke beraubt sie der grundlegendsten Denkfähigkeit und der einfachsten Empathie gegenüber anderen. Nach und nach übernimmt die Brutalität mit unaufhaltsamer Kraft die Köpfe und Herzen.

Der Niedergang der Kritik

Das obige Bild ist sicher nicht die Ursache, sondern die Folge der allmählichen Abstumpfung der Kritik. Die Ursache liegt weiter entfernt: Sie liegt in den Jahrzehnten offener oder verdeckter Angriffe verschiedener Varianten des Kapitalismus auf die Institutionen, die das kritische Denken bewahren.

In rund fünf Jahrzehnten hat die vom Neoliberalismus diktierte Finanzialisierung das öffentliche Bildungswesen weltweit geschwächt.[Vii] Schulen auf allen Ebenen mussten Partnerschaften und/oder Sponsoring anstreben, um die Erhebung von Studiengebühren zu vermeiden – oder zumindest die Fortführung ihrer Werte zu gewährleisten. Diejenigen, denen es gelang, kostenlose Lehrplanangebote beizubehalten, vervielfachten die Anzahl der bezahlten Erweiterungs- und Spezialisierungskurse und erweiterten das Angebot gleichermaßen bezahlter außerschulischer Aktivitäten.

Die Regierungen tragen eine Mitschuld daran, dass die Lehrer sehr schlecht bezahlt werden und deshalb gezwungen sind, mehr als einen Job anzunehmen, um zu überleben. Dies beeinträchtigt nicht nur Ihre körperliche Fitness, sondern auch Ihre Hingabe zum fortlaufenden Training.

Auf der anderen Seite machen Privatschulen den Familien schöne Versprechungen, sei es in Richtung Professionalisierung und Eingliederung in den Arbeitsmarkt oder um eine enzyklopädische und/oder multidisziplinäre Ausbildung, die auf eine Welt im ständigen Wandel vorbereitet. Das Ziel des Lernens besteht im Allgemeinen nicht darin, über die Realität nachzudenken, sondern darauf zu reagieren.

Als letzte Hochburg des kritischen Denkens mildern die öffentlichen Universitäten ihre Unterfinanzierung, indem sie den Weg für die Privatisierung ebnen. Postgraduiertenstudium und Spezialisierung verschmelzen immer mehr und die Grundlagenforschung weicht maßgeschneiderter angewandter Forschung.

Diese Situation zu naturalisieren hieße, zu leugnen, dass die Meinungsfreiheit unabhängig von jeglicher privater Förderung sein muss. In einer Demokratie ist es notwendig, die Autonomie der Forscher zu wahren. Daher muss die Arbeit an den Fragen, die sich aus der Entwicklung jedes Wissensgebiets ergeben, aus öffentlichen Mitteln finanziert werden.

Durch die Privatisierung der Ränder sind auch die öffentlichen Schulen den Effizienzkriterien der Wirtschaft ausgesetzt. Dies führt häufig dazu, dass sie Vermögensverwaltungsgesellschaften mit der Verwaltung ihrer physischen und symbolischen Vermögenswerte beauftragen, um deren Nutzung, Leistung und Wert zu „optimieren“. Zu den verwalteten Vermögenswerten zählen die Daten aller beteiligten Akteure. Und so stürzt sich das Bildungswesen unvorsichtigerweise in eine der aggressivsten Praktiken des gegenwärtigen Kapitalismus. Dabei wird davon ausgegangen, dass jedes physische oder informative Gut verkäuflich ist und sich damit Gewinn erzielen lässt.

Der alte Mythos des intelligenten Roboters

Lange vor den Automaten, die während der Aufklärung die europäischen Könige und Aristokraten unterhielten, gab es bereits Legenden über intelligente Maschinen, die in der Lage waren, ihren Herren zu gehorchen. Im OdysseeHomer berichtet, dass der Gott der Metallurgie und des Handwerks, Hephaistos, und seine goldenen Diener Blasebälge verwendeten, um wiederkehrende mechanische Aufgaben auszuführen. Er erwähnt auch, dass die Phönizier Schiffe hatten, die den Befehlen ihrer Kapitäne gehorchten und sich mit Gedankengeschwindigkeit bewegten, um die Gefahren der Navigation zu vermeiden.

Künstliche Menschen, Tiere und Fabelwesen blieben in der Antike, im Mittelalter und in der Neuzeit beliebt. Solche aus Glas, Ton oder Metall gefertigten Kreaturen galten im Allgemeinen als Sklaven oder Diener, die sich der Befriedigung verschiedenster Bedürfnisse, darunter auch sexueller Art, verschrieben hatten.

Und das war nicht bloße Einbildungskraft: Die Hellenen verfügten über fortschrittliche mechanische Technologie, die den Bau von Automaten ermöglichte, die durch Federn, Seile und/oder Hebel angetrieben wurden. Diese Kunst blieb im mittelalterlichen Europa teilweise erhalten und verbreitete sich in der ganzen Welt. Sie erreichte zuerst den Islam und breitete sich dann nach Osten aus.

Auch in östlichen Kulturen gab es Wächterautomaten, die über Paläste oder Reliquienschreine wie den Buddha wachten.

Solche Mechanismen waren mächtige Instrumente der sozialen Kontrolle. Ihr Ziel war es, Faszination und Angst zugleich zu erregen. Gleichzeitig nährten Kurtisanenpuppen, die Masturbationsfantasien körperlich unterstützten, den Glauben an eine vermeintliche „Seele“ der Maschinen.

Auch in der Literatur wurden derartige Fantasien populär gemacht. Beispielsweise in Gullivers Reisenbeschreibt Jonathan Swift die Engine als eine Maschine, die „ein Projekt zur Verbesserung spekulativen Wissens durch praktische und mechanische Vorgänge“ darstellte. Durch die Miete zu bescheidenen Preisen konnte „jede unwissende Person mit einem Minimum an Bildung und ohne Mentor“ nur seine Arme mobilisieren, „um Bücher über Philosophie, Poesie, Politik, Recht, Mathematik und Theologie zu schreiben“.

Der Eliza-Effekt trivialisiert

Die Entdeckung, dass Menschen leicht Zuneigung auf Maschinen übertragen, wurde von Joseph Weizenbaum gemacht[VIII], ein deutscher Jude, dessen Familie zu Beginn des Aufstiegs des Nationalsozialismus nach Amerika auswanderte. Das Trauma der Verfolgung und die Schwierigkeiten bei der Anpassung an die neue Umgebung konnten sein außergewöhnliches Talent für Mathematik und Informatik nicht beeinträchtigen. Trotz mangelnder Unterstützung seitens seiner Familie machte er eine glänzende akademische Karriere, die ihm eine Professur am MIT einbrachte.

Er gilt als einer der Väter der künstlichen Intelligenz, obwohl er diesen Spitznamen ablehnte, da er glaubte, dass Maschinen nur rechnen, nicht aber logisch denken können.

Die Psychoanalyse half ihm bei der Überwindung vergangener Traumata und hatte somit einen entscheidenden Einfluss auf seine Karriere. Gleichzeitig veranlasste ihn seine Verbundenheit zum Sozialismus dazu, die Möglichkeit einer Demokratisierung der Psychotherapie durch digitale Mittel zu erkunden. Zu diesem Zweck untersuchte er die verfügbaren Ströme und führte ein mutiges Experiment mit dem rechnerisch am einfachsten zu emulierenden Strom durch: dem Rogerianischen, benannt zu Ehren seines Erfinders, des amerikanischen Psychologen Carl Rogers.

Es handelt sich dabei um eine nicht-direktive Psychotherapie, die Carl Rogers als „personzentriert“ definierte. Dabei geht es im Wesentlichen darum, die Aussage des Patienten in Sätze wie „Sie haben mir erzählt, dass…“ einzufügen, gefolgt von weiteren vagen, aber ermutigenden Floskeln, wie etwa: „Und wie können wir damit umgehen?“ Im Grunde handelt es sich dabei um eine Wette auf die therapeutische Wirkung, die darin liegt, Dinge herauszulassen.

Obwohl Eliza von Joseph Weizenbaum ursprünglich als Forschungsinstrument zur Durchführbarkeit eines Konversationsroboters konzipiert wurde, erfreute es sich schon bald eines überraschenden Publikumserfolgs, der sich letztlich auf die Gestaltung der Studie auswirkte. Der Grund dafür ist, dass die Teilnehmer behaupteten, ihre Gespräche mit der Maschine seien privat und sich weigerten, deren Inhalte mit dem Forscher zu teilen.

Offensichtlich war Joseph Weizenbaum davon überzeugt, dass Eliza weder lebhaft noch intelligent sein konnte. Er verstand dann, dass die Bindung der Teilnehmer an den digitalen Therapeuten eine Form der Übertragung im psychoanalytischen Sinne war.

Es zeigt sich, dass in den USA in den 1960er/70er Jahren die Lobby derjenigen, die an einer Computerisierung und Automatisierung der Gesellschaft interessiert waren, bereits stark war und eine emotionale Bindung der Benutzer an die Maschinen herbeiführte. Joseph Weizenbaum widersetzte sich dieser Kampagne, indem er Bücher und Artikel schrieb, in denen er den Unterschied zwischen menschlichem Denken und symbolischer Berechnung untersuchte.

Doch schon bald erntete er die bitteren Früchte einer heftigen Ablehnung, die von seinen eigenen Kollegen am MIT ausging, insbesondere von John McCarthy, der heute als Vater der künstlichen Intelligenz gilt. Der Begriff wurde tatsächlich von ihm als Marketingtrick geprägt, um Mittel vom US-Verteidigungsministerium für ein Symposium zu erhalten, das er in Dartmouth College im Jahr 1956. Offensichtlich war das Militär von dem stillschweigenden Versprechen der digitalen Überwachung fasziniert.

Das Unbehagen war so groß, dass Joseph Weizenbaum es vorzog, nach Deutschland zurückzukehren und dort mit seinen Gesprächspartnern – allesamt jung, kritisch und enthusiastisch – weiterzuarbeiten.

Allerdings nutzte die amerikanische Wirtschaft damals zunehmend das Internet als Medium zur Kontrolle und Manipulation des Verhaltens. Er nutzte alle verfügbaren Möglichkeiten, um die Vorstellung zu verbreiten, dass Computer denken könnten. Ausschlaggebend für den Erfolg dieser Propaganda waren die Niederlagen, die die Spielroboter nacheinander den renommiertesten Schachweltmeistern zufügten.

Somit war die Einführung von GMLs der letzte Tropfen, der das Fass zum Überlaufen brachte und das Internet vom Eliza-Effekt überschwemmte und die Benutzer dazu ermutigte, sich regelrecht an ihre PCs zu binden. Die Konversationsleistung ist so gut, dass der Laie die Ausgabe mit natürlicher Sprache identifiziert. Dass es sich dabei bloß um eine logisch-symbolische Berechnung handelt, die nichts mit der Struktur und Funktion menschlicher Sprachen zu tun hat, fällt den meisten Menschen schwer zu glauben.

Sehen wir uns unten an, wie diese Täuschung funktioniert.

Die behavioristische Mechanik großer Sprachmodelle

Die enorme Kapazität zur Wortverkettung, die große Sprachmodelle aufweisen, hat drei Komponenten: (i) die Aneignung des gesamten Internetinhalts durch die großen Technologieunternehmen; (ii) die Entwicklung eines rekurrierenden neuronalen Netzwerks, das in der Lage ist, in Echtzeit mehrere Assoziationen zwischen Wörtern zu berechnen – das sogenannte Transformer, das heißt Transformatoren; und (iii) die unablässigen gewerkschaftlichen Bemühungen von Heerscharen prekär beschäftigter, aber hochqualifizierter Arbeitnehmer aus unterschiedlichen Wissensbereichen.

Beachten Sie, dass natürliche menschliche Sprachen wichtige syntaktische Diskontinuitäten enthalten, beispielsweise in Relativsätzen. In einem Satz wie „Der Frosch, der das Insekt fraß, starb“ geht es um den Tod des Frosches, nicht des Insekts. Dies kommt auch in der Morphologie bei Verben wie „enraizar“ vor, die durch Anhängen eines Präfixes und eines Suffixes an die Wurzel gebildet werden.

Die Funktionsweise großer Sprachmodelle ist allerdings rein linear, das heißt, sie besteht immer darin, das nächste Wort vorherzusagen. Wie werden diese Diskontinuitäten also angegangen? Die Antwort ist einfach: durch eine ausgeklügelte Wahrscheinlichkeitsberechnung. Der Transformator ermittelt in Echtzeit die Wahrscheinlichkeiten des gemeinsamen Auftretens von Wortpaaren aus der gesamten Internetdatenbank, wählt die beste Option aus und fährt fort.

Es stellt sich daher die Frage, wie sich aus derart einfachen Operationen Sequenzen zusammensetzen lassen, die für den Leser Sinn ergeben.

Die Einfachheit ist nur scheinbar. Ko-Auftrittswahrscheinlichkeiten werden nicht nur für Vokabular berechnet. Das Korpus ist auf mehreren Analyseebenen annotiert, die syntaktische, semantische und sogar pragmatische Informationen umfassen. Eine Optimierungsfunktion wählt die Paare mit der höchsten Chance aus, alle diese Aspekte kohärent zu integrieren.

Linguistische Annotatoren kennzeichnen die strukturellen Eigenschaften des Textes: Regeln der Konjunktion und Disjunktion – also die Syntax –; grundlegende und assoziative Bedeutungen – also Semantik –; und Bezug auf den Text selbst und/oder den Kontext, wie im Fall von Personalpronomen und Orts- und Zeitadverbien – mit anderen Worten Pragmatik.

Kommentatoren in anderen Geistes- und Sozialwissenschaften fügen mehrere Ebenen mit Inhalten und Stilmarkierungen hinzu. In ähnlicher Weise fügen Annotatoren in den Naturwissenschaften und den exakten Wissenschaften getaggte Inhalte aus ihren Fachgebieten hinzu. Schließlich führen Informatiker, die mit Transformatoren vertraut sind, in die Feedforward des Netzwerks die daraus resultierende Hierarchie der Analyseebenen.

Wichtig ist zu beachten, dass die Funktionsweise von Transformatoren mit der radikalsten Form des Behaviorismus, der operanten Konditionierung, vergleichbar ist.[Ix]. Die Kombinationen mit der höchsten Erfolgswahrscheinlichkeit werden verstärkt und mit jeder Auswahl wahrscheinlicher – was die anderen beteiligten Verbindungen stärkt und sich auf die Auswahl des nächsten Paares auswirkt. Dieses Verfahren generiert neue Beispiele von Paaren derselben Klasse und trägt dazu bei, ihre Häufigkeit im Netzwerk zu erhöhen.

Es besteht kein Zweifel, dass dies eine hervorragende Methode zur computergestützten Simulation natürlicher Sprache ist. Wer jedoch die Ausgabe des Transformators mit natürlichen Aussagen verwechselt, unterstellt dem Menschen ein Gehirn, das durch eine Abfolge ständig quantifizierter und neu berechneter Assoziationen funktioniert.

Burrhus F. Skinner, der Vater der operanten Konditionierung, antwortete übrigens in den 1930er/40er Jahren auf Faschismus-Vorwürfe seiner Kollegen, seine Methode der Verhaltenskontrolle habe allein das Ziel, bessere Bürger zu formen. Die Diskussion erreichte die New York Times, wo tatsächlich eine Online-Version eines Berichts des Journalisten Robert Reinhold aus dem Jahr 1972 verfügbar ist.[X] über ein Symposium in Yale, bei dem Skinnersche Ideen von der Mehrheit der akademischen Psychologiegemeinschaft verurteilt wurden.

Skinner scheiterte mit seinen Bildungsprojekten, wurde jedoch von Big Tech gerettet, um Menschen den Maschinen näher zu bringen. Leider wirkt sich der wahllose Einsatz des Algorithmus, der die operante Konditionierung umsetzt, bereits heute auf das Verhalten der Benutzer aus. Immer häufiger werden Chatbots nachgeahmt und Klischees missbraucht. Ebenso akzeptieren sie unkritisch die Klischees, die sie als Antwort auf die ihnen gestellten Fragen erhalten.

Kurz gesagt: Transformatoren schaffen kein neues Wissen, da sie lediglich in Form eines Pastiches die oberflächliche Form einfacher Argumentation nachahmen können. Daher fungieren sie nur dann als Suchmaschinen, wenn das Ziel darin besteht, Informationen aus zuverlässigen Internetquellen zu einem bestimmten Thema zusammenzustellen. Wie Sie wissen, werden einige wenige Websites von Experten moderiert und/oder kuratiert.

Andererseits sind die großen Technologieunternehmen heutzutage nur noch daran interessiert, Protokollführer, nicht aber Moderatoren einzustellen. Alles, was aus einem Transformator kommt, wird in das Eingangskorpus zurückgespeist. Vor Kurzem wurden die wenigen Menschen, die ungenaue oder falsche Antworten von Chatbots filterten und verwarfen, von X und Meta entlassen. Microsoft pflegt noch einige Filter, gibt aber keine Details zu ihrer Funktionsweise preis. Während die Moderation zunehmend schwächer und undurchsichtiger wird, häufen sich die sachlichen Fehler – und das Internet wird von Ungenauigkeiten, Lügen und Widersprüchen überflutet.

Darüber hinaus werden Fragen und Kommentare der Benutzer, egal wie naiv, sektiererisch oder beleidigend sie auch erscheinen mögen, automatisch in die Datenbank aufgenommen, was diese zu einer unerschöpflichen Quelle potenziell gefährlicher Voreingenommenheit macht. Das Wahre weicht dem Falschen oder existiert neben ihm, da es an Anhaltspunkten für eine Unterscheidung fehlt.

Auf diese Weise verführt und fesselt der freundliche und belehrende Ton der Chatbots den Benutzer und untergräbt nach und nach seine Fähigkeit, die Faktoren zu erkennen, die in der Frage selbst eine Rolle spielen, und die Antwort zu bewerten oder anzuzweifeln. Es ist leicht, sich an einen Mechanismus zu gewöhnen, der sofortige und scheinbar einfache Antworten liefert, da diese leicht zu wiederholen sind.

Diese Leichtigkeit hat jedoch eine rücksichtslose Seite. Joseph Weizembaum wäre sicherlich deprimiert gewesen, wenn er im Jahr 2023 noch unter uns wäre, als ein belgischer Familienvater mit Unterstützung einer von Eleuther AI auf Basis von Chat GPT implementierten Version von Eliza gegen den Umweltkollaps protestierte, indem er Selbstmord beging. Nach Angaben seiner Frau hatte er den Chatbot zur Behandlung von Depressionen genutzt.

Ein gefährliches Gleichgewicht – die Übertragung der Verantwortung auf die Nutzer

Kommen wir nun zurück zur Frage der Lebensqualität der überlasteten Lehrkräfte, die faktisch die Mehrheit stellen, auch im Hochschulbereich.

An den Universitäten erobern Chatbots die Verwaltung, was zu Einschnitten im persönlichen öffentlichen Dienst führt. Es gibt auch Experimente zur Anpassung von Robotern für den akademischen Einsatz. Selbst in diesem Fall, wo der Inhalt Filtern unterliegt, ist die Moderation aufgrund der Architektur nicht zufriedenstellend Feedforward von Transformatoren.

Die von den großen Technologieunternehmen bereitgestellten Dienste zur Textsuche, -kompilierung und -organisation tragen also nur dazu bei, dass die Beschäftigten im Grund- und Hochschulwesen ihre Verwirrung und ihr Unbehagen vergrößern.

Die mit diesen Ressourcen zusammengestellten Handouts neigen dazu, den Unterricht durch Offensichtlichkeiten und Fehlinformationen zu verunreinigen, da sie nicht zum Nachdenken anregen, sondern nur zur unkritischen Wiedergabe. Das im Internet bereits weit verbreitete Plagiat nimmt nun eine neue Form an: blindes, wahlloses Pastiche ohne Auswahlkriterien.

In einer Zeit, in der gedruckte Bücher kurz vor dem Verschwinden stehen, drohen Chatbots einer Bildungstradition ein Ende zu setzen, deren Wurzeln bis in die Antike zurückreichen.

Welche Zukunft haben die alten Grundlagen des kritischen Denkens? Dies können wir nur herausfinden, wenn wir die Auswirkungen der Sprachtechnologien auf alle Bereiche der Gesellschaft, die sich auf die formelle und informelle Bildung auswirken, sorgfältig ermitteln und analysieren – insbesondere die weniger transparenten. Für diejenigen, die diesen dunklen Horizont studieren, gibt es noch unzählige Fragen, die geklärt werden müssen.

* Eleonora Albano, pensionierter Professor am Institut für Sprachstudien am Unicamp, ist Psychologe, Linguist und Essayist; koordinierte das erste brasilianische Projekt zur Sprachtechnologie.

Aufzeichnungen


[I] Hier.

[Ii] Wie ich im ersten zitierten Artikel gezeigt habe, ist es möglich, Assistenten personalisierte Stimmen zu geben 

[Iii] Shoshana Zuboff. Das große Andere: Überwachungskapitalismus und die Aussichten einer Informationszivilisation. Zeitschrift für Informationstechnologie, 30, 75–89, 2015.

[IV] Yanis Varoufakis. Technofeudalismus: Was machte den Kapitalismus so besonders? London: Vintage Books, 2023.

[V] Nancy Fraser.Kannibalenkapitalismus. São Paulo: Literarische Autonomie, 2024.

[Vi] Hier.

[Vii] Ich habe diese Situation analysiert in veröffentlichter Artikel auf der Website Die Erde ist rund.

[VIII] Joseph Weizembaum. Computerleistung und menschliche Vernunft: Vom Urteil zur Berechnung. New York: WF Freeman & Co, 1976.

[Ix] Skinner, BF (1938). Das Verhalten von Organismen: Eine experimentelle Analyse. New York: Appleton-Century-Crofts.

[X] Schauen hier.


Die Erde ist rund Es gibt Danke an unsere Leser und Unterstützer.
Helfen Sie uns, diese Idee aufrechtzuerhalten.
BEITRAGEN

Alle Artikel anzeigen von

10 MEISTGELESENE IN DEN LETZTEN 7 TAGEN

Chronik von Machado de Assis über Tiradentes
Von FILIPE DE FREITAS GONÇALVES: Eine Analyse im Machado-Stil über die Erhebung von Namen und die republikanische Bedeutung
Dialektik und Wert bei Marx und den Klassikern des Marxismus
Von JADIR ANTUNES: Präsentation des kürzlich erschienenen Buches von Zaira Vieira
Marxistische Ökologie in China
Von CHEN YIWEN: Von der Ökologie von Karl Marx zur Theorie der sozialistischen Ökozivilisation
Umberto Eco – die Bibliothek der Welt
Von CARLOS EDUARDO ARAÚJO: Überlegungen zum Film von Davide Ferrario.
Kultur und Philosophie der Praxis
Von EDUARDO GRANJA COUTINHO: Vorwort des Organisators der kürzlich erschienenen Sammlung
Papst Franziskus – gegen die Vergötterung des Kapitals
Von MICHAEL LÖWY: Die kommenden Wochen werden entscheiden, ob Jorge Bergoglio nur eine Zwischenstation war oder ob er ein neues Kapitel in der langen Geschichte des Katholizismus aufgeschlagen hat
Kafka – Märchen für dialektische Köpfe
Von ZÓIA MÜNCHOW: Überlegungen zum Stück unter der Regie von Fabiana Serroni – derzeit in São Paulo zu sehen
Der Bildungsstreik in São Paulo
Von JULIO CESAR TELES: Warum streiken wir? Der Kampf gilt der öffentlichen Bildung
Der Arkadien-Komplex der brasilianischen Literatur
Von LUIS EUSTÁQUIO SOARES: Einführung des Autors in das kürzlich veröffentlichte Buch
Jorge Mario Bergoglio (1936-2025)
Von TALES AB´SÁBER: Kurze Überlegungen zum kürzlich verstorbenen Papst Franziskus
Alle Artikel anzeigen von

ZU SUCHEN

Forschung

THEMEN

NEUE VERÖFFENTLICHUNGEN