von ELEONORA ALBANO
Die häufigste Fehlleitung im Diskurs der Big Techs – den derzeitigen Eigentümern „großartiger Sprachmodelle“ und ähnlicher Technologien – ist die Halbwahrheit
Die Allmacht der harten Wissenschaft aus dem globalen Norden
In einer Zeit zunehmender Datafizierung menschlicher Erfahrungen ist es nicht verwunderlich, dass das kritische Denken unter Wissenschaftlern abnimmt. Aber es ist auf jeden Fall alarmierend, dass dies in der Redaktion einer traditionellen, renommierten – und generalistischen – Fachzeitschrift passieren könnte. Daher war es eine Mischung aus Erstaunen und Empörung, als ich den unten transkribierten ersten Absatz des Leitartikels der Juli-Ausgabe 2023 des Magazins las Natur Maschinenintelligenz. Bekanntlich ist die Redaktionsgruppe NaturDas in der zweiten Hälfte des XNUMX. Jahrhunderts in London gegründete Institut hat es sich zur Aufgabe gemacht, der gesamten wissenschaftlichen Gemeinschaft verlässliche Übersichten über Fortschritte in verschiedenen Wissensbereichen zur Verfügung zu stellen.
"Frederick Jelinek, ein renommierter tschechisch-amerikanischer Forscher auf dem Gebiet der Verarbeitung natürlicher Sprache und der Spracherkennung, sagte 1985: „Jedes Mal, wenn ich einen Linguisten entlasse, steigt die Leistung des Spracherkenners“, was darauf hindeutet, dass es möglicherweise keinen effizienten Weg zur Einbindung gibt sprachliches Wissen in solchen Systemen. Gilt dieses Gefühl auch für hochmoderne Large Language Models (LLMs), die größtenteils Artefakte der Informatik und Ingenieurwissenschaften zu sein scheinen? Sowohl LLMs als auch Linguistik befassen sich mit menschlichen Sprachen, aber ob und wie sie sich gegenseitig nutzen können, ist unklar".[I]
Es ist zumindest unverantwortlich für diejenigen, die Fortschritte in der künstlichen Intelligenz (KI) vor dem Rest der wissenschaftlichen Gemeinschaft bekannt machen, zu ignorieren – oder nicht zugeben zu wollen –, dass die großen Sprachmodelle (im Folgenden „GMLs“, wie in englischen LLMs) verwendet werden ) haben sich intensiv mit Konzepten und Techniken aus der Linguistik sowie anderen Wissenschaften beschäftigt, die natürliche Sprache beschreiben und interpretieren.
Es gibt mindestens zwei Gründe für solche Fehlinformationen. Der erste ist politisch. Es ist nur so, dass menschliche Wissenschaftler – Linguisten, Psychologen, Soziologen, Anthropologen usw. – Verantwortlich für die Taxonomien, die für die Trainingsdatenbanken „großer Sprachmodelle“ wesentlich sind, sind im Allgemeinen Bürger der „zweiten Kategorie“, die in armen Ländern als ausgelagerte und prekäre Arbeitnehmer für die als „trivial“ geltenden Aufgaben der Datenkennzeichnung rekrutiert werden, und, ggf. Entscheidungen über die Kategorisierung treffen.
Die zweite ist die Erkenntnistheorie, die im Allgemeinen mit dieser Sicht auf das Handeln und insbesondere auf die menschliche Arbeit verbunden ist: Jede Handlung, egal welcher Komplexität, kann auf eine Kette von Assoziationen reduziert werden. Der Einfluss des englischen Empirismus wird dort erkannt, vermittelt durch seinen bereits Jahrhunderte alten[Ii] Fortsetzung in der amerikanischen Psychologie, Behaviorismus.
Wir werden im Folgenden sehen, wie der in Europa ab dem XNUMX. Jahrhundert entwickelte Handlungsbegriff nicht nur die Aktivität, sondern auch das menschliche Denken verdinglicht. Eine atomistische Vorstellung von Mechanik, die vage genug war, um sowohl in den Empirismus als auch in den Rationalismus zu passen, ermöglichte es, bestimmte Gruppen der Menschheit auszuschließen und sie der kartesischen Tiermaschine zu assimilieren. Damit rechtfertigten die europäischen Kolonialmächte leicht die Versklavung der Ureinwohner ihrer Kolonien sowie die Enteignung der Armen Europas.
Vor dem Hintergrund des kolonialen Szenarios möchte dieser Aufsatz zeigen, dass ein enger Zusammenhang zwischen der politischen Position, die bestimmte Arten wissenschaftlicher Arbeit auf ein Fließband reduziert, und der „wissenschaftlichen“ Position besteht, die die natürliche menschliche Sprache als eine unendliche Anzahl von Arbeiten betrachtet miteinander verbundene Ketten.
Die Tatsache, dass diese Ideen in der Produktion von Sprachtechnologien implizit sind, ermöglicht es ihrer stillschweigenden Gewalt, die der Ausbildung in Informatik innewohnt, für die Interessen der aktuellen Facette der Kolonialität zu kämpfen, die als Plattform- oder Überwachungskapitalismus bekannt ist.[Iii]
Denaturalisierte natürliche Sprache
Der oben erwähnte Leitartikel würdigt die empiristische Tradition nicht nur, weil das Magazin englisch ist, sondern vor allem, weil der Bereich der Verarbeitung natürlicher Sprache (im Folgenden NLP) – ein Teilbereich der künstlichen Intelligenz, der für die „großen Sprachmodelle“ verantwortlich ist. – wurde in einem stark empiristischen – oder genauer: verhaltensorientierten – Umfeld geboren und blühte auf.
Forscher auf diesem Gebiet glauben, dass der menschliche Geist eine Turing-Maschine ist, die aus Milliarden endlicher Automaten besteht.[IV] miteinander verflochten. Es ist daher nicht verwunderlich, dass die CEOs von Unternehmen in der Region die Menschen, die die „großen Sprachmodelle“ füttern, als bloße Maschinen betrachten, die die notwendigen und ausreichenden Informationen liefern, damit die „großen Sprachmodelle“ den Turing-Test bestehen können Zukunft als nächstes.
Diese Experten sind sich nicht einmal bewusst – oder tun so, als wüssten sie es nicht –, wie viel Intelligenz in der Arbeit von Etikettierern steckt. Wie der investigative Journalist Josh Dzieza dokumentierte,[V] In der künstlichen Intelligenz ist es praktisch unmöglich, sofort eine intuitive Kategorie zu übernehmen, da verschiedene Beispiele desselben Objekts von der Maschine tendenziell als undeutlich angesehen werden.
Um es so zu trainieren, dass es unsere Kategorien nachahmt, müssen Tagger eine detaillierte Unterkategorisierung erstellen und diese in einer Hierarchie von Ebenen organisieren. Wie andere Roboter erfordern „große Sprachmodelle“ eine unendliche Anzahl von Iterationen, um Verallgemeinerungen zu erreichen, zu denen jedes menschliche Kind nach relativ kurzer Datenexposition gelangt.
Bei der Verarbeitung natürlicher Sprache treten diese Schwierigkeiten vor allem in syntaktischen und semantischen Kontexten auf, die Diskontinuitäten enthalten.
Beachten Sie, dass die Aufgabe eines „großartigen Sprachmodells“ immer darin besteht, das nächste Wort vorherzusagen – wie es Texteditoren auf Mobiltelefonen tun, wenn auch grob. Bei Klischees, deren Begriffe sehr häufig vorkommen, ist dies eine einfache Aufgabe, in den meisten anderen Fällen jedoch sehr schwierig.
Daher ist bei Ausdrücken mit geringerer Häufigkeit eine statistische Schätzung nur dank vier Komponenten möglich, die alle wesentlich sind: eine Datenbank mit vielen Milliarden Wörtern; eine sehr leistungsfähige Technologie – deren Fähigkeit, Assoziationen zu lernen, die rekurrenter neuronaler Netze (sogar tiefer Netze, also mit mehreren Schichten) übertrifft; ausführliche grammatikalische und semantische Beschreibungen; und intensives Training, bei dem Assoziationsfehler iterativ korrigiert werden. Offensichtlich sind die oben genannten Beschreibungen und Korrekturen alle von Menschen gemacht – ausgelagert und prekär.
Es wird geschätzt, dass die Datenbanken, die dialogische Chatbots versorgen, wie z GPT-Chat, von Open AI, das Barde, von Google und die Bing, von Microsoft, liegen in der Größenordnung von 300 Milliarden Wörtern. Das sehr leistungsfähige Gerät, das seine Nutzung in Echtzeit ermöglicht, heißt Transformator – übersetzt als Transformator. Es handelt sich um ein statistisches Modell, das eine Reihe mathematischer Techniken namens „Aufmerksamkeit“ und „Selbstaufmerksamkeit“ anwendet, um Abhängigkeiten zwischen den Elementen einer Kette zu erkennen – im ersten Fall die Eingabe oder die Ausgabe; im zweiten die fortlaufende Kette selbst.
Eine Masse miteinander verbundener Roboter
Beachten Sie, dass der Transformator, der den „großen Sprachmodellen“ zugrunde liegt, wenig mit dem gleichnamigen Gerät zu tun hat, das die Spannungspegel des elektrischen Stroms ändert. Was sich ändert, wenn ein Wort nach dem anderen ausgewählt wird, sind die Beziehungen zwischen den Begriffen in der Datenbank (der Einfachheit halber im Folgenden Korpus genannt), da jedes neue Vorkommen den Eintrag zurückmeldet und das bestehende Beziehungsnetzwerk neu organisiert.
Es ist nicht schwer zu verstehen, wie. Alle Beziehungen werden durch Verbindungsgewichte zwischen den Knoten der Korpus-Subnetzwerke ausgedrückt. Diese Gewichte werden wiederum auf der Grundlage der Wahrscheinlichkeiten des gleichzeitigen Auftretens möglicher Wortpaare berechnet. Der Transformator ist leistungsstark genug, um allen Mitgliedern des Korpus sowie allen seinen Tags (grammatisch, semantisch, diskursiv, psychologisch, soziologisch, politisch, ethnographisch usw.) die gleichzeitige Verbindung miteinander zu ermöglichen, so dass die Berechnung von Das nächste Wort kann die unterschiedlichsten Aspekte der aktuellen Äußerung und ihres Kontextes berücksichtigen.
Es ist zu beachten, dass die zur Verfeinerung dieser Berechnung zur Verfügung stehende Menge an Etiketten gigantisch ist. Die einfachsten decken Aspekte wie Grammatikklassen und textuelle Formen der Benennung und Referenzierung ab (z. B. Eigennamen, Personalpronomen, Demonstrativpronomen, Possessivpronomen usw.).
Es ist auch erwähnenswert, dass die Kennzeichnung nicht auf Wörter beschränkt ist. Es versteht auch die Wortarten (z. B. Subjekt, Prädikat, Adjunkte); Phrasen und ihre syntaktische Klassifizierung (z. B. Haupt-, Unter- und entsprechende Unterklassen); und mündliche oder schriftliche Textgenres (z. B. umgangssprachlich, literarisch, journalistisch, juristisch, wissenschaftlich usw.).
Wer sich auf dieser Grundlage vorgestellt hat, dass die Datenbanken „großer Sprachmodelle“ wie gigantische Wörterbücher aussehen, deren „Einträge“ implizit in ihrem Verbindungsnetz enthalten sind, hat ein Drittel des Rätsels gelöst. Der Inhalt der anderen beiden Drittel ist jedoch ebenso wichtig: Er besteht aus entscheidenden grammatikalischen und enzyklopädischen Informationen – wiederum beigesteuert von den Taggern.
Tatsächlich sind alle Vorkommen desselben Wortes miteinander verbunden; und ihre unterschiedlichen Bedeutungen werden durch die mathematisch kodierten Ähnlichkeiten und Unterschiede zwischen den Sätzen, mit denen sie verbunden sind, dargestellt. Dies funktioniert letztendlich ungefähr wie die Beispiele in den Einträgen für polyseme Wörter in Wörterbüchern.
Darüber hinaus sind die Elemente jedes Satzes mit einer Grammatik verknüpft. Darin werden syntaktische Strukturen in Baumdiagrammen abgebildet[Vi], während sich semantische Strukturen auf verschiedene logische Formen (unter anderem über Aussagenkalkül) und semantische Felder beziehen (z. B. verbinden sich die Namen von Früchten von unten nach oben mit den Feldern Obst, Gemüse, Lebensmittel usw.). Die Grammatik bezieht sich auch auf Koreferenzindexer (z. B. im Satz „João disse que que está não faz o him“ kann sich das Pronomen „o“ auf João selbst, auf eine zweite Person oder auf eine dritte Person beziehen).
Schließlich werden Texte auf der Grundlage von Weltkenntnissen klassifiziert (z. B. Thema, Genre, Autorschaft, Ton, Stil, dokumentarische Quellen; mit Bezeichnungen, die von den allgemeinsten bis zu den spezialisiertesten reichen). Diese Informationen ermöglichen, nachdem sie sorgfältig erfasst und verknüpft wurden, eine unendliche Anzahl von Recherchen, um komplexe Anforderungen zu erfüllen, wie z. B. das Lösen von Schulaufgaben, das Verfassen von Rechtsgutachten, die Unterstützung bei medizinischen Diagnosen usw.
Diese gigantische und umfassend vernetzte Sammlung verleiht „großen Sprachmodellen“ eine enorme Fähigkeit, „neue“ Sätze durch Paraphrasierung von in der Datenbank selbst enthaltenen Datenfragmenten zu konstruieren. Wenn der bedeutende Linguist, Philosoph und Mathematiker Noam Chomsky das sagt Chatbots Sie sind bloße Plagiatoren, sie sagen nicht, dass sie nur wörtliche Ausschnitte aus der Basis kopieren und einfügen. Tatsächlich wird davon ausgegangen, dass sie durch Synonyme und Paraphrasen, die so aneinandergereiht sind, dass die Flicken und Nähte fast nicht wahrnehmbar sind, gute Pastiches ihres eigenen Inhalts produzieren. Umfangreiche Verbindungen ermöglichen es ihnen, leicht die besten Abkürzungen dafür zu finden.
Die Verkettung schlägt jedoch fehl und klingt seltsam, wenn ein Experte für ein bestimmtes Thema dem Roboter eine Fangfrage stellt. Mal sehen, wie es der Linguistin Roni Katzir geht[Vii] tat das ChatGTP4 verlieren Sie sich mit Auslassungspunkten, die jeder, der Englisch beherrscht, leicht verstehen würde. Die Aufgabe bestand darin, den besten dieser beiden Sätze auszuwählen: (1) Die Person, die Mary gestern getroffen hat und über die John morgen mit Ed sprechen wird, ist angekommen; (2) Die Person, die Mary gestern kennengelernt hat und die John morgen mit Ed über seine neue Idee sprechen wird, ist angekommen.
Der Roboter zögerte nicht zu antworten, dass es das zweite sei, da es „informativer“ sei. Damit ignorierte er eine englische Grammatikregel, die eine Koreferenz zwischen zwei oder mehr koordinierten Ellipsen erfordert – in diesem Fall das Objekt von „versiegelte “ und das Komplement des präpositionierten Verbs „sich unterhalten Über mich'. Das Hinzufügen von "seine neue Idee„ führt zu einem drastischen Bruch in der Bedeutung des Satzes, der bereits durch die langen Trennungen zwischen dem Subjekt und dem Hauptverb sowie zwischen dem Verb „ belastet wird.sich unterhalten“ und das Adverb „morgen'. Daher ist es in (2) nicht möglich, den Zusammenhang zwischen „die Person“ und die beiden koordinierten Vorkommnisse von „zur Abwicklung, Integrierung, Speicherung und'. Die menschliche Reaktion besteht einfach darin, den anormalen Satz zu beurteilen, während der Roboter eine Interpretation erzwingen soll.
Die Tatsache, dass der Autor solch gewundene Phrasen geprägt hat, ist wahrscheinlich ein Trick, um die Suche nach einem Analogon in der Datenbank zu erschweren. Wichtig ist, dass Satz (1) dennoch grammatikalisch ist und Satz (2) nicht. Immer wenn die Suche in einem Labyrinth endet, verirrt sich der Roboter, weicht ab und greift auf eines seiner vorab aufgezeichneten Klischees zurück.
Ähnliche Klischees tauchen auch auf, wenn jemand mit der Bitte um eine moralische Haltung konfrontiert wird. Indem man darauf besteht, dass die ChatGPT Der Forscher Jeffrey Watumull, Mitarbeiter und Co-Autor von Noam Chomsky, nahm eine persönliche Perspektive auf ein moralisches Thema ein[VIII], entlockte ihm eine reumütige Erklärung seiner Nicht-Menschlichkeit. Achten wir auf die „Bescheidenheit“ der Maschine: „Als KI bin ich ein Modell für maschinelles Lernen, das auf großen Mengen an Textdaten trainiert wurde, und ich habe keine persönlichen Erfahrungen oder Gefühle. Ich bin nicht bewusst, selbstbewusst oder in der Lage, persönliche Perspektiven zu haben. Ich kann auf der Grundlage der Daten, auf deren Grundlage ich geschult wurde, Informationen und Analysen bereitstellen, habe jedoch nicht die Fähigkeit, persönliche Meinungen oder Überzeugungen zu fälschen. Obwohl ich Sprache verstehen und interpretieren kann, verfüge ich nicht über die subjektive Erfahrung, die Menschen haben"[Ix]
Die einzige menschliche Eigenschaft, die der Roboter nicht aufgibt und die den Ideen seiner Schöpfer Ausdruck verleiht, ist das Verständnis natürlicher Sprache. So wie die uneingestandene Linguistik unter Sprachrobotern ihre Tagger verbirgt, mechanisiert die uneingestandene Psychologie ihrer Schöpfer die menschliche Sprachkapazität und setzt sie durch einen riesigen Transformator einer gigantischen Masse miteinander verbundener endlicher Automaten gleich.
Wir werden weiter unten sehen, dass die Richtlinien von Chatbot-Anbietern drei unterstützende Bestandteile haben: (i) erschöpfende Aussagen vermeiden; (ii) die öffentliche Neugier auf mögliche zukünftige Entwicklungen „großartiger Sprachmodelle“ wecken; (iii) die Kontroverse über sein transhumanes Potenzial ansprechen[X] als bloßer Meinungsstreit.
Maßgeschneiderte Vorführungen
Die häufigste Fehlleitung im Diskurs der Big Techs – den derzeitigen Eigentümern „großartiger Sprachmodelle“ und verwandter Technologien – ist die Halbwahrheit. Solche Unternehmen sind Meister darin, ihre Nachsicht – um nicht zu sagen Duldung – mit den Unwahrheiten zu verschleiern, die in den Medien über ihre Produkte verbreitet werden. Wenn man sie jedoch befragt, geben sie schnell Erklärungen ab, die zwar auf den ersten Blick zutreffend sind, aber oft mangelhaft und schwammig sind.
Ein gutes Beispiel ist die Art und Weise, wie Google sich kürzlich von der Verantwortung für Gerüchte über die menschlichen Eigenschaften seines ersten Chatbot-Prototyps befreit hat: „LaMDa"(Sprachmodell für Dialoganwendungen), im Jahr 2021. Anstatt ordnungsgemäß eine Grundsatzerklärung herauszugeben und zu veröffentlichen, wurde sie erst öffentlich, nachdem ein Ingenieur im Team mit der Behauptung, das Modell sei empfindungsfähig geworden, einen viralen Aufschwung erreichte.
Der Ingenieur wurde suspendiert und das Unternehmen verkündete seinen Standpunkt, dass das Empfindungsvermögen noch „noch weit davon entfernt“ sei, durch Roboter, Sprache oder auf andere Weise erreicht zu werden. Damit schüttelte er die Verantwortung für die falschen Nachrichten ab – ohne jedoch seine Pläne zu leugnen, den Nachwuchs seiner Abteilung für künstliche Intelligenz zunehmend zu „humanisieren“. So sehr, dass der jüngste Nachkomme von LaMDaoder Barde, verfügt bereits über ein auf das Thema zugeschnittenes Klischee.
Unter anderen Prädikaten ist das Barde ist kostenlos und meiner Meinung nach schöner als das ChatGPT, sein kurz zuvor von Open AI mit Unterstützung von Microsoft gestarteter Rivale. Hier ist seine sorgfältige Antwort auf eine Frage, die ich ihm gestellt habe, wobei er Watumulls Vorbild buchstabengetreu folgte: „Das Konzept der Chatbot-Intelligenz, des Bewusstseins, der Stimmung und der Fähigkeit, moralische Urteile zu fällen, ist komplex und wird von Experten immer noch diskutiert. Es gibt keine einheitliche Definition dieser Begriffe und sie werden häufig synonym verwendet. Einige Experten glauben, dass Chatbots zwar intelligent, aber nicht bewusst oder empfindungsfähig sein können. Sie argumentieren, dass Chatbots einfach sehr ausgefeilte Algorithmen seien, die in der Lage seien, Informationen zu verarbeiten und auf eine scheinbar intelligente Weise zu reagieren. Allerdings verfügen sie nicht über das gleiche Maß an Bewusstsein oder Selbstbewusstsein wie Menschen"[Xi]
Wie man sieht, scheinen beide Roboter darauf trainiert worden zu sein, ihre Schöpfer nicht mit den Menschheitsphantasien zu gefährden, die sie in ihren Benutzern wecken.
Um diese Idee noch einmal zu testen, habe ich das eingereicht Barde zu Katzirs Diskussion über die beiden Sätze mit unterschiedlichen Ellipsen im Hinblick auf die Grammatikalität im Englischen. Er kam sofort mit dieser Antwort heraus, analog zu der des GPT-Chat. Mal sehen: "Beide Sätze sind grammatikalisch korrekt, haben aber unterschiedliche Bedeutungen. Der erste Satz: „Die Person, die Mary gestern getroffen hat und über die John morgen mit Ed sprechen wird, ist angekommen“ ist prägnanter und direkter. Es sagt uns, dass die Person, die Mary gestern getroffen hat, dieselbe Person ist, über die John morgen mit Ed sprechen wird. Der zweite Satz: „Die Person, die Mary gestern kennengelernt hat und mit der John morgen mit Ed über seine neue Idee sprechen wird, ist angekommen“ ist detaillierter. Es sagt uns, dass die Person, die Mary gestern getroffen hat, dieselbe Person ist, mit der John morgen mit Ed über seine neue Idee sprechen wird. Der erste Satz ist besser, wenn Sie die Tatsache betonen möchten, dass die beiden Personen gleich sind. Der zweite Satz ist besser, wenn Sie die Tatsache hervorheben möchten, dass John mit Ed über seine neue Idee sprechen wird. Letztendlich hängt der beste Satz vom Kontext ab, in dem er verwendet wird"[Xii]
Abschließend wird eine Vergleichstabelle der beiden Sätze präsentiert, die hier nicht wiedergegeben werden kann, da es sich um eine einfache Zusammenfassung der oben transkribierten „Erklärung“ handelt.
Versuchen wir nun, die Verantwortungslosigkeit der ausweichenden Reden der Big Techs über ihre Chatbots genauer zu verstehen. Es gibt einen guten Grund für sie, die Unterschiede zwischen Computern und Menschen mit der gebotenen Transparenz und wissenschaftlichen Genauigkeit zu behandeln: Die Tendenz des Menschen, Sprachroboter zu vermenschlichen, ist den Menschen seit mehr als einem halben Jahrhundert bekannt. Die schädlichen Folgen dieser Voreingenommenheit – ob real oder potenziell – sind ebenfalls bekannt.
Der Eliza-Effekt
Der erste Chatbot stammt aus dem Jahr 1966 und wurde von seinem Schöpfer, dem Mathematiker und Computeringenieur Joseph Weizenbaum, der als einer der Väter der künstlichen Intelligenz gilt, Eliza genannt.
Es ist wichtig anzumerken, dass Joseph Weizenbaum diese Vaterschaft entschieden abgelehnt hat. Als deutscher Jude aus einer Familie, die kurz vor dem Zweiten Weltkrieg nach Nordamerika ausgewandert war, nutzte er seine mathematischen Fähigkeiten, um in der Schule und im Leben zu überleben. Nachdem er zunächst in Kanada gelebt hatte, zog er dann in die USA, wo er eine akademische Karriere begann und schließlich als Gastprofessor in der Abteilung für Künstliche Intelligenz am MIT tätig war. Da seine wachsende Skepsis gegenüber KI ihn von seinen Kollegen entfremdete, kehrte er 1996 schließlich nach Deutschland zurück, ermutigt durch die Aufgeschlossenheit der deutschen Intelligenz für seine Ideen.
Obwohl er nie aufgehört hat, in der Informatik zu arbeiten, verbarg er seine Leidenschaft für Human- und Sozialwissenschaften nicht. Die Traumata der Flucht vor dem Nationalsozialismus und die Wechselfälle des Exils führten schließlich dazu, dass er irgendwann mit der Psychoanalyse in Berührung kam. Seitdem hat er es für wirksam, nützlich und unverzichtbar für das Verständnis der menschlichen Natur erklärt.
Als ich Eliza als Roboter-„Therapeutin“ entwarf, war mir bewusst, dass ich ihr kein Verständnis für die Komplexität der Psychoanalyse vermitteln konnte. Anschließend stellte er sich sie als Rogerianische Therapeutin vor, das heißt als Anhängerin der Methode von Carl Rogers, einem amerikanischen klinischen Psychologen, der eine nicht-direktive, personenzentrierte Psychotherapie befürwortete. Dies bestand grob gesagt darin, die Aussage des Patienten in Formulierungen wie „Sie sagen mir, dass …“ einzufügen, ergänzt durch andere vage und ermutigende Klischees wie: „Und wie wollen Sie damit umgehen?“. Nachdem dieses Grundrepertoire zusammengestellt war, war es nicht schwierig, die Software zu erstellen und zu testen.
Eliza, das lediglich als Hilfsmittel zur Erforschung der Funktionsfähigkeit eines Konversationsroboters begann, wurde bald ein großer Erfolg in der Öffentlichkeit. Dass das Experiment eine andere Richtung einschlug als erwartet, erkannte Joseph Weizenbaum, als die Teilnehmer begannen, sich zu weigern, ihm den Inhalt ihrer Dialoge mit der Maschine zu zeigen, mit der Begründung, es handele sich um Privatsache.
Er war sich sicher, dass Eliza nicht wirklich verstand, was sie ihr sagten: Sie simulierte dieses Verständnis nur erfolgreich. Allerdings wurde ihm bald klar, dass sein Publikum es kaum bemerken würde. Anschließend vermutete er, dass sie in eine psychoanalytische Übertragung vertieft waren – überraschenderweise gerichtet auf die Maschine.
Von da an wurde dieser humanistische und politisierte Ingenieur dafür bekannt, immer vehementer zu argumentieren, dass es einen inkommensurablen Unterschied zwischen der menschlichen Sprache, die Urteile hervorbringt, denen widersprochen werden kann, und ihren digitalen Simulakren gibt, die nur aus Berechnungen bestehen, auf die Bezug genommen werden kann auf Wortfolgen, die von einer Maschine ausgegeben werden, die so programmiert ist, dass sie Gespräche simuliert.
Joseph Weizenbaum argumentierte, dass Maschinen niemals wie Menschen denken würden, weil sie nur rechnen können. Die Entstehung und Weiterentwicklung neuronaler Netze nach der Formulierung seiner Thesen entkräftet seine Argumente nicht. Qualitativ oder quantitativ (wie es bei den Gewichtungen der Verbindungen zwischen Knoten in solchen Netzwerken der Fall ist) haben die Berechnungen der Konversationstechnologie nicht Zugriff auf alle Arten von Informationen, die lebende Gehirne, ob Mensch oder Tier, erfassen, sammeln und verarbeiten können Verfahren.
Diese Position wird in den Titeln seiner beiden Hauptbücher deutlich. Beides sind Versuche zu zeigen, dass die digitale Simulation natürlicher Sprache nichts anderes als eine Illusion ist, die Benutzer dazu bringt, ihre Menschlichkeit auf Maschinen zu projizieren.
Das erste Buch trägt den Titel Computerleistung und menschliche Vernunft: Vom Urteil zur Berechnung [XIII]. Der zweite Roman wurde von der deutschen Autorin Gunna Wendt mitverfasst und trägt den Titel Inseln im Cyberstream: Auf der Suche nach Zufluchtsorten der Vernunft in einer programmierten Gesellschaft[Xiv], das bei seiner Rückkehr nach Deutschland geschrieben und erst später ins Englische übersetzt wurde. Ein weiterer suggestiver Titel ist „Gegen den Imperialismus der instrumentellen Vernunft“, ein Kapitel in einer Sammlung über Kontroversen im Computeruniversum.
Beide Bücher erhielten in den USA negative Kritiken. Beispielsweise veröffentlichte John McCarthy, der 1956 zusammen mit Marvin Minsky und Kollegen den Begriff künstliche Intelligenz prägte, 1976 einen langen Text[Xv] Er nannte das erste Buch moralisch und inkohärent. Andererseits rezensierte Dwight Hines, Professor für Literatur und soziale Gerechtigkeit an der Point Park University, 1980 dasselbe Werk:[Xvi] Ich beschreibe es als eine schwierige, aber lohnende Lektüre.
Bis zu seinem Tod im Jahr 2008 äußerte Joseph Weizenbaum große Besorgnis über die Entwicklung dessen, was er „die programmierte Gesellschaft“ nannte. Er wäre sicherlich deprimiert gewesen, wenn er im März 2023 unter uns gewesen wäre, als es durch ein „Update“ von Eliza zu einem tödlichen Zwischenfall kam. Das verantwortliche Unternehmen war Eleuther AI, das Eliza auf Basis seines Sprachmodells GPT-J neu gestaltete, das wiederum auf Chat GPT basierte.
Im März 2023 beging ein junger belgischer Familienvater, deprimiert von der drohenden Umweltkatastrophe, plötzlich Selbstmord. Wie seine Frau der Presse berichtete, „behandelte“ er seine Depression mit der jetzigen Eliza und hatte ihre Unterstützung für diese Entscheidung.
Diese Geschichte muss ausgereicht haben, um darauf hinzuweisen, dass aktuelle Sprachmodelle Joseph Weizenbaums Befürchtungen rechtfertigen, dass eine Gesellschaft, die zutiefst an Computer gebunden ist, ihren Weg verlieren und am Ende entscheidende Entscheidungen für die Zukunft der Bürger oder sogar der Menschheit delegieren könnte.
Es sei daran erinnert, dass Chatbots nicht einmal von Kriminellen angegriffen werden müssen, um eine Gefahr darzustellen: Komplexe dynamische Systeme, wie sie von Transformern implementiert werden, weisen typischerweise unvorhersehbare Phänomene auf. Es können jederzeit Neuigkeiten mit ebenso unvorhersehbaren Folgen auftauchen. Es ist möglich, dass einige von ihnen die Benutzer letztendlich in stressige und peinliche Situationen bringen. Und – noch schlimmer – es ist nicht ausgeschlossen, dass sie plötzlich Inhalte anzeigen, die wir für absurd, unethisch und sogar bedrohlich halten würden.
Dies ist auf abrupte Sprünge im Verhalten dieses Systemtyps zurückzuführen, die durch Kurven bekannter statistischer Funktionen gekennzeichnet sind. Beispielsweise weist die „S“-Kurve an der Basis und am oberen Ende eine sehr geringe Änderungsrate und in der Mitte eine sehr hohe Änderungsrate auf und kann unter anderem den Übergang von einer Ebene zur anderen charakterisieren. Die Parameter komplexer Systeme, die Transformatoren innewohnen, weisen häufig „S“-förmige Trajektorien auf.
Der Eliza-Effekt erklärt nicht nur die einfache Anbindung an Chatbots, sondern trägt auch dazu bei, die grassierende Verbreitung von Fehlinformationen in sozialen Netzwerken zumindest teilweise zu rationalisieren. Benutzer dieser virtuellen Räume erweitern leicht – oft mit böswilligen Absichten – die Übertragungsbeziehungen, die bereits mit ihren eigenen Maschinen bestehen, auf Fremde. Es ist daher schwerwiegend, dass Diensteanbieter vorgeben, das Phänomen zu ignorieren und sich von jeglicher Verantwortung dafür freizustellen.
Denken wir daran, dass die Untersuchung dieser Art von Trends nicht nur Informatiker betrifft, die sich der Risiken der digitalen Welt bewusst geworden sind. Die Geselligkeit von Netzwerken wirft auch viele Forschungsarbeiten in den Abteilungen Psychologie, Soziologie, Anthropologie und Politikwissenschaft an Universitäten und Forschungszentren auf der ganzen Welt auf. Daher gibt es bereits eine umfangreiche wissenschaftliche Literatur zu den Beziehungen zwischen Menschen und ihren Maschinen.
Gleichgültig, ob Big Techs weiterhin um den Markt für virtuelle Assistenten konkurrieren und dabei wiederholte Warnungen aus der Wissenschaft und dem kritischen Journalismus ignorieren. Mit anderen Worten: Aus ihrer Sicht eröffnen Sprachtechnologien lediglich Möglichkeiten, neue Märkte zu schaffen und Gewinne zu maximieren.
Schlechte Grammatik, noch schlechtere Pragmatik
Das oben Gesagte muss deutlich gemacht haben, dass Chatbot-Besitzer nicht nur darauf abzielen, Internet-Suchmaschinen zu verbessern. Ihr Ziel ist es, sprechende Roboter zu bauen, die die Nutzer endgültig für sich gewinnen und ihr Leben kontrollieren, um ihre Bedürfnisse und Konsumgewohnheiten zu beeinflussen. Offensichtlich sind sie sich der Faszination bewusst, die Roboter auf die Menschheit ausüben – von ihren Anfängen im Mittelalter bis zu den heutigen Kinofilmen, einschließlich der genialen Automaten des XNUMX. und XNUMX. Jahrhunderts.
Benutzer, die zwischen Misstrauen und Bindung schwanken, betrachten diese Geräte als erschwingliche Diener, die bereit sind, ihnen bei körperlich oder geistig schwierigen oder langwierigen Aufgaben zu helfen. Die bereits verfügbaren virtuellen Assistenten wie Siri von Apple oder Alexa von Amazon erforschen die einfachsten Aspekte dieser Nachfrage, die in naher Zukunft wahrscheinlich wachsen und komplexer werden wird.
Der Überwachungskapitalismus greift daher auf natürliche Sprache zurück, um Einzelpersonen vor der Einsamkeit und Hilflosigkeit zu „trösten“, die er selbst sät – trotz der wiederholten Warnungen von Wissenschaftlern aus vielen Bereichen, einschließlich PLN[Xvii]. Auf jeden Fall haben die jüngsten Fortschritte in seiner Konversationsfähigkeit bereits das Publikum im globalen Norden überzeugt. Sie sind auch im globalen Süden auf dem Vormarsch, insbesondere in der Mittelschicht – was tatsächlich zur Verschärfung der Ungleichheiten beiträgt.
Virtuelle Assistenten sind in der Lage, Diktate aufzunehmen und Tagesordnungen, Gespräche, E-Mails, Telefonanrufe, Smart Homes usw. zu steuern. Sie ziehen Verbraucher an, die durch sie ihren Wunsch nach einer Privatsekretärin erfüllen, der sie nicht nur Aufgaben, sondern auch Zuneigungen übertragen können . Da die GML-Technologie den Weg für neue Formen des Dialogs öffnet, die auf komplexen dynamischen Systemen basieren, neigen aktuelle „Elizas“ dazu, spontane Sprünge zu machen und sich neue Fähigkeiten anzueignen, die immer weniger vorhersehbare – und vielleicht sogar gefährliche – Äußerungen hervorbringen.
Auf jeden Fall ist es unmöglich geworden, die Manipulationen zu stoppen, die das Internet aufgrund des Eliza-Effekts überschwemmen. Wie Joseph Weizenbaum verstand, handelt es sich hierbei um ein globales Massenphänomen. Daher muss unbedingt klargestellt werden, dass diese Manipulation auf falschen Annahmen über die menschliche Intelligenz und die natürliche Sprache beruht. Diese Klarheit ist unerlässlich, damit sich kritisches Denken auf mögliche Strategien zur Konfrontation mit der politischen Doktrin konzentrieren kann, die solche Prämissen natürlich beinhaltet.
Ein einziges Wort fasst zusammen, was die Konzeption von Sprache und die von Internetplattformen übernommene Konzeption von Intelligenz gemeinsam haben, nämlich: Mechanismus, also die philosophische Lehre, dass die Natur durch mechanische Kausalität regiert wird – die immer linear und deterministisch ist. Nun zeigt die Geschichte, dass Mechanismen leicht mit autoritären politischen Ansichten in Verbindung gebracht werden und eine besondere Affinität zum Faschismus haben.
Die mechanistische Konzeption natürlicher Sprache, typisch für die amerikanische Version des Strukturalismus, versteht Grammatik als eine Reihe von Regeln für die Reihenfolge von Wörtern. Sein Gegenstück in der Psychologie – der Behaviorismus – ist noch einfacher und reaktionärer: Er betrachtet den menschlichen Geist als eine Abfolge atomarer Inhalte, die ihren Ursprung in Eindrücken haben, die von außen kommen.
Nach der vom amerikanischen Psychologen B.F. Skinner formulierten Version des Behaviorismus haben wir nicht einmal einen Verstand; Dank einer Form der Konditionierung, die als Operant bezeichnet wird, werden wir nur von festen und sequenzierten Verhaltensweisen bewegt. Es besteht darin, zufällige Verhaltensweisen zu belohnen, um sie kumulativ zu formen. Wenn also beispielsweise eine Taube ihren Flügel, ihr Bein oder ihren Schnabel bewegt, um zum Tanzen anzuregen, wird sie vom Trainer mit einer Portion Futter belohnt. Diese wiederholten Verstärkungen führen ihn nach und nach zu allerlei Pirouetten.[Xviii]
In den 1950er Jahren wurde der junge Noam Chomsky berühmt, weil er den Behaviorismus kritisierte und seine Affinität zum Faschismus anprangerte. Empört über die mechanistischen Thesen über natürliche Sprache, die Skinner in dem Buch darlegt Verbales Verhalten, konfrontierte ihn mit einer vernichtenden Kritik.[Xix] Dies bestand aus einem überzeugenden Nachweis, dass die Wörter jeder Sprache hierarchisch und diskontinuierlich organisiert sind – und damit den sequentiellen Regeln endlicher Grammatiken widersprechen, die das formale Korrelat der operanten Konditionierung darstellen.
Aus diesem Grund greifen der berühmte Linguist und seine Schüler die „großen Sprachmodelle“ an und beharren mit der gleichen Begeisterung wie Weizenbaum darauf, dass sie nichts weiter als Simulationen seien. Zu diesem Zweck betonen sie ihre Schwierigkeiten mit syntaktisch-semantischen Diskontinuitäten, wie etwa dem Verb „rede über“ und seinem Objekt „die Person“ in dem Satz, der die verwirrte GPT-Chat o Barde.
Syntax und Semantik sind jedoch nicht die einzigen Schwächen dieser Modelle. Ein weiterer Fehler bei einem wesentlichen Aspekt natürlicher Sprachen betrifft die Pragmatik, die den sprachlichen und situativen Kontext umfasst.
Erinnern wir uns übrigens daran, dass Deixis der Aspekt der natürlichen Sprache ist, der am stärksten vom Situationskontext abhängt. Alle Wörter, die auf die Zeit und/oder den Ort der Äußerung und/oder Aussage hinweisen, sind nur durch einen gelebten oder imaginären Kontext interpretierbar. Nehmen wir zum Beispiel Personalpronomen.
Die Mehrdeutigkeit des Satzes „Sie sagte, sie nimmt sie“ ist für die geschriebene Sprache sicherlich unangemessen, für die gesprochene Sprache jedoch völlig natürlich, zu deren Kontext Gesten, Blicke, Töne und Stimmqualitäten gehören. Wenn es beispielsweise darum geht, wer „sie“ nimmt, gibt es mehr als eine Möglichkeit, die genannte Frau zu bezeichnen. Sie kann mit dem ersten „sie“ koreferenziert sein, was „sie selbst“ bedeutet, oder es kann ein anderes sein. Andersartigkeit wird im Allgemeinen durch ein Kopfnicken oder einen einfachen Blick angezeigt. Das dritte „sie“ kann natürlich eine Person oder eine Sache sein.
Diese Bezüge können auch anaphorisch sein, das heißt, den bereits erwähnten Personen oder Dingen können die gleichen Rollen zugeschrieben werden. Darüber hinaus kann das Verb „levar“ eine andere Bedeutung annehmen: Beispielsweise kann sich „sie nimmt sie“ bei einer Meisterschaft auf einen Sportler (oder eine Mannschaft mit weiblichem Namen) beziehen, der der Favorit auf den Pokalsieg ist.
Lassen Sie uns nun die Analyse dieses Satzes untersuchen Barde. Es ist merkwürdig, dass er auf eine Doppeldeutigkeit der Bedeutungen hinweist, diese aber anhand von Beispielen veranschaulicht, die sie nicht differenzieren.
„Der Ausdruck ‚Sie sagte, sie nimmt sie‘ hat zwei mögliche Bedeutungen, abhängig von der Interpretation der Pronomen ‚sie‘.“ Im ersten Sinne beziehen sich beide Pronomen auf dieselbe Person. In diesem Fall bedeutet der Ausdruck, dass eine Frau sagte, dass sie selbst eine andere Frau nehmen würde. Zum Beispiel könnte eine Frau zu einer Freundin sagen: „Ich habe dir gesagt, ich gehe mit dir ins Kino.“
Im zweiten Sinne beziehen sich die beiden Pronomen „sie“ auf unterschiedliche Personen. In diesem Fall bedeutet der Satz, dass eine Frau sagte, sie würde eine andere Frau nehmen. Eine Mutter könnte zum Beispiel zu ihrer Tochter sagen: „Ich habe gesagt, ich bringe dich zur Schule.“
Um die korrekte Bedeutung des Ausdrucks zu bestimmen, muss der Kontext berücksichtigt werden, in dem er verwendet wird. Wenn der Satz beispielsweise in einem Gespräch zwischen zwei Frauen gesagt wird, ist es wahrscheinlicher, dass er die erste Bedeutung hat. Wenn der Satz jedoch in einem Gespräch zwischen einer Frau und einem Kind gesagt wird, ist es wahrscheinlicher, dass er die zweite Bedeutung hat.“
Und so präsentiert der Chatbot weiterhin Sätze mit identischen Koreferenzen, um angeblich die beiden Bedeutungen zu unterscheiden. Die lange und ausführliche Erklärung macht immer die gleichen Fehler. Am Ende versucht ein komischer „fiktionaler“ Abschnitt, eine Zeitspanne zwischen den beiden Auftritten von „ihr“ einzuführen.
Mal sehen: „Außerdem ist es wichtig, sich daran zu erinnern, dass der Ausdruck ‚Sie sagte, sie nimmt sie‘ auch eine dritte Bedeutung haben kann, in der sich die beiden Pronomen ‚sie‘ auf dieselbe Person beziehen, jedoch zu unterschiedlichen Zeitpunkten.“ Zum Beispiel könnte der Satz „Sie sagte, sie würde sie zur Schule bringen“ bedeuten, dass eine Frau sagte, sie würde ein Kind zur Schule bringen, auch wenn das Kind sie selbst als Erwachsener ist.“
Und zum Abschluss greift er noch einmal auf seine klischeehafte Zusammenfassung der Pragmatik zurück: „In diesem Fall wird die Bedeutung des Satzes durch den Kontext und die Weltkenntnis des Sprechers bestimmt.“
Das oben Gesagte untermauert die Simulationshypothese nachdrücklich und macht die Behauptung, dass der Chatbot über Intelligenz und Verständnis für natürliche Sprache verfügt, unglaubwürdig. Andererseits zeigt es auch, dass die Simulation den Benutzer selten täuscht: Dies geschieht nur, wenn die Beziehungen zwischen Wörtern die sequentielle Logik des Transformators verletzen, die immer darin besteht, das nächste Wort vorherzusagen.
Vor diesem Hintergrund kommen wir nicht umhin, mit der Frage abzuschließen: Welche Überzeugungskraft hat diese Logik, wenn man bedenkt, dass sie in den meisten Fällen richtig ist? Um eine Antwort darauf zu finden, betrachten wir eine andere Anwendung von Transformatoren, bei der die Erfolge die Fehler überwiegen. Dies ist ein Mittel zur Schätzung des nächsten Signalabtastwerts einer Sprachaufzeichnung durch sukzessive Approximationen. Diese Technik ist in der Lage, eine Stimme so zu verändern, dass sie zu einem mehr oder weniger überzeugenden Klon einer anderen Stimme wird.
Was wäre, wenn Eliza eine vertraute Stimme hätte?
Obwohl das Klonen von Stimmen im globalen Norden bereits recht weit fortgeschritten ist, bleibt es aufgrund seiner ethischen Implikationen umstritten. Es handelt sich um eine Technologie, die sich die Agilität und Rechenleistung von Transformatoren zunutze macht, um die folgende Frage zu beantworten: Wie kann eine bestimmte Stimme unbegrenzt reproduziert werden, das heißt, sie auf Äußerungen ausgeweitet werden, die nicht vom Sprecher aufgezeichnet wurden?
Die Antwort ist einfacher als es scheint. Überlagern Sie einfach die akustischen Eigenschaften der betreffenden Stimme mit der Ausgabe eines Text-zu-Sprache-Konvertierungssystems. Dazu ist es notwendig, eine große Stichprobe der Zielstimme zu erhalten und diese wiederholt mit der synthetischen Stimme zu vergleichen. Um die Modellierung der akustischen Parameter der Zielstimme zu erleichtern, werden zunächst Phrasen synthetisiert, die mit vorhandenen identisch sind. Die synthetische Stimme wird dann mehreren Vergleichen unterzogen und durch aufeinanderfolgende Annäherungen modifiziert, bis jede Probe mit einem vernachlässigbaren Fehler gegenüber der vorherigen schätzbar ist. Die resultierende Funktion, die die Wellenform einer Stimme in eine andere umwandelt, wird als Stimmmodell bezeichnet.
Die Änderung erfolgt stufenweise. Wenn die wahrgenommene Qualität des resultierenden Signals zufriedenstellend ist, kann das Modell auf neue Äußerungen angewendet werden. Anschließend wird es für jede Stichprobe wiederholt, bis eine akzeptable Fehlerrate bei der Vorhersage der nächsten Stichprobe erreicht ist, und so weiter. Diese wiederkehrenden Korrekturen bewirken, dass sich die Töne und Klangfarben der beteiligten Stimmen annähern und sich ihre Qualitäten immer mehr annähern.
Wie die internationale Presse berichtet, gibt es bereits „Klone“, also Modelle, der Stimmen unzähliger verstorbener Prominenter. Man kann beispielsweise das Stimmmodell eines Sängers auf Aufnahmen eines seiner Nachahmer anwenden, um die Natürlichkeit der Nachahmung zu maximieren und so die Ausweitung auf neue Lieder zu ermöglichen, auch auf solche, die nach dem Tod erschienen sind.
Os deckt Digitale Sprecher schneiden in der Regel besser ab als Menschen, da die Technologie zur Vorhersage und Modifizierung des Sprachsignals die Auswirkungen morphologischer Unterschiede zwischen den beteiligten Stimmapparaten abschwächt.
Es ist zu beachten, dass Nachahmer keine vollständige Kontrolle über die Qualität ihrer Stimme haben, da jede Lautäußerung den physischen Grenzen des Körpers untergeordnet ist, der sie aussendet. Aus diesem Grund agieren diese Künstler mehr oder weniger karikativ und betonen in der Regel die hervorstechendsten Merkmale der imitierten Stimme.
Durch die Minimierung des Vorhersagefehlers zwischen aufeinanderfolgenden Stichproben korrigiert die Näherungsmethode neben anderen Parametern automatisch diejenigen, die physikalische Unterschiede zwischen Sprechern oder Sängern vermitteln. Auf ähnliche Stimmen angewendet, die in Felddatenbanken gefunden werden, ermöglicht es nahezu perfekte Klone.
Mit dieser Technologie, die im Internet zum Testen und/oder Erwerb verfügbar ist, können die Stimmen von Sekretariats- und/oder Therapierobotern ausgewählt werden, sofern diese nicht gegen das Urheberrecht verstoßen. Tatsächlich gibt es in den USA bereits Firmen, die verstorbene Angehörige „nachbilden“, um Interessierten mit ihren Stimmen und Bildern neue Interaktionen zu ermöglichen.[Xx] Diese Avatare werden auf der Grundlage von Videos und Texten erstellt, die von Abwesenden hinterlassen wurden. Es gibt sogar Shows, in denen verstorbene Künstler mit lebenden Kollegen in Gesangs- und Tanznummern auftreten.[xxi]
Es lohnt sich nun, über die möglichen Folgen der Kombination eines Chatbots mit geklonten Stimmen und animierten Bildern nachzudenken. Was zunächst ins Auge fällt, ist die Vergrößerung der Übertragungsbeziehungen der Benutzer zu den „humanisierten“ Robotern.
Eine weitere offensichtliche Konsequenz ist die Schwierigkeit der Regulierung. Beispielsweise ist es schwierig, fragwürdige oder gar beleidigende Inhalte in Fernunterrichtsmaterialien zu verhindern. Jeder kann einen benutzerfreundlichen Roboter einrichten, der einen Kurs zu jedem Thema mit den von einem Chatbot bereitgestellten Informationen unterrichtet, ohne dass ein Fachmann auf diesem Gebiet die Moderation übernehmen muss.
Ein weiteres offensichtliches Beispiel sind die Einsatzmöglichkeiten im Marketing. Indem diese Tools die Schaffung von „entzückenden“ Werberobotern ermöglichen, die Produkte mit ansprechenden, von Chatbots programmierten Stimmen bewerben, machen es diese Tools nahezu unmöglich, falsche Werbung zu definieren. Ist die Manipulation der Verbraucherneigung ein Täuschungsversuch oder nicht?
Vielleicht möchte der Leser, bevor er fortfährt, innehalten und über die möglichen Verwendungsmöglichkeiten – ob gut oder schlecht – dieser Ressourcen in seinem Arbeitsbereich nachdenken. Sie werden wahrscheinlich überrascht sein, wie vielfältig und vielfältig die Möglichkeiten sind, die sich Ihnen bald bieten.
abschließende Gedanken
Abschließend stellen wir uns die Frage, welches Risiko die beschleunigte Entwicklung dieser Technologien mit sich bringen könnte. Nachdem wir die Hypothese der Superintelligenz von Robotern und ihres Verständnisses natürlicher Sprache verworfen haben, müssen wir nicht mehr befürchten, von diesen Maschinen übertroffen und schließlich zerstört zu werden – es sei denn, wir haben ihnen ungerechtfertigterweise eine gewisse Rüstungskontrolle zugeschrieben. Wenn dieser Fehler ordnungsgemäß vermieden worden wäre, hätten wir dann noch etwas zu befürchten?
Eine naheliegende Antwort ist der Abbau von Arbeitsplätzen. Heute übertrifft es die Prognosen zu Beginn des Automatisierungszeitalters bei weitem. Stellen Sie sich also vor, was von nun an passieren könnte, wenn virtuelle Assistenten zunehmend dazu neigen, Telefonisten, Rezeptionisten und andere Personen zu ersetzen, die für die Kommunikation zwischen Unternehmen und der Öffentlichkeit verantwortlich sind.
Wie es bereits bei Online-Banken, Unternehmen und öffentlichen Ämtern der Fall ist, beeinträchtigt das Fehlen einer Person, die die Anforderungen der Kunden versteht, zunehmend die Qualität der Dienstleistungen. Auf diese Weise werden Beschwerden kaum funktionieren, da es niemanden gibt, der sie hören und sich in die Lage des Beschwerdeführers versetzen kann – egal wie nett der zuständige Roboter auch sein mag.
Wir werden dann unerbittlich der Tyrannei von Online-Formularen ausgesetzt sein, um zu bekommen, was wir wollen. Und in dieser grenzenlosen Bürokratisierung, die von Maschinen verwaltet wird, die nichts verstehen, liegt das größte Risiko für die Menschheit durch Sprachtechnologien: Körperlose, entnaturalisierte, entmenschlichte, erzwungene Gespräche mit Maschinen könnten am Ende einen beispiellosen Schock für die kollektive psychische Gesundheit verursachen.
Wir sind keine Maschinen, wir denken, handeln oder sprechen nicht nach den Folgegesetzen der Mechanik. Aber wir können lernen, seine Logik nachzuahmen, um einfacher an die Produkte und Dienstleistungen zu gelangen, die wir brauchen.
Und wie Charles Chaplin es vorhergesagt hat Moderne Zeiten, laufen wir Gefahr, die unterschiedlichsten Wahnvorstellungen zu entwickeln, bis wir in ein zwanghaftes Delirium verfallen – das nicht dasselbe ist wie das, was die Agenten faschistischer Regime betrifft: Es ist die kleinmütige Version, die alle infiziert, die sich ihnen unterwerfen.
* Eleonora Albano, pensionierter Professor am Institut für Sprachstudien am Unicamp, ist Psychologe, Linguist und Essayist; koordinierte das erste brasilianische Projekt zur Sprachtechnologie.
Aufzeichnungen
[I] Sprachmodelle und Sprachtheorien jenseits von Worten. Nat. Mach. Intel. 5, 677-78 (2023).
[Ii] John B. Watson. Psychologie aus der Sicht des Behavioristen. Psychological Review, 20, 158-177.
[Iii] David Lyon. Überwachung und die Macht der Plattformen Cambridge Journal für Regionen, Wirtschaft und Gesellschaft, Band 16, Ausgabe 2, Juli 2023, Seiten 361–365, https://doi.org/10.1093/cjres/rsad006
[IV] Frederick Jelinek, ein renommierter tschechisch-amerikanischer Forscher auf dem Gebiet natürlicher Sprachverfahren und Spracherkennung, erlangte 1985 Berühmtheit mit der Aussage: „Jedes Mal, wenn ich einen Linguisten entlasse, steigt die Leistung des Spracherkenners.“ Diese Einschätzung trifft auch auf hochmoderne Sprachmodelle (LLMs) zu, bei denen es sich offenbar in erster Linie um Artefakte der Informatik und Ingenieurwissenschaften handelt. Sowohl LLMs als auch Linguistik befassen sich mit menschlichen Sprachen, es ist jedoch nicht klar, ob und wie sie sich gegenseitig nutzen können (Übersetzung des Autors).
[V] Josh Dzieza. Die (unter-)menschliche Armee, die die KI antreibt. Mit anderen Worten, 29. Juni 2023.
[Vi] Hier ist ein klares Beispiel:
https://alexandrehefren.wordpress.com/2010/03/14/determinismo-e-gramatica-sintagmatica-gs-parte-1/
[Vii] Warum große Sprachmodelle schlechte Theorien der menschlichen Sprachkognition sind. Eine Antwort an Piandadosi. Biolinguistik, 2023, im Druck.
[VIII] Noam Chomsky: Das falsche Versprechen von ChatGPT. Eingeladene Probe. NY Times, 8. März 2023.
[Ix] „Als KI bin ich ein maschinelles Lernmodell, das auf großen Textdatenmengen trainiert wird und keine persönlichen Erfahrungen oder Gefühle hat. Ich bin nicht bewusst, selbstbewusst und nicht in der Lage, persönliche Perspektiven einzunehmen. Ich kann auf der Grundlage der Daten, auf deren Grundlage ich geschult wurde, Informationen und Analysen bereitstellen, bin jedoch nicht in der Lage, mir eine persönliche Meinung oder Überzeugung zu bilden. Obwohl ich Sprache verstehen und interpretieren kann, verfüge ich nicht über die subjektive Erfahrung, die Menschen haben.“ (automatische Google-Übersetzung, überprüft vom Autor).
[X] Ein „Transhuman“ ist ein hypothetisches menschliches Wesen mit Gehirnimplantaten, die es mit Robotern verbinden.
[Xi] „Das Konzept der Chatbot-Intelligenz, des Bewusstseins, des Empfindungsvermögens und der Fähigkeit, moralische Urteile zu fällen, ist komplex und wird immer noch von Experten diskutiert. Für diese Begriffe gibt es keine einheitliche Definition und sie werden häufig synonym verwendet.
Einige Experten glauben, dass Chatbots zwar intelligent, aber nicht bewusst oder empfindungsfähig sein können. Sie argumentieren, dass Chatbots einfach sehr ausgefeilte Algorithmen seien, die in der Lage seien, Informationen zu verarbeiten und auf eine Weise zu reagieren, die intelligent erscheint. Allerdings verfügen sie nicht über das gleiche Maß an Bewusstsein oder Selbstbewusstsein wie Menschen.“ (automatische Google-Übersetzung, überprüft vom Autor)
[Xii] „Beide Sätze sind grammatikalisch korrekt, haben aber unterschiedliche Bedeutungen.
Der erste Satz: „Die Person, die Mary gestern getroffen hat und über die John morgen mit Ed sprechen wird, ist angekommen“ ist prägnanter und direkter. Es sagt uns, dass die Person, die Mary gestern kennengelernt hat, dieselbe ist, über die John morgen mit Ed sprechen wird.
Der zweite Satz „Die Person, die Mary gestern getroffen hat, ist angekommen und John wird morgen mit Ed über seine neue Idee sprechen“ ist detaillierter. Es sagt uns, dass die Person, die Mary gestern kennengelernt hat, dieselbe ist, die John morgen mit Ed über seine neue Idee sprechen wird.
Der erste Satz ist besser, wenn Sie die Tatsache betonen möchten, dass die beiden Menschen gleich sind. Der zweite Satz ist besser, wenn Sie die Tatsache betonen möchten, dass John mit Ed über seine neue Idee sprechen wird.
Letztendlich hängt die beste Formulierung vom Kontext ab, in dem sie verwendet wird.“
[XIII] Joseph Weizembaum. Computerleistung und menschliche Vernunft: Vom Urteil zur Berechnung. New York: WF Freeman & Co, 1976.
[Xiv]Joseph Weizenbaum; Gunna Wendt. Inseln im Cyberstream: Auf der Suche nach Zufluchtsorten der Vernunft in einer programmierten Gesellschaft. Übersetzer: Benjamin Fasching-Gray. NY: Litwin Books 2015 [2008].
[Xv] John McCarthy Ein unvernünftiges Buch. Verfügbar in:
http://jmc.stanford.edu/artificial-intelligence/reviews/weizenbaum.pdf
[Xvi] Dwight Hines. Rezension von Computer Power and Human Reason: From Judgment to Calculation, von Joseph Weizenbaum, Das Journal of Mind and Behaviour, Frühjahr 1980, Bd. 1, Nr. 1, S. 123-126.
[Xvii] Im vergangenen Mai wurde in der Presse bekannt, dass Geoffrey Hinton, der Vater der KI, das Unternehmen verlassen hatte, weil er seine Verdienste auf diesem Gebiet bereute. Sehen Sie es unter:
https://www.bbc.com/portuguese/articles/cgr1qr06myzo
[Xviii] Hier ist Skinner beim Training von Tauben in seinem Labor: https://www.youtube.com/watch?v=TtfQlkGwE2U
[Xix] Noam Chomsky. Rezension von Skinners verbalem Verhalten. Sprache. 1959; 35: 26 – 58.
[Xx] https://www.hereafter.ai/
[xxi] https://www.youtube.com/watch?v=Jr8yEgu7sHU&ab_channel=TalentRecap
Die Erde ist rund existiert dank unserer Leser und Unterstützer.
Helfen Sie uns, diese Idee aufrechtzuerhalten.
BEITRAGEN