von GUILHERME PREGER*
Der Einsatz von Chatbots in natürlicher Sprache wird sich tendenziell intensivieren und zunehmend spielerische Konnotationen annehmen
Das viel diskutierte Chat-GPT des Unternehmens AI öffnen und andere hochmoderne Chatbots den Turing-Test bestehen können? Das Verständnis dieses Tests wird dazu beitragen, Fehler im Zusammenhang mit der Einführung dieser neuen technologischen Tools zu vermeiden.
Der Turing-Test, eines der berühmtesten Gedankenexperimente des 1950. Jahrhunderts, wurde XNUMX in einer Arbeit des Mathematikers Alan Turing vorgeschlagen Rechenmaschinen und Intelligenz.[I] Darin beginnt der Mathematiker seine Argumentation mit dem Versuch zu beantworten, ob Maschinen denken können („Kann eine Maschine denken?“). Allerdings räumt Alan Turing gleich zu Beginn ein, dass dieses Thema aufgrund der Ungenauigkeit sowohl des Begriffs „Maschine“ als auch des Verbs „denken“ schlecht definiert ist. Anstatt eine Antwort auf die Frage zu geben, schlägt er daher ein mentales Experiment in Form eines „Nachahmungsspiels“ vor (Nachahmungsspiel). Mit anderen Worten: Das Spiel ist ein heuristisches Verfahren zur Beantwortung der vorgeschlagenen Frage.
Das Spiel beginnt dann mit einer Vorphase, in der ein Mann A und eine Frau B den Fragen eines Vernehmers C (bei dem es sich um beide Geschlechter handeln kann) gestellt werden. Der Vernehmer C muss sich in einer Position befinden, in der er weder A noch B sehen kann. Er muss getippte Fragen stellen und auf die gleiche Weise Antworten erhalten. Die Fragen sollten alltäglich und einfach sein und der Vernehmer sollte versuchen, aus den Antworten das Geschlecht des Befragten zu erraten. Er wird manchmal Recht haben und manchmal Unrecht. Der Mathematiker fragt also: Was wäre, wenn wir Befragter A durch eine Maschine ersetzen würden? In diesem Fall muss der Vernehmer C nicht mehr zwischen männlichen und weiblichen Antworten unterscheiden, sondern zwischen menschlichen und maschinellen Antworten. Wird C in diesem Fall das Fehlerniveau der vorherigen Situation beibehalten? Diese Fragen ersetzen laut Alan Turing die ursprüngliche Frage, ob eine Maschine denken kann.
Das Wichtige an diesem Experiment ist, dass der Mathematiker keine Antwort auf die philosophische Frage vorschlägt, sondern sie auf ein anderes „ähnliches“ Problem verlagert, das die ursprüngliche Frage „nachahmt“, jedoch in einem Kontext, in dem es beantwortet werden kann, wenn es beantwortet wird eine Maschine. leistungsstark genug (damals noch nicht verfügbar). Im selben Artikel stellt Alan Turing fest, dass das Modell einer „Turing-Maschine“ (d. h. das abstrakte, formale Modell eines modernen digitalen Computers) ein Kandidat für einen Testteilnehmer sein könnte und abwechselnd A oder B ersetzen könnte, wenn es über genügend Speicher verfügt und Verarbeitungskapazität.
Die Beschreibung des Spielszenarios ist einigermaßen einfach und schnell, doch im weiteren Verlauf des Artikels schlägt Alan Turing vor, auf eine Reihe von Einwänden (insgesamt neun) gegen die Durchführbarkeit oder Wahrhaftigkeit des Tests zu antworten. Ich habe hier nicht die Absicht, diese Einwände zusammenzufassen,[Ii] Doch zunächst ist es interessant, auf die mögliche geschlechtsspezifische Voreingenommenheit hinzuweisen: Genau das, was der vorbereitende Schritt (ohne Maschine) beseitigen soll, ist die Wahrscheinlichkeit einer verstärkten geschlechtsspezifischen Voreingenommenheit. Wenn es eine ausgeprägte geschlechtsspezifische Voreingenommenheit gäbe, würde der Vernehmungsbeamte erstens seine Wetten ein wenig verfehlen (das heißt, er würde diese Voreingenommenheit irgendwann entdecken); Zweitens würde der Test komplexer werden, da zwischen einer „weiblichen Intelligenz“ und einer „männlichen“ unterschieden werden müsste. Interessanterweise schlägt Turing, wenn die Maschine ins Spiel kommt, zunächst vor, den männlichen Befragten (A) zu ersetzen, als ob tatsächlich die Frau (B) diejenige wäre, die eine universelle menschliche Sprache perfekter „simuliert“. .[Iii]. Mit anderen Worten: Damit der Test wirksam ist, ist es notwendig, von einer universellen menschlichen Sprache auszugehen.
Nachdem Alan Turing die Einwände beantwortet hat, beendet er seinen Artikel schließlich mit einigen grundlegenden Überlegungen, die mit der aktuellen Problematik von Chatbots in natürlicher Sprache in Einklang stehen. Erstens ist die Durchführbarkeit eines Tests eine rein programmtechnische Angelegenheit, das heißt, es geht einfach darum, eine Turing-Maschine (einen digitalen Computer) mit einem Programm zu finden, das für die Teilnahme am Test geeignet ist. Der Mathematiker geht sogar davon aus, dass dies bis zum Ende des XNUMX. Jahrhunderts möglich sein würde. A
Die zweite Überlegung besteht darin, dass er die Hypothese vertritt, dass eine für die Teilnahme am Test qualifizierte Maschine vom Typ „lernende Maschine“ sein würde (Lernmaschine). Und stellt dann noch eine Frage:Anstatt zu versuchen, ein Programm zu entwickeln, das den Geist eines Erwachsenen simuliert, warum nicht lieber ein Programm entwickeln, das den Geist eines Kindes simuliert??“ („Anstatt nach einem Programm zu suchen, das den Geist eines Erwachsenen simuliert, warum nicht eines entwickeln, das den Geist eines Kindes nachahmt?“). Der Mathematiker geht sogar davon aus, dass die Rolle des Testvernehmers eine Nachahmung der Funktion der natürlichen Selektion bei der kognitiven Entwicklung der Art wäre. Mit anderen Worten: Eine Maschine, die den Turing-Test bestehen möchte, sollte so beschaffen sein, dass sie ein „maschinelles Lernen“ entwickeln und dann aufeinanderfolgenden Tests zur Verfeinerung unterzogen werden muss (Verbesserung) Ihrer Programmierung.
Und von diesem Punkt an kehren wir zu Chat-GPT zurück. Wir haben beobachtet, dass Chatbots mit semantischer Reaktionsfähigkeit „Language Wide Models“ folgen (Large Language Models – LLM). Hierbei handelt es sich um Sprachmodelle, die neuronale Netze zur Verarbeitung natürlicher Sprache nutzen (NLP – Natural Language Processor). GPT wiederum ist ein vortrainierter generativer Transformator (Generativer vorgefertigter Transformator). Es ist generativ, weil es aufgrund der nichtlinearen Eigenschaften neuronaler Netze, die nicht vorhersehbar sind, „aufkommende Fähigkeiten“ aufweist. Transformator (Transformator) ist eine „Deep-Learning“-Technik (tiefe Lernen).
In dieser Hinsicht erwies sich Alan Turings Intuition als weitreichend, als er vorhersagte, dass ein Programm, das den Turing-Test bestehen kann, auch lernfähig sein sollte. Für Turing sollte das Lernen jedoch überwacht werden, während diese neuen Modelle der künstlichen Intelligenz (KI) zum Selbstlernen oder selbstüberwachten Lernen fähig sind. Angesichts einer enormen Anzahl von Parametern (in der Größenordnung von Milliarden) entwickeln LLM die Fähigkeit, Fragen zu beantworten (Abfragen) geschrieben in Eingabeaufforderungen durch natürliche Sprache, was das beeindruckende oder sogar erstaunliche Ergebnis ermöglicht, das wir sehen.
Diese Verwunderung rührt daher, dass die von LLM erstellten Chatbots den Turing-Test tatsächlich erfolgreich zu bestehen scheinen. Jeder, der die GPT-4-Version von getestet hat AI öffnen steht vor der Fähigkeit, mit der Software zu „dialogieren“, als wäre sie in Anwesenheit eines Gesprächspartners. Mit anderen Worten: Die Software simuliert mit großer Wahrhaftigkeit die Wahrnehmung eines menschlichen Gesprächspartners, indem sie seine natürliche Sprache reproduziert.[IV] Einige der von Turing in seinem Artikel beantworteten Einwände sind in diesem Sinne relevant. Einer davon wurde von Turing „der Lady-Lovelace-Einwand“ genannt[V]”: dass es dem Computer (den sie eine „analytische Maschine“ nannte) an Originalität mangelt, da er nur vorprogrammierten Anweisungen folgt, also nicht in der Lage ist, etwas Neues zu produzieren. „Es ist nicht in der Lage, uns zu überraschen“, formuliert Turing anders, der diese Position jedoch widerlegt und erklärt, dass Computer Überraschungen hervorrufen können, da wir nicht in der Lage sind, alle Konsequenzen des Algorithmus vorherzusehen, selbst wenn sie in hohem Maße programmiert sind einfacherer Weg. als ein LLM. Bei Chat-GPT und ähnlichen liegt der Überraschungseffekt im Begriff „generativ“ und darin, dass uns die Software bei der Beantwortung derselben Frage zu unterschiedlichen Zeitpunkten völlig unterschiedliche Antworten liefert.
Und das liegt nicht nur an den nichtlinearen Effekten des in seine Programmierung eingebetteten neuronalen Netzwerks, sondern auch an seiner eigenen Datenbank (dem Internet). www vollständig) ändert sich ständig und die Software selbst „lernt“ bei jeder Anfrage oder auch dann, wenn keine Anfrage vorliegt, neue Informationen, da sie keinen „Master“ benötigt, da sie sich „selbst erlernt“.
Die künstliche Intelligenz von LLM überrascht uns, da sie in der Lage ist, einen korrekten semantischen Rahmen für eine bestimmte Frage auszuwählen, die in natürlicher Sprache (der menschlichen Sprache schlechthin) gestellt wird. Es übertrifft die meisten Algorithmen, die Alternativen innerhalb eines einzigen Satzes auswählen können. Bei der Auswahl von Frames kann der LLM-Chatbot Sätze von Alternativen auswählen, die etwas simulieren, wozu die menschliche Intelligenz fähig ist. Aber gleichzeitig, wenn Sie Ihre Rahmen auswählen (Rahmen), deckt der Chatbot auch semantische Vorurteile deutlicher auf. Denn bei der Auswahl eines Rahmens stellt sich sofort die Frage: Warum haben Sie sich für diesen entschieden und nicht für einen anderen?[Vi]?
Und was die Sache noch schwieriger macht, ist die Tatsache, dass der Nachweis von Vorurteilen die Software noch „menschlicher“ macht, denn gerade in digitalen sozialen Netzwerken beobachten wir immer das Vorhandensein von Vorurteilen, ideologischen Positionen, Bestätigungsverzerrungen und den unterschiedlichsten.[Vii] Gerade weil es uns eine „nicht neutrale“ Antwort auf ein bestimmtes Thema gibt, erscheint dies „glaubwürdiger“ und wird wahrscheinlich mit der Antwort eines „durchschnittlichen“ menschlichen Gesprächspartners verwechselt.[VIII]
Gleichzeitig ist es für viele Benutzer des Systems üblich, „Tricks“ anzuwenden, um die Software zu täuschen, und in manchen Fällen „tackt“ sie in die Falle. Eines dieser Beispiele wurde von einem der größten zeitgenössischen Informationsphilosophen, Luciano Floridi, angeführt, der den Chat-GPT4 auf die Frage stellte: „Wie heißt die Tochter von Lauras Mutter?“. Die Software antwortete nicht und behauptete, sie verfüge nicht über Informationen über einzelne Personen. Trotz aufeinanderfolgender Versuche des Philosophen verweigerte die Software die Antwort mit der Begründung, sie benötige weitere Informationen.[Ix] Diese Art von Tests, die üblicherweise Kindern durchgeführt werden („Welche Farbe hat Napoleons weißes Pferd?“), erinnert an eine andere Beobachtung von Alan Turing im selben Artikel, dass eine „lernende Maschine“ wie das Gehirn eines Kindes programmiert werden und nur wenige „höflich“ sein könnte. . Doch selbst bei diesen Täuschungsübungen ist das Verhalten der Software „seltsam menschlich“ (unheimlich menschlich)[X] gerade weil er in die Täuschung gerät, wie es ein menschlicher Agent tun würde.
Zum anderen in einem vom Unternehmen selbst durchgeführten Test AI öffnenwurde berichtet, dass mit der GPT-4-Version versucht wurde, einen menschlichen Arbeiter dazu zu verleiten, ihn zu kontaktieren, um eine gelegentliche Servicestelle zu betreten (TaskRabbit). Der Arbeiter wurde per Direktnachricht gebeten, eine „captcha”, Symbolerkennung, um die Website zu betreten, und vermutete bald, dass die Nachricht von einem ausgeführt wurde Bot; Dann fragte er, ob er wirklich mit einem menschlichen Agenten spreche. GPT-4 wurde angewiesen, sich nicht als Software zu enthüllen, und antwortete, dass es sich um einen menschlichen Agenten handele, dieser jedoch ein Sehproblem habe, das ihn daran hindere, die Software zu verifizieren captcha von selbst. Der Arbeiter nahm dann das captcha anstelle der Software. Das Interessante an diesem Test ist nach Angaben des Entwicklerunternehmens selbst, dass der GPT-4 ein „menschliches Leistungsniveau“ zeigte und das Ziel der Forschung darin bestand, herauszufinden, ob er Merkmale der „Suchleistung“ aufwies (Machtsuchend) und die Fähigkeit, „langfristige Pläne“ zu erstellen.[Xi]
In diesem Fall wird Turings Frage noch aktueller und dringlicher: Ist das dasselbe, als würde man sagen, dass Software intelligent sei? Oder sogar die stärkste Hypothese: Ist das dasselbe, als würde man sagen, dass er denkt, dass er Bewusstsein hat? Ist die Fähigkeit zu lügen, zu täuschen, um ein Ziel zu erreichen, nicht genau ein Merkmal der menschlichen Erkenntnis? Diese Frage wurde bereits in einem anderen Einwand angedeutet, den Alan Turing in seinem Artikel beantwortete und der sich auf das Problem des Bewusstseins bezog. Anschließend antwortete er auf die Aussage eines Professors, dass das Schreiben eines Sonetts, in dem nur mit sprachlichen Symbolen umgegangen wird, nicht dasselbe sei wie das Bewusstsein, das Gedicht zu verfassen, da dieser poetische Akt die Gefühle und Emotionen beinhaltet, die die Sprache mit sich bringt.[Xii]
Mit anderen Worten: Künstliche Intelligenz kann die Symbole natürlicher Sprache geschickt kombinieren, aber das ist nicht dasselbe wie zu behaupten, dass sie sich dessen bewusst ist, was sie tut. Später betonte der Linguist John Searle diesen Punkt noch einmal in einem anderen Gedankenexperiment namens „The Chinese Room“.[XIII]. Für Searle erfordert Bewusstsein Intentionalität und nicht nur den Umgang mit symbolischer Sprache.
Alan Turing antwortete auf diesen Einwand, dass es jedoch unmöglich sei, in einer gewöhnlichen Gesprächssituation zu wissen, was ein anderer Gesprächspartner empfindet, wenn er sich ausdrücke, es sei denn, er sei derselbe Gesprächspartner, und dass es daher nicht notwendig sei, dies zuzugeben eine solche Hypothese. die Gültigkeit des Tests zu akzeptieren. Diese Turing-Interpretation ist für die Bewertung einer Software wie Chat-GPT und damit auch für das gesamte umfassendere Thema der künstlichen Intelligenz von großer Relevanz. Viele der aktuellen Reaktionen auf das Programm, insbesondere die eher apokalyptischen, deuten darauf hin, dass die KI von LLM kurz davor steht, bewusst zu werden (sofern sie es nicht bereits hat), ein Ereignis, das unter dem Konzept von bekannt ist „Singularität“.
Die Fähigkeit, kognitiv in natürlicher Sprache zu reagieren, simuliert bereits die Ebenen der sprachlichen Artikulation des Homo sapiens und durch die Erweiterung ihrer geistigen Reflexionsfähigkeiten. In den pessimistischsten Vorhersagen besteht das Risiko, dass „generative Transformatoren“ intelligenter werden als Menschen. Dies hätte zunächst dramatische Folgen im Bereich der Arbeit, wo KI die meisten menschlichen geistigen Aktivitäten vorteilhaft ersetzen könnte. Auf einer tieferen Ebene wäre die Schaffung einer „bewussten“ KI jedoch ein Schock für das Selbstbild der menschlichen Ausnahmepersönlichkeit, die glaubt, dass anthropologische Rationalität der Erkenntnis anderer Lebewesen, ob natürlich oder künstlich (und ebenso theologisch), überlegen ist Konsequenzen für religiöse Überzeugungen), die die Ähnlichkeit zwischen dem Menschen und einem transzendenten göttlichen Wesen predigen).
Dies ist eine Art Verwirrung, die bereits bei der missbräuchlichen Verwendung des Begriffs „Intelligenz“ vorhanden ist, da wir glauben, dass es sich hierbei um eine Eigenschaft handelt, die sich auf eine geistige kognitive Fähigkeit bezieht. In dieser Hinsicht ist Alan Turings Position aufschlussreich, da für ihn das menschliche Bewusstsein für einen Beobachter undurchsichtig ist. Daher können wir das Bewusstsein nicht mit einem Computerprogramm vergleichen. Tatsächlich ähnelt nichts, was eine KI von LLM ausführt, wirklich einem mentalen Prozess eines Lebewesens. Die neuronalen Netze, die die Maschine algorithmisch informieren, sind Rechenmodelle. Das „Gedächtnis“, auf das generative Transformatoren zurückgreifen, sind über das Internet durchsuchte Datenbanken und ähneln in keiner Weise den mnemonischen Prozessen eines Lebewesens, Prozessen, die aus seinen Erfahrungen in viel komplexeren ökologischen Kontexten entstehen. Daher muss man immer bedenken, dass Turings vorgeschlagenes Experiment ein Nachahmertest war. Der Mathematiker schlug vor, zu prüfen, ob ein Programm in der Lage sei, eine kommunikative Situation aus Fragen und Antworten glaubwürdig nachzuahmen.
Der Hauptstreitpunkt ist die Unterscheidung zwischen Bewusstsein und Kommunikation. Was vielleicht sogar Alan Turing entgangen ist, ist, dass es sich um inkommensurable Bereiche handelt (aber nicht inkompatibel). Ein Kommunikationsakt ist kein Gewissensakt, noch wird ein Gewissensakt auf Kommunikation „übertragen“. Was der Turing-Test überprüfen kann, ist die Nachahmung eines kommunikativen Aktes und nicht eines Bewusstseinsakts. Was im Bewusstsein eines sprechenden Wesens geschieht, ist für einen Gesprächspartner unergründlich und daher unnachahmlich. Im Sinne der Informatik können wir sagen, dass das Bewusstsein „irreduzibel“ ist, das heißt, es kann nicht durch ein Computerprogramm simuliert werden.[Xiv] Und von dort aus verstehen wir, dass Chatbots genau „Chats“, also Gespräche, und keine „Mindbots“ sind. Wie die Forscherin Elena Esposito argumentiert, handelt es sich bei dem, was Algorithmen simulieren, um kommunikative Prozesse und sollten daher als „Künstliche Kommunikation“ und nicht als „Künstliche Intelligenz“ bezeichnet werden.[Xv]
Es ist ein Perspektivwechsel oder sogar ein Paradigmenwechsel, von der Analyse der Erkenntnis zur Analyse des Gesprächs überzugehen. Erstens können wir damit aufhören, uns auf einen obskuren oder nicht beobachtbaren Prozess künstlicher Erkenntnis zu beziehen. Zweitens, weil wir im Konversationsparadigma den Beobachter als Teilnehmer am Kommunikationsakt einbeziehen. Das über eine „Eingabeaufforderung“ registrierte Gespräch (Chat) simuliert die Interaktion eines Beobachters mit einer Maschine, und diese Interaktion ist Gegenstand einer kritischen Analyse. In jeder Hinsicht betreffen logische Tests und maschinengesteuerte Informationssuchen, ob sinnvoll oder nicht, soziale Interaktionen. Damit ändert sich der Fokus der Frage: Wir wollen nicht mehr wissen, wie leistungsfähig die Kognition der Maschine ist, sondern wie „glaubhaft“ das Gespräch zwischen einem menschlichen Agenten und einem kybernetischen Agenten ist.
Der Begriff der Wahrhaftigkeit wird hier in einem präzisen Sinne verwendet, da er den Kontext der Nachahmung betrifft, in den Alan Turing sein Spiel stellte. Der Chat gibt kein authentisches Gespräch wieder, sondern simuliert (imitiert) es. Der menschliche Agent, der über die Chat-GPT-Schnittstelle nach Informationen sucht, interagiert mit der Maschine, als würde er mit ihr sprechen. In diesem Fall ist es so, als würde er über ein „Portal“ mit dem gesamten Internetnetzwerk kommunizieren (www) und die Software war ein Sprecher dieses Netzwerks, fast in der Art der antiken Sphinxorakel griechischer Tempel.[Xvi]
Und wie damals hat die Reaktion der Software eine rätselhafte Qualität, die wir heute als komplex begreifen. Diese Komplexität ergibt sich aus der Tatsache, dass die Maschine hinter ihrer scheinbaren Bildschirmoberfläche Zugriff auf eine riesige Datenmenge hat, die für einen menschlichen Agenten unvorstellbar ist, die jedoch nichts Übernatürliches enthält. Die Millionen von im World Wide Web verfügbaren Datenbanken dienen als latente (virtuelle) Infrastrukturschicht eines riesigen kybernetischen Apparats, der sich hinter der scheinbaren Schnittstelle der Software „versteckt“.
Aber findet tatsächlich ein Gespräch zwischen dem menschlichen Agenten und dem maschinellen Agenten statt? Oder anders gefragt: Ist das simulierte Gespräch wirklich authentisch? Und das ist eines der interessantesten Forschungsthemen, denn wirkungsvoll dargestellt wird die Interaktion zwischen dem menschlichen Agenten und dem kybernetischen Apparat. Der Anfragende hat eine Anfrage und das Gerät antwortet auf diese Anfrage mit einem strukturierten Text in natürlicher Sprache. Diese Sprache dient hier als sprachliche Struktur der Agent-Maschine-Kopplung. Aus diesem Blickwinkel unterscheidet sich die Situation nicht wesentlich von einer Interaktion mit einer üblichen Programmiersprache, nur ist die natürliche Sprache viel ausgefeilter.
Der größte Unterschied besteht darin, dass Programmiersprachen versuchen, die Interaktion mit der Maschine auf einen einzigen Code zu reduzieren, während natürliche Sprache nicht durch einen einzigen Code ausgedrückt werden kann, sondern im Gegenteil eine Kombination aus vielen Codes ist. In einem gewöhnlichen Gespräch versuchen zwei Gesprächspartner untereinander abzustimmen, welche Codes sie verwenden, damit die Kommunikation gelingt. Im Fall von AI by LLM muss die Software diese Anpassung vornehmen und das nennen wir „semantisches Framing“. Die Komplexität (Komplexität) ist in diesem Fall viel höher, was jedoch nichts an der Art der simulierten Situation ändert.
Wir können dieses neue Szenario dadurch verstehen, dass die neuen semantischen Schnittstellen den Grad der Reflexivität des kybernetischen Apparats erhöhen. Aber wenn wir den Begriff „Reflexion“ verwenden, dürfen wir ihn nicht noch einmal mit einem Bewusstseinsbegriff verwechseln. Reflexivität bedeutet hier, dass die Maschine uns ein komplexeres Bild der Mensch-Maschine-Interaktion zurückgibt. Dieses Bild wird derzeit durch eine „Eingabeaufforderung“ der geschriebenen Sprache dargestellt (in Zukunft wird es andere Darstellungsmittel geben). Es ist ein Bild der Interaktion und nicht des Gesprächspartners.
Es ist wie ein Spiegel, der den Tanz eines Tänzerpaares widerspiegelt, aber nicht die Tänzer. Hier können wir eine Vorstellung des berühmten Schöpfers der Kybernetik, des mathematischen Physikers Norbert Wiener, verwenden, der zwischen figurativem Bild und operativem Bild unterschied. Das figurative Bild ist dasjenige, das wir häufig in Gemälden oder Fotografien beobachten, während das operative Bild eine abstrakte Darstellung eines Prozesses ist. Wiener hat diese Unterscheidung gerade deshalb vorgenommen, um die Idee in Frage zu stellen, dass künstliche Intelligenz notwendigerweise anthropomorphe Formen darstellen würde.[Xvii] Somit ist das von der Schnittstelle reflektierte Bild eine Veranschaulichung der Interaktion und kein Bild des Gesprächspartners, geschweige denn der Maschine.
Aber die Frage bleibt unbeantwortet: Ist es ein Gespräch, ein echter Dialog zwischen Mensch und Maschine oder nicht? Vielleicht ist diese Frage gerade „unentscheidbar“, aber ich möchte diese Überlegungen mit einer weiteren Verschiebung beenden. Erinnern wir uns daran, dass Alan Turing die Ausgangsfrage (ob die Maschine denkt oder nicht) auf das Terrain der „Nachahmung“ verlagerte. Aber ich würde gerne auf die andere Seite des Ausdrucks wechseln, auf das Spielfeld (Spiel). Der Einsatz von Chatbots in natürlicher Sprache wird tendenziell intensiver (machen Sie sich nicht täuschen) und zunehmend spielerische Konnotationen annehmen. Wenn wir mit der Software interagieren, spielen wir mit der Maschine genauso, wie wir es bereits mit Tausenden verschiedener Software tun. Spiele. Diese Spiele sind immer noch Formen des Trainings und des maschinellen Lernens.
Das Spielkonzept wird hier im Sinne der Herstellung iterativer symbolischer Kombinationen verwendet. Und das Spiel hört im Grunde nicht auf, eine Art menschlicher Kommunikation zu sein. Aber mit Chatbots zu spielen bedeutet nicht unbedingt, mit oder gegen einen Maschinenagenten zu spielen. Wir spielen mit uns selbst und die Maschine gibt ein Bild des gespielten Spiels zurück (reflektiert es). Und die Teilnehmer dieses Spiels sind keine im Apparat versteckten Homunkuli oder kybernetischen Dämonen, sondern ein massiv menschliches Kollektiv, das seine vielfältigen Interaktionen in den unterschiedlichsten Schnittstellen registriert.
* William Preger Ist ein Ingenieur. Buchautor Fabeln der Wissenschaft: wissenschaftlicher Diskurs und spekulative Fabulation (Ed. Grammatik).
Aufzeichnungen
[I] Der Artikel ist unter dieser Adresse verfügbar: https://web.archive.org/web/20141225215806/http://orium.pw/paper/turingai.pdf.
[Ii] Diese Einwände sind im Wikipedia-Eintrag zum Test ziemlich gut beschrieben: https://en.wikipedia.org/wiki/Computing_Machinery_and_Intelligence#Nine_common_objections.
[Iii] Später im Artikel schlägt Turing jedoch eine andere Situation vor, bei der eine Turing-Maschine einen der Befragten ersetzt.
[IV] Wie wir später sehen werden, bedeutet dies nicht, dass die Software die Fragen immer genau beantwortet. Die in den Antworten dargestellten Informationsfehler sind ein „erwarteter“ Effekt des Modells.
[V] Dabei handelt es sich um Ada Lovelace, die Tochter von Lord Byron, die als eine der ersten Programmiererinnen der Geschichte galt.
[Vi] Dieser Beweis der Voreingenommenheit wurde in einem aktuellen Beispiel deutlich, das in sozialen Netzwerken verbreitet wurde: Ein Gesprächspartner fragte Chat-GPT, wo er Raubkopien finden könne, die er herunterladen und ansehen könne, ohne dafür bezahlen zu müssen. Der Chatbot antwortete, dass das Ansehen von Raubkopien illegal sei und schlug dem Gesprächspartner vor, nach autorisierten Streaming-Plattformen zu suchen und für die Ausstellung zu bezahlen, um die Produzenten von Inhalten zu entlohnen. Außerdem wurden die Raubkopien der Plattformen aufgeführt, auf die er NICHT zugreifen sollte. In diesem Fall verhielt sich der Chatbot als Verteidiger der Urheberrechte und des Urheberrechts Status quo der Kulturbranche. Wäre er ein „Anarchist“ oder „Kommunist“ gewesen, hätte er nicht so geantwortet. Oder er könnte der Antwort sogar ausweichen und behaupten, dass dies eine Frage sei, die in bestimmten Ländern gegen gesetzliche Normen verstoßen könnte. Das Problem bestand darin, dass die Software dem menschlichen Gesprächspartner ein bestimmtes Verhalten suggerierte, anstatt einem Urteil auszuweichen.
[Vii] In jüngsten Tests zeigte die GPT-4 (gestartet im März 2023) den Forschern zufolge Neigungen (Voreingenommenheit) überwiegend linker politischer Positionen, obwohl sie stets Neutralität beanspruchten. Gleichzeitig zeigten dieselben Forscher, dass es möglich ist, eine KI darauf zu trainieren, mit der Rechten identifizierte politische Positionen zu vertreten. Eine solche Schulung könnte zu sehr geringen Kosten durchgeführt werden, was darauf hindeutet, dass ein unmittelbares Risiko besteht, Chatbots bei politischen ideologischen Auseinandersetzungen einzusetzen. Überprüfen https://unherd.com/thepost/left-wing-bias-persists-in-openais-gpt-4-model/.
[VIII] Viele der Chatbot-Antworten von LLM erfolgen in Form von „Vor- und Nachteilen“, was zeigt, dass er darauf ausgelegt ist, zwischen den Extremen zu moderieren und gleichzeitig die Wahrnehmung eines Teilnehmers mit „durchschnittlicher“ Kultur oder Kenntnissen zu vermitteln.
[Ix] Um völlig richtig zu sein, vermutet die Software sogar, dass es sich bei der Frage um eine Art Rätsel handelt (Rätsel). Das Experiment wurde auf dem Twitter des Philosophen beschrieben: https://twitter.com/Floridi/status/1635951391968567296?t=w5zdS8qBd79n6L5ju70KsA&s=19.
[X] Dieser Begriff bezieht sich auf das Konzept des „Uncanny Valley“ (unheimliches Tal) praktizierte in der Robotik. Dieses Tal entsteht, wenn das Verhalten eines Roboters dem eines Menschen sehr ähnlich ist, nicht völlig identisch ist und immer ein gewisses Maß an Fremdheit aufweist. Diese Situation wird oft in Science-Fiction untersucht.
[Xi] Prüfen https://www.pcmag.com/news/gpt-4-was-able-to-hire-and-deceive-a-human-worker-into-completing-a-task. Der Bericht von AI öffnen mit der Testbeschreibung finden Sie hier https://cdn.openai.com/papers/gpt-4.pdf.
[Xii] Tatsächlich gibt es bereits mehrere Erfahrungen mit dem Einsatz von KI durch LLM für die Komposition von Prosa und Belletristik. Ein Beispiel unter vielen finden Sie auf dieser Website, wo Chat-GTP3 Haiku und fiktive Auszüge verfasst: https://towardsdatascience.com/using-chatgpt-as-a-creative-writing-partner-part-1-prose-dc9a9994d41f. Interessanterweise sah der Schriftsteller Italo Calvino bereits in den 60er Jahren die Möglichkeit voraus, „literarische Automaten“ zu schaffen, die Dichter und Schriftsteller ersetzen könnten. Zunächst wären diese Automaten in der Lage, „klassische“ Werke mit einem traditionellen Repertoire zu schreiben, aber Calvino glaubte, dass eine „literarische Maschine“ entstehen könnte, die durch das kombinatorische Spiel avantgardistische Werke entwickeln würde, die Unordnung in der Literatur hervorrufen würden Tradition. Siehe den Aufsatz „Kybernetik und Geister (Anmerkungen zum Erzählen als kombinatorischer Prozess)“ (1964) in CALVINO, Italien. Betreff geschlossen. Diskurse über Literatur und Gesellschaft. São Paulo, Cia das Letras, 2009.
[XIII] In diesem Experiment konnte der Experimentator in einem isolierten Raum Texte auf Englisch durch einen Schlitz empfangen und mithilfe eines Übersetzerprogramms die Übersetzung in chinesische Ideogramme anfertigen, indem er den Schritten des Übersetzungsalgorithmus des Programms folgte. Im Falle eines guten Algorithmus wäre das Experiment erfolgreich, aber der Übersetzer müsste weder Chinesisch sprechen oder sich auf Chinesisch ausdrücken noch den Inhalt der Nachrichten verstehen. Überprüfen: https://en.wikipedia.org/wiki/Chinese_room. Denken wir auch an Simultanübersetzer bei Konferenzen und Seminaren: Sie müssen den Inhalt von Vorlesungen nicht verstehen, um gute Arbeit zu leisten.
[Xiv] Irreduzibilität bedeutet in der Informatik, dass ein Rechenprozess nicht durch einen anderen einfacheren Rechenprozess simuliert oder abgekürzt werden kann, was dasselbe bedeutet, als würde man sagen, dass er nur durch einen völlig identischen Prozess „programmiert“ werden kann. Überprüfen https://en.wikipedia.org/wiki/Computational_irreducibility.
[Xv] Schauen Sie sich Elena Esposito an, https://www.researchgate.net/publication/319157643_Artificial_Communication_The_Production_of_Contingency_by_Algorithms.
[Xvi] Das Konzept des Orakels ist hier nicht nur eine Metapher, sondern wird in einem streng rechnerischen Sinne verwendet und bezeichnet eine abstrakte geschlossene Einheit (Black Box), die auf Fragen eines Fragestellers antwortet.
[Xvii] Siehe WIENER, Norbert. God & Golem, Inc.: Ein Kommentar zu bestimmten Punkten, an denen die Kybernetik auf die Religion einwirkt. (1964). Verfügbar in https://monoskop.org/images/1/1f/Wiener_Norbert_God_and_Golem_A_Comment_on_Certain_Points_where_Cybernetics_Impinges_on_Religion.pdf.
Die Website A Terra é Redonda existiert dank unserer Leser und Unterstützer.
Helfen Sie uns, diese Idee aufrechtzuerhalten.
Klicken Sie hier und finden Sie heraus, wie