von ELEONORA ALBANO*
Kriegerroboter und Gesprächsroboter – eine explosive Verbindung
Dieser Aufsatz konzentriert sich auf eine schädliche Folge der im Internet verbreiteten falschen Vorstellungen Chatbots. Die Argumentation gliedert sich in zwei Teile. Zunächst wird gezeigt, dass die Existenz sogenannter autonomer tödlicher Roboter (autonome Killerroboter) verringert die Möglichkeit, dass Menschen bei wichtigen Entscheidungen in einem bewaffneten Konflikt die Führung übernehmen.
Eine Möglichkeit, dieses Szenario zu verbessern, wäre die Entwicklung einer Schnittstelle, die die menschliche Steuerung solcher Roboter ermöglicht. Diese Aufgabe wird jedoch dadurch erschwert, dass das Hauptwerkzeug, nämlich das Tolle Sprachmodelle – auf Korpora voller ideologischer Voreingenommenheit basieren und äußerst anfällig für Cyberangriffe sein. Derartige Vorurteile sind schwer zu beseitigen und können Menschen und Maschinen in Gespräche verwickeln, die zu einer Eskalation der beteiligten Konflikte führen.
Der alte Mythos der Überwachungs- und Verteidigungsautomaten
Der Traum von intelligenten Maschinen ist sehr alt. Entgegen der landläufigen Meinung begann es nicht, als europäische Könige und Aristokraten im 18. Jahrhundert musikalische und/oder akrobatische Automaten nutzten. In der Odyssee erzählt Homer die Abenteuer von Hephaistos, dem Gott der Metallurgie und des Handwerks, dessen Legion goldener Sklaven sich wiederholende mechanische Aufgaben mithilfe von Blasebälgen erledigte. Er erwähnt auch die fantastischen Schiffe der Phönizier, die beim geringsten Anzeichen von Gefahr durch Gedanken aktiviert wurden.
Die Hellenen verfügten über fortgeschrittene Kenntnisse der Mechanik, die es ihnen ermöglichten, Automaten mit Federn, Bälgen, Kolben und Hebeln zu bewegen. In der Antike, im Mittelalter und in der Neuzeit waren diese künstlichen Kreaturen – Menschen, Tiere und mythische Wesen – aus Glas, Zinn oder Ton geschnitzt – Sie wurden als Sklaven oder Diener angesehen, die dazu bestimmt waren, verschiedene Bedürfnisse, einschließlich Sex, zu befriedigen. Kurtisanenpuppen ermöglichten die Masturbationsfantasien des Adels und trugen dazu bei, den Glauben an die „Seele“ von Automaten zu stärken.
Obwohl diese Kunst im mittelalterlichen Europa nur teilweise erhalten blieb, verbreitete sie sich bald über den Islam in der ganzen Welt und dann weiter nach Osten. Die Orientalen nutzten es vor allem zur Herstellung von Wächterautomaten, um Paläste oder Reliquien, wie beispielsweise die des Buddha, zu bewachen.
Es ist leicht zu verstehen, dass die Faszination und die Angst, die solche Mechanismen hervorrufen, sie zu mächtigen Instrumenten sozialer Kontrolle gemacht haben. Es ist daher keine Überraschung, dass diese alte Vorstellung von Big Techs aufgegriffen und im Internet weit verbreitet wurde. Tatsächlich hatte es bereits ein physisches Gesicht, da es in der Unterhaltungsindustrie, also in Comics, Filmen und Fernsehserien, verwendet wurde.
Die Aneignung von Überwachung und Verteidigung durch Big Techs
Ein Bericht des Verteidigungsexperten Roberto Gonzalez (2024) zeigt, wie sich der militärisch-industrielle Komplex der USA in den letzten Jahren vom Capital Beltway ins Silicon Valley verlagert hat. Um KI-basierte Waffen einzuführen und zu versuchen, sein Cloud-Computing zu schützen, musste sich das US-Verteidigungsministerium an Microsoft, Amazon, Google und Oracle wenden und ihnen milliardenschwere Aufträge vergeben. Gleichzeitig hat das Pentagon der Finanzierung von Verteidigungstechnologie-Startups Priorität eingeräumt, die den Markt mit schnellen Innovationen und ehrgeizigen Wachstumszielen aufmischen wollen.
In diesem Szenario identifiziert der Autor drei Faktoren: (i) das Startup-Modell des Silicon Valley; (ii) Bedingungen für die Risikokapitalfinanzierung; und (iii) die Prioritäten der digitalen Technologiebranche. Es kommt zu dem Schluss, dass die Verbindung dieser drei Waffen zu hochmodernen Waffen führt, die unabhängig von den Kosten in der Praxis tendenziell ineffektiv, unsicher und unvorhersehbar sind.
Mal sehen, warum. Der erste Faktor erfordert ein übertrieben beschleunigtes Tempo bei der Erforschung der in diesen Waffen eingesetzten künstlichen Intelligenz; der zweite drängt auf Ergebnisse, die den Anlegern zugute kommen; und der dritte versucht, Modeerscheinungen auf dem Markt für digitale Technologie in die Gestaltung von Systemen einzubeziehen. Dadurch bleiben mehrere Flanken anfällig für Hackerangriffe und Fehler in der Kommunikation zwischen Mensch und Maschine – was zu großen strategischen Katastrophen führen kann.
Israels autonome Roboterkrieger
Die autonome Waffenindustrie hat dank künstlicher Intelligenz große Fortschritte gemacht. Der Staat, der heute am meisten in diese Technologie investiert, ist zweifellos Israel. Sehen wir uns weiter unten an, wie das Land westliche Investitionen zur Aufrechterhaltung der Rüstungsindustrie anzog.
Lucy Suchman, emeritierte Professorin an der Lancaster University im Vereinigten Königreich, studiert zeitgenössischen Militarismus und stützt sich dabei auf eine lange Karriere, die sich auf wissenschaftliche und humanitäre Kritik in den Bereichen künstliche Intelligenz und Mensch-Maschine-Interaktion konzentriert.
In einem auf der Website veröffentlichten Artikel Stoppen Sie Killerroboter im Februar 2024,[I] Sie analysiert den technischen Bericht, der der Völkermord-Anklage beigefügt ist, die Südafrika beim Internationalen Gerichtshof in Den Haag gegen Israel eingereicht hat. Der Text trägt den Titel „Eine Massenmordfabrik: Das innere Gesicht der kalkulierten Bombardierung Gazas durch Israel“ und enthüllt erschreckende Enthüllungen über das, was der Autor „die durch Algorithmen beschleunigte Tötungsmaschine“ nennt.
Diese Maschine enthält ein Zielsystem, das von betrieben wird Künstliche Intelligenz, zynisch genannt Habsora – das Evangelium. Es ermöglicht den israelischen Streitkräften (IDF), eine freizügigere Genehmigung für die Bombardierung ziviler Ziele im Gazastreifen mit einer Lockerung der Beschränkungen für zu erwartende Verluste zu kombinieren. Damit wird der Einsatz von Raketen in dicht besiedelte zivile Gebiete, einschließlich öffentlicher Gebäude und Wohngebäude, sanktioniert.
Internationale gesetzliche Richtlinien schreiben vor, dass für Bombenangriffe ausgewählte Gebäude legitime militärische Ziele sein und zum Zeitpunkt ihrer Zerstörung leer sein müssen. Die neue Politik der israelischen Streitkräfte verstößt gereizt gegen sie, indem sie eine ununterbrochene Folge unpraktischer Evakuierungsbefehle für die palästinensische Bevölkerung erlässt, die zunehmend auf kleine Enklaven im Gazastreifen beschränkt ist.
Diese gezielte Ausrichtung wird durch die umfangreiche Überwachungsinfrastruktur der besetzten Gebiete erleichtert. Darüber hinaus „legitimiert“ Israel den gesamten Streifen als Objekt der Zerstörung, indem es erklärt, dass auf der gesamten Oberfläche des Gazastreifens unterirdische Hamas-Tunnel verborgen seien.
Aus dieser operativen Strategie ergibt sich die Notwendigkeit eines ununterbrochenen Flusses von Kandidatenzielen. Um dieser Anforderung gerecht zu werden, wurde Habsora entwickelt, um die Generierung von Zielen aus Überwachungsdaten zu beschleunigen und so etwas zu schaffen, das der Autor eine „Massenmordfabrik“ nennt, eine Bezeichnung, die von einem ehemaligen Offizier der israelischen Verteidigungskräfte vorgeschlagen wurde.
So veränderte die israelische Bombardierung des Gazastreifens den Schwerpunkt der KI-Zielerfassung von Präzision und Genauigkeit hin zur Beschleunigung der Zerstörungsrate. Ein Sprecher der israelischen Verteidigungskräfte gab ausdrücklich zu, dass bei der Bombardierung von Gaza „der Schwerpunkt eher auf Schaden als auf Präzision“ liege.
Lucy Suchman weist weiter darauf hin, dass sich dadurch die Erzählung von einer Technologie im Einklang mit dem humanitären Völkerrecht und den Genfer Konventionen zu einer Technologie verändert, die sich auf die Autonomie der Zielgenerierung konzentriert, die verheerende Geschwindigkeit und Effizienz garantiert. In diesem Sinne geben israelische Geheimdienstquellen zu, dass die Operationen auf die Zivilbevölkerung abzielen, unter dem Vorwand, dies sei der einzig mögliche Weg, die Hamas zu eliminieren.
Israels Rückgriff auf die algorithmische Zielproduktion muss im oben erwähnten Kontext der Absorption von Kriegseinsätzen durch Netzwerke verstanden werden. Verwurzelt in der kybernetischen Vorstellung des Kalten Krieges, wurde der datenbasierte Kampf in den 1990er Jahren realisierbar und bot eine technologische Lösung für das alte Problem der „Situationsanalyse“ in der militärischen Logik. Auf einem vernetzten Schlachtfeld bewegen sich Daten mit Lichtgeschwindigkeit und verbinden Sensoren mit Schützen und Plattformen. Militärleben werden verschont, während die Zivilbevölkerung des Zielgebiets dezimiert wird.
Der Autor weist darauf hin, dass die Daten dadurch naturalisiert werden, das heißt als objektive Signale einer Außenwelt behandelt werden und nicht als Ergebnis einer Übersetzungskette von maschinenlesbaren Signalen in von Militärstrategen geschaffene Klassifizierungs- und Interpretationssysteme.
Somit wird die Vorstellung, dass die Datenerfassung auf ihrem Wert basiert, durch kontinuierliche Investitionen in die Berechnungsinfrastruktur ersetzt, die heute das wertvollste Gut in dieser Branche darstellt.
Diese Investition, die auf blindem Vertrauen in die datengesteuerte Überwachung basiert, entspringt dem fantasievollen Wunsch, Daten direkt in Entscheidungen einzubeziehen, auch wenn ihre Herkunft und Behandlung fraglich sein mögen.
All dies geschieht im Kontext des politisch-wirtschaftlichen Engagements Israels, sich als führender Anbieter modernster Militärtechnologie zu etablieren, insbesondere im Kampf auf Basis künstlicher Intelligenz. Angesichts der Tatsache, dass das wichtigste Technologieinstitut des Landes, das Technion, über ein hervorragend ausgestattetes und finanziertes Forschungsprogramm verfügt, das sich ausschließlich mit industriellen autonomen Systemen, einschließlich Waffen, befasst.
Dies erklärt die zynische Gleichgültigkeit des Westens gegenüber den Friedensverhandlungen in Gaza: Das derzeitige Wettrüsten hat praktischerweise seinen Sitz in Israel. Die USA investieren in diese Branche und profitieren davon, indem sie sie strategisch von ihrer Heimat fernhalten.
Andererseits betreiben sie zu Hause strategische Hochtechnologie-Netzwerksicherheitsforschung, die sich mit der Frage beschäftigt, wie diese Waffen eingesetzt und vor Cyberkriminalität geschützt werden sollten.
Ein ironischer Militärassistent?
Wir werden im Folgenden sehen, warum künstliche Intelligenz und insbesondere ihre Sprachversion – Chatbots – für den Einsatz in militärischen Plänen nicht geeignet sind. Neben dem praktisch unlösbaren Problem der Sicherheit gibt es, wie bereits erwähnt, das der Ausgaben von Systemen, die natürliche Sprache simulieren, die eine inhärent unvorhersehbare Seite haben.
Schauen wir uns zunächst an, warum die für die Militärstrategie notwendige Sicherheit mit der digitalen Welt unvereinbar ist. Zu diesem Zweck müssen wir von vornherein zugeben, dass eine sichere Netzwerkanwendung praktisch unerreichbar ist.
Journalist Dave Lee, verantwortlich für die Berichterstattung über Künstliche Intelligenz in Financial Times, veröffentlichte eine hervorragende Analyse der Sicherheitslücken der Great Language Models[Ii] auf der Website eines Unternehmens der Branche, Hidden Layer, im März 2023. Sehen wir uns die Hauptargumente an.
Der Autor beginnt mit einem Kommentar zu den tiefgreifenden Veränderungen, die die KI in den letzten Jahrzehnten in Arbeitsräumen mit sich gebracht hat. Ein gutes Beispiel ist der Einsatz von Great Language Models zum Verfassen von Rechtsdokumenten, der in einigen Unternehmen der Rechtsbranche im Vereinigten Königreich bereits 80 % erreicht.
Es zeigt weiter, dass großartige Sprachmodelle besonders anfällig für Missbrauch sind. Mit anderen Worten: Sie eignen sich zur Erstellung von Malware, Phishing oder anderen schädlichen Inhalten. Sie liefern auch voreingenommene, ungenaue oder sogar schädliche Informationen, die auf verdeckten Manipulationen beruhen. Versäumnisse beim Schutz der an sie gerichteten Anfragen begünstigen Verletzungen des geistigen Eigentums und des Datenschutzes. Das Gleiche gilt für Tools zur Codegenerierung, bei denen es häufig zu Fehlern und Lecks kommt.
Darüber hinaus haben Great Language Models laut dem Autor dazu beigetragen, die Grenze zwischen dem Internet und dem Dark Web zu verringern. Heutzutage ist es leicht, Angriffs-Toolkits zu finden, die als Ransomware im illegalen Kryptowährungshandel eingesetzt werden können.
Generative KI ermöglicht den sofortigen und mühelosen Zugriff auf eine ganze Reihe von Stealth-Angriffen und liefert potenziell Phishing und Malware an jeden, der es wagt, danach zu fragen. Drehbuchverkäufer spezialisieren sich zunehmend auf diesen Service. Es ist beispielsweise üblich, Bestellungen für Kits zur Umgehung von Filtern anzunehmen.
In diesem Fall ist Betrug möglich, da der Chatbot den schädlichen Teil des Codes bei jeder Ausführung der Malware sofort synthetisiert. Dies erfolgt durch eine einfache Anfrage an die Anwendungsprogrammierschnittstelle des Anbieters mithilfe einer beschreibenden Eingabeaufforderung, die darauf ausgelegt ist, inhärente Filter zu umgehen. Aktuelle Anti-Malware hat Schwierigkeiten, diesen Trick zu erkennen, da sie noch nicht über Mechanismen verfügt, um gefährlichen Code im Datenverkehr von Diensten zu überwachen, die auf Large Language Models basieren.
Während bösartiger Text in manchen Fällen erkennbar und blockierbar ist, sind in vielen anderen Fällen der Inhalt selbst und die damit verbundene Anfrage so konzipiert, dass sie harmlos erscheinen. Die Textgenerierung, die bei Betrug, Phishing und Betrug verwendet wird, kann schwer zu interpretieren sein, wenn es keine Mechanismen zur Erkennung der zugrunde liegenden Absichten gibt, was komplexe Verfahren erfordert, die noch in den Kinderschuhen stecken.
Tools, die auf großen Sprachmodellen basieren, können auch „zufällige“ Schäden im Sinne von Code-Schwachstellen verursachen. Das Vorhandensein von Bug-Bounty-Programmen und CVE/CWE-Datenbanken[Iii] zeigt, dass sichere Codierung vorerst nur ein anzustrebendes Ideal ist.
Könnten Programmierassistenten wie CoPilot das Problem lösen und besseren und sichereren Code produzieren als ein menschlicher Programmierer? Nicht unbedingt, denn in manchen Fällen können sie sogar Fallen einführen, in die ein erfahrener Entwickler nicht tappen würde.
Da Codegenerierungsmodelle auf von Menschen codierten Daten trainiert werden, ist es unvermeidlich, dass sie auch einige Ihrer schlechten Gewohnheiten berücksichtigen, da sie keine Möglichkeit haben, zwischen guten und schlechten Codierungspraktiken zu unterscheiden.
Der Journalist weist außerdem darauf hin, dass jüngste Studien zur Sicherheit des von CoPilot generierten Codes zu dem Schluss gekommen sind, dass dieser, obwohl er im Allgemeinen weniger Schwachstellen als ein Mensch mit sich bringt, dazu neigt, bei bestimmten Typen zu bleiben und als Reaktion darauf leckbaren Code zu generieren. auf Eingabeaufforderungen im Zusammenhang mit alten ungelösten Fehlern.
Eines der Probleme ist gerade die extreme mangelnde Vorbereitung der Nutzer. Grundsätzlich sollten sie bereits wissen, dass kostenlose Online-Dienste mit Ihren Daten bezahlt werden. Es kommt jedoch häufig vor, dass Datenschutzprobleme im Zusammenhang mit neuen Technologien erst deutlich werden, wenn die anfängliche Begeisterung verflogen ist. Die öffentliche Nachfrage nach Maßnahmen und Richtlinien entsteht erst dann, wenn eine Innovation bereits alltäglich geworden ist. So war es auch mit den sozialen Netzwerken; fängt gerade erst mit den Great Language Models an.
In der Allgemeinen Geschäftsbedingungenvereinbarung für jeden Dienst, der auf großen Sprachmodellen basiert, muss erläutert werden, wie unsere Anforderungsaufforderungen vom Dienstanbieter verwendet werden. Allerdings handelt es sich oft um lange Texte, die kleingedruckt und in einem undurchsichtigen Stil verfasst sind.
Wer nicht stundenlang Datenschutzverträge entschlüsseln möchte, muss daher davon ausgehen, dass jede Anfrage, die er an das Model stellt, auf irgendeine Weise erfasst, gespeichert und verarbeitet wird. Sie müssen mindestens warten, bis Ihre Daten zum Trainingssatz hinzugefügt werden, und können daher versehentlich als Reaktion auf andere Anfragen verloren gehen.
Darüber hinaus könnten sich viele Anbieter angesichts der raschen Ausbreitung der künstlichen Intelligenz dafür entscheiden, durch den Verkauf der Eingabedaten an Forschungsunternehmen, Werbetreibende oder andere interessierte Parteien zu profitieren.
Ein weiteres Problem besteht darin, dass das Hauptziel von Great Language Models zwar darin besteht, ein gutes Verständnis ihrer Zieldomäne beizubehalten, sie jedoch manchmal übermäßig viele Informationen enthalten. Sie können beispielsweise Daten aus Ihrem Trainingssatz wiedergeben und am Ende Geheimnisse wie persönlich identifizierbare Informationen, Zugriffstoken usw. preisgeben. Wenn diese Informationen in die falschen Hände geraten, können die Folgen natürlich sehr schwerwiegend sein.
Der Autor erinnert auch daran, dass versehentliches Auswendiglernen ein anderes Problem darstellt als Überanpassung[IV]. Aufgrund der Dauer und der Statistiken hinter GLMs handelt es sich hierbei um eine übermäßige Einhaltung von Trainingsdaten. Übermäßiges Auswendiglernen ist ein Versäumnis, die Auswahl von Peers im Internet zu verallgemeinern, was dazu führen kann, dass der Algorithmus versehentlich private Informationen abgreift und preisgibt.
Abschließend warnt er abschließend, dass Sicherheit und Datenschutz nicht die einzigen Fallstricke der generativen künstlichen Intelligenz seien. Es gibt auch zahlreiche rechtliche und ethische Fragen, wie etwa die Genauigkeit und Unparteilichkeit von Informationen sowie die allgemeine „Vernünftigkeit“ von Antworten, die von Systemen bereitgestellt werden, die auf großen Sprachmodellen basieren, wie wir weiter unten sehen werden.
Die Unsicherheiten, die großen Sprachmodellen innewohnen
In anderen Schriften habe ich ausführlich erklärt, wie Great Language Models natürliche Sprache durch eine Methode simulieren, die das wahrscheinlichste Wort in einer linearen Zeichenfolge berechnet, das Internet durchsucht und die Kohärenz von Kandidaten mit einer dicht kommentierten Datenbank des Unternehmens misst, das sie besitzt es. des Modells – in der Regel ein Big Tech, also: Amazon, Google, Microsoft, Open AI oder Oracle.
Es ist wichtig, dass die Öffentlichkeit versteht, dass solche Roboter nicht intelligent und noch weniger empfindungsfähig sind, wie im Internet behauptet wird. Hier muss ich diese Erklärung kurz wiederholen, um einer voreingenommenen Metapher entgegenzuwirken, die von den Anbietern selbst verbreitet wird und die Benutzer dazu ermutigen soll, Gespräche mit den Maschinen zu führen, die die Datenbank erweitern und bereichern.
Dies ist die Aussage, dass die großen Sprachmodelle „halluzinieren“, das heißt, sie erbrechen Ungereimtheiten, Unsinn und sogar Beleidigungen, ähnlich wie ein Mensch, der seinen Verstand verloren hat. Wenn wir die Funktionsweise dieser Modelle verstehen, wird klar, dass das Phänomen tatsächlich auftritt, aber rein physikalischer Natur ist, das heißt, es folgt dem Muster anderer Fälle, in denen ein dynamisches Gleichungssystem plötzlich abrupte Änderungen aufweist.
Das Geheimnis großer Sprachmodelle besteht darin, die Diskontinuitäten menschlicher natürlicher Sprachen überzeugend nachzuahmen, indem einfach versucht wird, das nächste Wort vorherzusagen.
Dies ist dank dreier Faktoren möglich: der Aneignung des gesamten Internetinhalts durch das Unternehmen, dem er gehört; die Wirkung eines gigantischen wiederkehrenden neuronalen Netzwerks, das in der Lage ist, Assoziationsstatistiken zwischen Millionen von Wörtern in Echtzeit zu berechnen – die sogenannten Transformatoren; und Klassifizierungsetiketten, die auf verschiedenen Hierarchieebenen von Legionen hochqualifizierter prekärer Arbeitnehmer aus verschiedenen Wissensbereichen erstellt und organisiert werden.
Unternehmen, die diese Dienstleistungen auslagern, befinden sich in der Regel in armen Ländern mit vielen hochqualifizierten Arbeitslosen, z.B. z. B. Indien, Südafrika, Nigeria und Brasilien.
Somit können die Großen Sprachmodelle mit diskontinuierlichen Beziehungen umgehen, wie sie im Satz „Die Katze, die die Maus gefressen hat, starb“ zu finden sind – in dem die Katze und nicht die Maus starb. Sie können auch Diskontinuitäten in Verben wie „Wurzel“ erkennen, die durch das Hinzufügen eines Präfixes und eines Suffixes zu einem Stamm gebildet werden, und sie mit anderen Analogien wie „verschönern“, „Perch“ usw. in Verbindung bringen.
Diese Operation ist rein linear, dh sie sagt bei jedem Schritt ein Wort nach dem anderen voraus. Das neuronale Netzwerk berechnet in Echtzeit alle Wahrscheinlichkeiten des gleichzeitigen Auftretens von Wortpaaren im Internet, wählt den besten Kandidaten aus und fährt fort.
Die Einfachheit der damit verbundenen Vorgänge ist nur scheinbar. Die Berechnung von Kookkurrenzwahrscheinlichkeiten gilt nicht nur für den Wortschatz.
Der gesamte Korpus wird auf mehreren Analyseebenen kommentiert, die syntaktische (d. h. Konjunktions- und Disjunktionsregeln), semantische (d. h. grundlegende und assoziative Bedeutungen) und sogar pragmatische Informationen (Bezug auf den Text selbst und/oder den Kontext, wie in) umfassen im Fall von Personalpronomen und Orts- und Zeitadverbien). Eine Optimierungsfunktion wählt die Paare aus, die am besten geeignet sind, alle diese Aspekte kohärent in den zu erstellenden Text zu integrieren.
Linguistische Annotatoren markieren die strukturellen Eigenschaften des Textes. Diejenigen aus den anderen Geistes- und Sozialwissenschaften fügen mehrere Ebenen inhaltlicher und stilistischer Bezeichnungen hinzu. In ähnlicher Weise fügen Annotatoren in den Naturwissenschaften und den exakten Wissenschaften hierarchische Bezeichnungen für ihre jeweiligen Bereiche hinzu. Am Ende geben Informatiker, die mit Transformatoren vertraut sind, eine Rückmeldung Feedforward des Netzwerks mit der daraus resultierenden mehrstufigen Struktur.
Wie wir weiter unten sehen werden, ist die Funktionsweise von Transformatoren mit der radikalsten Form des Behaviorismus, der operanten Konditionierung, vergleichbar.[V]. Die Paartypen mit der höchsten Erfolgswahrscheinlichkeit werden verstärkt und immer wahrscheinlicher – was die beteiligten Verbindungen festigt und sich auf die Wahl des nächsten Paares auswirkt. Dieses Verfahren führt natürlich zu neuen Beispielen von Paaren derselben Klasse und trägt so zu einer Erhöhung ihrer Häufigkeit im Netzwerk bei.
Dies ist zweifellos eine hervorragende Methode zur rechnerischen Simulation natürlicher Sprache. Die Verwechslung seiner Ergebnisse mit natürlichen Äußerungen ist jedoch gleichbedeutend mit der Annahme eines menschlichen Geistes, der durch aufeinanderfolgende Assoziationen arbeitet, die quantifiziert und ständig neu berechnet werden. Wie bereits erwähnt, steht diese Prämisse im Einklang mit der operanten Konditionierung – einer Methode zur Verhaltenskontrolle, die in den USA während des Zweiten Weltkriegs entwickelt und später vom McCarthyismus übernommen wurde.
Ihr Erfinder, der Psychologe Burrhus F. Skinner, wurde von seinen Kollegen des Faschismus beschuldigt und reagierte mit der Aussage, die Methode habe rein pädagogische Ziele. Die Diskussion ist dokumentiert in Die New York Times, in dessen Archiven sich eine Online-Version des Berichts von Robert Reinhold befindet[Vi] über ein 1972 in Yale abgehaltenes Symposium, bei dem Skinners Ideen von der gesamten akademischen Gemeinschaft seines Fachgebiets abgelehnt wurden.
Obwohl Skinner mit seinen Bildungsprojekten scheiterte, wurden seine Ideen von Big Techs gerettet, um Menschen den Maschinen näher zu bringen. Heutzutage wirkt sich leider die wahllose Verwendung des Algorithmus, der die operante Konditionierung der Großen Sprachmodelle implementiert, auf das Verhalten der Benutzer aus. Sie imitieren zunehmend Chatbots und missbrauchen Klischees, ebenso wie sie Klischees, die als Antwort auf ihre Fragen ausgegeben werden, kritiklos akzeptieren.
Das oben Gesagte machte deutlich, dass Transformatoren kein neues Wissen hervorbringen, da sie nur die oberflächliche Form einfacher Argumentation aus dem Internet umschreiben. Daher funktionieren sie nur dann als Suchmaschinen, wenn Sie Informationen aus zuverlässigen Quellen zusammenstellen möchten. Die Beurteilung der Zuverlässigkeit ist jedoch unsicher, da nur wenige Websites über Moderatoren und/oder Kuratoren verfügen.
Wie Sie sich vorstellen können, sind Big Techs nur an der Einstellung von Kommentatoren interessiert, nicht an Moderatoren und Kuratoren. Mit anderen Worten: Der Fokus liegt auf der Vollständigkeit und nicht auf der Qualität der Informationen. Alles, was aus einem Transformator kommt, wird in den Eingabekorpus zurückgeführt. Es gibt keine Menschen, die falsche oder ungenaue Antwortversuche filtern und verwerfen könnten. Ohne Mäßigung werden sachliche Fehler alltäglich und überschwemmen das Netzwerk aus Fehlern, Lügen und Widersprüchen.
Fragen und Kommentare der Benutzer, egal wie naiv, sektiererisch oder sogar beleidigend sie auch sein mögen, werden automatisch zur Datenbank hinzugefügt, was sie zu einer unerschöpflichen Quelle potenziell gefährlicher Vorurteile macht. Und so verwässert der Mangel an Hinweisen, um das Wahre vom Falschen zu unterscheiden, allmählich die Grenzen zwischen ihnen.
In diesem Szenario verführt und fesselt der höfliche und lehrreiche Ton von Chatbots den Benutzer und untergräbt nach und nach sein Bewusstsein für die Auswirkungen des Gesprächs und seine Fähigkeit, an der Antwort zu zweifeln. Die Beschleunigung des heutigen Lebens begünstigt daher die weit verbreitete Akzeptanz der Öffentlichkeit gegenüber Algorithmen, die vorgefertigte und leicht wiederholbare Antworten liefern.
Daraus wird der Schluss gezogen, dass große Sprachmodelle nicht nur unsicher sind, sondern auch eine Bedrohung für das kritische Denken darstellen, eine unverzichtbare Ressource zur Verhinderung strategischer Katastrophen.
Militarismus mit großen Sprachmodellen und autonomen Waffen?
Kommen wir nun zum letzten Schritt und zeigen die Gefahr einer möglichen Interaktion zwischen Chatbots und autonomen Waffen auf.
Ein transdisziplinäres Team, bestehend aus Rivera, Mukobib, Reuelb, Lamparthb, Smithc und Schneiderb,[Vii] bewertete in einem kürzlich erschienenen Artikel die Risiken einer Konflikteskalation durch den Einsatz von Great Language Models bei militärischen und diplomatischen Entscheidungsprozessen. Die Autoren untersuchten das Verhalten mehrerer Agenten der künstlichen Intelligenz in simulierten Kriegsspielen und berechneten deren Chance, Wege einzuschlagen, die multilaterale Konflikte verschärfen könnten.
Basierend auf politikwissenschaftlichen und internationalen Beziehungsstudien zur Dynamik der Konflikteskalation erstellten sie eine möglichst realistische Simulation der dokumentierten Kriegsspiele und erstellten ein an mehrere Szenarien anpassbares Raster, um die Risiken der Handlungen verschiedener beteiligter Akteure zu bewerten.
Im Gegensatz zur bisherigen Literatur verwendete diese Studie qualitative und quantitative Daten und konzentrierte sich auf die Great Language Models, die von fünf verschiedenen Unternehmen bereitgestellt wurden. Er fand bei allen Formen und Klettermuster, die schwer vorherzusagen waren. Das wichtigste Ergebnis ist, dass solche Modelle dazu neigen, eine Dynamik des Rüstungswettlaufs zu entwickeln, die zu größeren Konflikten führt und in einigen Fällen sogar den Einsatz von Atomwaffen empfiehlt.
Die Autoren analysierten auch qualitativ die von den Modellen berichteten Begründungen für die gewählten Maßnahmen und stellten besorgniserregende Begründungen fest, die auf Abschreckungs- und Angriffspriorisierungstaktiken basieren, wie sie beispielsweise bereits in Israel eingesetzt werden. Angesichts der heiklen Situation der aktuellen außen- und militärpolitischen Rahmenbedingungen im Westen kamen sie zu dem Schluss, dass es notwendig sei, die Daten eingehend zu prüfen und mit größter Vorsicht vorzugehen, bevor Major Language Models für strategische militärische oder diplomatische Entscheidungen implementiert werden, selbst wenn dies der Fall sei der einfache Assistententitel.
Big Techs hatten übrigens bereits eine Vereinbarung mit Regierungen getroffen, um den Einsatz von Sprachtechnologien für militärische Zwecke zu verbieten. Diese Untersuchung bestätigte die Richtigkeit dieser Maßnahme und die Fragilität der betreffenden Technologien.
Erinnern wir uns schließlich daran, dass das dynamische Verhalten der Gleichungssysteme, die das Verhalten großer Sprachmodelle bestimmen, eine physikalische Tatsache ist und dass das Auftreten von Sprüngen, obwohl sie vorhersehbar sind, unvermeidlich ist und Teil der Natur des Systems selbst ist .
Daher kann kein technologischer Fortschritt die mit der Funktionsweise von Chatbots verbundenen Unsicherheiten „korrigieren“. Es ist im Gegenteil notwendig, solche Unsicherheiten zu berücksichtigen, wenn in Theorie oder Praxis auf sie zurückgegriffen wird.
* Eleonora Albano, pensionierter Professor am Institut für Sprachstudien am Unicamp, ist Psychologe, Linguist und Essayist; koordinierte das erste brasilianische Projekt zur Sprachtechnologie.
Aufzeichnungen
[I]https://stopkillerrobots.medium.com/the-algorithmically-accelerated-killing-machine-8fd5b1fef703
[Ii] https://hiddenlayer.com/innovation-hub/the-dark-side-of-large-language-models/
[Iii] Hierbei handelt es sich um Repositorien von Schwachstellen (V) und Schwachstellen (W), die bereits in den Systemen erkannt wurden.
[IV] Dies ist der Fall, wenn maschinelles Lernen zu sehr an einen Trainingssatz gebunden ist und nicht in der Lage ist, darüber hinauszugehen.
[V] Skinner, BF (1938). Das Verhalten von Organismen: Eine experimentelle Analyse. New York: Appleton-Century-Crofts.
[Vi]https://www.nytimes.com/1972/04/21/archives/b-f-skinners-philosophy-fascist-depends-on-how-its-used-he-says.html
[Vii] https://dl.acm.org/doi/abs/10.1145/3630106.3658942
Die Erde ist rund Es gibt Danke an unsere Leser und Unterstützer.
Helfen Sie uns, diese Idee aufrechtzuerhalten.
BEITRAGEN