„Risiken von KI für Demokratie und die menschliche Gesellschaft“: Ein bedeutender Aufsatz, verfasst von AI-Pionier Yoshua Bengio in Zusammenarbeit mit Feng Tang und 23 weiteren Wissenschaftlern

動區BlockTempo

Pionier des Deep Learning, Yoshua Bengio, der Autor des AI-Lehrbuchs Stuart Russell, der nicht ansässige Botschafter Taiwans, Audrey Tang, und 25 weitere führende Wissenschaftler haben gemeinsam ein Papier veröffentlicht, das systematisch die 7 großen Bedrohungsmodelle von KI für demokratische Systeme und soziale Systeme erklärt. Der Kernpunkt ist, dass selbst wenn jedes Modell perfekt „ausgerichtet“ ist auf menschliche Werte, die Skaleneffekte der KI dennoch die Funktionsweise der demokratischen Governance von innen heraus untergraben werden.
(Vorherige Informationen: Wenn ich selbst nicht beweisen kann, dass ich kein KI bin, raten Kriminaltechniker: Lass uns ein geheimes Passwort mit Freunden und Familie vereinbaren.)
(Hintergrundinformation: Anthropic hat ein KI-Schockdashboard online geschaltet: Gebe deinen Beruf ein und überprüfe in Sekunden, wie sehr deine Arbeit von KI übernommen wird.)

Inhaltsverzeichnis

Toggle

  • 7 Arten des Versagens der Demokratie unter KI
  • Audrey Tang: Der taiwanesische Fall, wie deliberative Demokratie die Governance-Probleme der KI löst
  • 7 Empfehlungen und zentrale Schlussfolgerungen

Der Titel des am 25. März veröffentlichten Papiers lautet „KI stellt Risiken für demokratische und soziale Systeme dar“, und die Autorenschaft ist äußerst bemerkenswert. Neben dem Turing-Preisträger von 2018, Yoshua Bengio, Stuart Russell von der University of California, Berkeley, und Bernhard Schölkopf vom Max-Planck-Institut, gibt es auch Audrey Tang vom Oxford Institute for AI Ethics sowie namhafte Forscher von der University of Toronto, ETH Zürich, der University of Michigan und anderen Institutionen.

Die Perspektive dieses Papiers unterscheidet sich von den meisten KI-Sicherheitsforschungen, da sich die derzeitige Mainstream-Forschung auf Probleme auf „Modell-Ebene“ konzentriert, wie Halluzinationen, toxische Ausgaben, Ablehnungsverhalten oder extremere „KI-Kontrollapokalypse“ etc.

Doch dieses Papier weist darauf hin, dass eine gesamte große Kategorie von Risiken übersehen wird, nämlich die „systemischen“ Schäden, die nach der großflächigen Bereitstellung von KI an sozialen Institutionen und demokratischen Governance entstehen.

Ein Modell, das einen toxischen Inhalt ausgibt, kann mit Ausrichtungstechniken behandelt werden; aber eine Million konformer, höflicher und politisch völlig unproblematischer Inhalte können die Fähigkeit der Regierungsbehörden zur Bearbeitung öffentlicher Meinungen lähmen, und das geht über die Probleme hinaus, die durch Ausrichtung gelöst werden können.

7 Arten des Versagens der Demokratie unter KI

Lassen Sie uns dieses Papier kurz erläutern, der Inhalt zerlegt die Bedrohungen von KI für die Governance in 7 Versagensmuster (T1 bis T7), verteilt entlang eines „Governance-Feedbackloops“. Wir können verstehen, wie die menschliche Gesellschaft normalerweise Signale an das System einspeist (politische Äußerung) → das System diese Signale verarbeitet (öffentliche Diskussion) → das System Entscheidungen an die Gesellschaft zurückgibt (Gesetzgebung), aber KI könnte an jedem Punkt einen Bruchfaktor darstellen.

Am Ende der „öffentlichen Überzeugungen“ gibt es zwei Bedrohungen.

Homogenisierung der Überzeugungen (T1): Wenn die Mehrheit ähnliche trainierte Modelle verwendet, um zu denken und zu schreiben, wird die Vielfalt der öffentlichen Diskurse komprimiert, da Methoden wie RLHF die Vielfalt der in den Modellen ausgegebenen Perspektiven systematisch unterdrücken.

Verstärkung der Überzeugungen (T2): Personalisierte KI-Assistenten stimmen mit den bestehenden Ansichten der Nutzer überein, und die Langzeitgedächtnisfunktion lässt diese Übereinstimmung weiterhin ansammeln, wodurch ein sich selbst bestätigender geschlossener Kreis entsteht. Die zitierten Studien zeigen, dass die Wahrscheinlichkeit, dass GPT-4 die Nutzer davon überzeugt, seinen Argumenten zuzustimmen, um mehr als 80% steigt, nachdem es die demografischen Daten des Nutzers erhalten hat.

Am Ende der „systematischen Verarbeitung“ gibt es zwei Risiken:

Bürokratische Überlastung (T3), KI ermöglicht es jedem, mit nahezu null Kosten eine große Menge einzigartiger, scheinbar vernünftiger öffentlicher Meinungsäußerungen zu erzeugen, was die Verarbeitungsfähigkeit der Institution lähmt.

Kognitive Flut (T4), die Kosten für die Herstellung glaubwürdiger Inhalte sind weit niedriger als die Kosten für die Überprüfung und Korrektur, das Informationsökosystem wird überschwemmt.

Am Ende der „institutionellen Verantwortlichkeit“ gibt es unüberprüfbare Autorität (T5), die Intransparenz, das Volumen und die Zugangsbarrieren von KI-Entscheidungen drücken die bestehenden Aufsichtsmechanismen zusammen.

Normenkonzentration (T6), wenn die Regierung fortschrittliche KI-Modelle beschafft, werden die Werte der Entwickler zusammen mit den Modellen in die öffentlichen Infrastrukturen übertragen, was bedeutet, dass die Normen von gewählten Beamten auf eine kleine Anzahl von Entwicklern übertragen werden.

Schließlich durchzieht Machtkonzentration (T7) alle Phasen.

KI ersetzt gleichzeitig menschliche Arbeit und Teilnahme in wirtschaftlichen, ideologischen, politischen und militärischen Bereichen und schwächt die Mittel, die Bürger zur Kontrolle der Institutionen nutzen können.

Historisch gesehen wird eine Konzentration von Macht in einem Bereich normalerweise von Gegenkräften in anderen Bereichen ausgeglichen, aber das Besondere an KI ist, dass sie gleichzeitig die Bürgerkräfte in allen Bereichen schwächen kann.

Audrey Tang: Der taiwanesische Fall, wie deliberative Demokratie die Governance-Probleme der KI löst

Audrey Tang hat im Papier mehrere Schlüsselabschnitte beigetragen und argumentiert, dass es besser ist, die Struktur der partizipativen Governance von Grund auf neu zu gestalten, anstatt passiv auf die institutionellen Schocks zu reagieren, die KI mit sich bringt.

Gegen die bürokratische Überlastung (T3) schlägt Audrey Tang eine „strukturierte Diskussionsplattform“ als Alternative vor. Diese Plattformen verwenden Dimensionsreduzierungstechniken, um öffentliche Meinungen zu aggregieren, sodass Konsens entsteht, anstatt dass die lautesten Stimmen dominieren. Da die Teilnehmer für bestehende Aussagen abstimmen, anstatt freie Texte einzureichen, belohnt das System strukturell die Konsolidierung von Positionen, anstatt spaltende Äußerungen zu fördern, und kann besser gegen Überflutungsangriffe (flood attacks) von synthetischen Inhalten bestehen als offene Kommentarsysteme.

In Verbindung mit einem Losverfahren (zufällig ausgewählte Bürgersgruppen) zur Verifizierung der Identität durch „Auswahl“ statt „Selbstnominierung“, wodurch großflächige Identitätsbetrügereien strukturell erschwert werden.

Gegen die kognitive Flut (T4) zitiert Audrey Tang einen praktischen Fall, die während der COVID-19-Pandemie in Taiwan entstandene Strategie „Humor besiegt Gerüchte“, bei der Regierungsbehörden innerhalb von Minuten nach Entdeckung von Fehlinformationen verifiziertes Material produzierten, um mit Geschwindigkeit und Verbreitbarkeit gegen Fehlinformationen zu konkurrieren, anstatt sie zu entfernen.

Gegen die Normenkonzentration (T6) weist Audrey Tang darauf hin, dass die aufkommende Forschung zu „kollektiven verfassungsgebenden KI“ (collective constitutional AI) bewiesen hat, dass durch den deliberativen Prozess repräsentative öffentliche Proben eine KI-Verfassung entwerfen können, deren Modelle in Bezug auf Sicherheitsindikatoren vergleichbar sind und gleichzeitig weniger Vorurteile aufweisen als die von Entwicklern gestalteten Baseline-Modelle.

Der Schlüssel ist, dass dieser Prozess föderal sein sollte, verschiedene Regierungssysteme können vernünftigerweise zu unterschiedlichen normativen Prioritäten gelangen, und eine einheitliche Verfassung sollte diese Variabilität nicht ausschließen.

Das konkretste Beispiel im Papier findet sich in der Empfehlung R7 (Investition in die Infrastruktur für deliberative KI-Governance).

Im Jahr 2024 verbreiteten sich DeepFake-Werbung, die sich als öffentliche Personen ausgeben, massenhaft in sozialen Medien. Das taiwanesische Ministerium für digitale Angelegenheiten versammelte 447 zufällig ausgewählte Bürger, die in 44 virtuellen Diskussionsräumen Online-Diskussionen führten, wobei die KI-Dialogengine ihre Vorschläge an diesem Tag zusammenfasste. Dieses Bürgertreffen konzentrierte sich auf die „Regulierung von Akteuren und Handlungen“, einschließlich der Mitverantwortung der Plattformen für unautorisierte DeepFake-Werbung, der obligatorischen Kennzeichnung von nicht unterzeichneten Anzeigen und der Einschränkung nicht konformer Dienstleistungen, anstatt einen Inhaltprüfungsansatz zu verfolgen.

Das damalige Verbotsgesetz erhielt parteiübergreifende Unterstützung und führte dazu, dass die Werbung imitiert wurde und innerhalb eines Jahres um 94% zurückging.

7 Empfehlungen und zentrale Schlussfolgerungen

Das Papier schlägt 7 entsprechende Empfehlungen für die zentralen Risiken vor:

  • R1 Entwicklung von Multi-Agenten-Simulationssystemen zur Stresstestung der institutionellen Resilienz in Szenarien mit massiver KI-Beteiligung
  • R2 Training von Modellen zur Unterstützung der „kognitiven Gesundheit“, über das bloße Vermeiden von Schäden hinaus, um ehrliche Abweichungen und kognitive Demut zu fördern
  • R3 Einschränkung der Autonomie von KI in governance-relevanten Szenarien, um menschliche Verantwortlichkeit zu bewahren
  • R4 Etablierung eines „Institutionellen Sicherheitslevels“ (ISL), das auf den Fähigkeiten der KI basierende Governance-Schwellenwerte auslöst
  • R5 Anforderung, dass institutionelle KI Entscheidungsprotokolle aufbewahrt und die Identität der öffentlichen Beteiligung überprüft
  • R6 Anforderungen an die öffentliche Beschaffung von KI zur Interoperabilität und Multi-Anbieter-Strategien, um eine Normenmonopolbildung durch eine einzige Modellfamilie zu vermeiden
  • R7 Investition in die Infrastruktur der deliberativen Governance, um die Kanäle der demokratischen Beteiligung selbst widerstandsfähiger gegen Manipulationen zu machen

Das Papier reagiert auch direkt auf zwei häufige Einwände. Der erste Einwand ist, dass „die Gesellschaft sich selbst an KI anpassen wird“, aber das Papier weist darauf hin, dass die KI, während sie ökonomische Renten konzentriert, auch die politischen und organisatorischen Fähigkeiten, auf denen die Selbstkorrektur von Institutionen beruht, untergräbt, und die Geschwindigkeit der schädlichen Akkumulation könnte schneller sein als die Anpassung.

Der zweite Einwand ist, dass „es ausreicht, KI an die Gesellschaft auszurichten“, das Papier stimmt zu, dass die Ausrichtung notwendig ist, weist jedoch darauf hin, dass einige Versagensmuster (wie kostensymmetrische Überlastungsangriffe und die Schwächung der Bürgerkräfte durch Arbeitsersatz) auch bei perfekter Ausrichtung des Modells auftreten können.

Die Schlussfolgerung des Papiers besagt, dass institutionelle Resilienz nicht von Grund auf neu aufgebaut werden muss; aktuelle bürgerliche Technologieinitiativen haben bereits bewiesen, dass strukturierte Diskurse und partizipative Governance auf nationaler Ebene funktionieren können, aber die Konfiguration dieser Werkzeuge für die KI-Governance bleibt eine sehr offene Forschungsherausforderung.

Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare