Führende Persönlichkeiten auf dem Gebiet der künstlichen Intelligenz, darunter die Systemarchitekten der sogenannten „generativen künstlichen Intelligenz“ wie ChatGPT, äußern nun öffentlich ihre Befürchtungen, dass das, was sie schaffen, schlimme Folgen haben könnte. Viele fordern nun ein Moratorium für die KI-Entwicklung, um Ländern und Institutionen Zeit zu geben, an Kontrollsystemen zu arbeiten.
Warum diese plötzliche Sorge? Während viele klischeehafte Annahmen über den Haufen geworfen werden, erfahren wir, dass der sogenannte Turing-Test irrelevant ist und einfach keinen Aufschluss darüber gibt, ob große generative Sprachmodelle tatsächlich intelligente Dinge sind.
Einige hoffen immer noch, dass die Kombination von Organik und Kybernetik zu dem führen wird, was Reid Hoffman und Marc Andreesen als „Amplification Intelligence“ bezeichnen. Andernfalls könnten wir eine glückliche Synergie mit Richard Brautigans „Maschinen der liebenden Gnade“ haben. Aber es scheint viele Besorgniserregende zu geben, darunter viele Elite-Gründer des neuen Zentrums für KI-Sicherheit, die über das Verhalten künstlicher Intelligenz besorgt sind, von dem sie befürchten, dass es nicht nur unangenehm wird, sondern auch das Überleben der Menschheit gefährdet.
Einige kurzfristige Abhilfemaßnahmen, wie etwa die kürzlich von der EU verabschiedeten Katastrophenschutzvorschriften, können helfen oder zumindest für Sicherheit sorgen. Der Technikkritiker Yuval Noah Harari (Autor von „A Brief History of Humanity“) hat ein Gesetz vorgeschlagen, das vorschreibt, dass jede Arbeit von KI oder anderer KI mit einem entsprechenden Label gekennzeichnet werden muss. Andere haben härtere Strafen für diejenigen vorgeschlagen, die KI zur Begehung von Straftaten einsetzen, beispielsweise mit Waffen. Natürlich handelt es sich dabei nur um vorübergehende Notlösungen.
Wir müssen uns darüber im Klaren sein, ob diese „Pausen“ den Fortschritt der künstlichen Intelligenz bremsen. Wie der Caltech-Netzwerkwissenschaftler Yaser Abu-Mostafa es ausdrückt: „Wenn Sie die Technologie nicht entwickeln, wird es jemand anderes tun. Aber die Guten werden sich an die Regeln halten, und die Bösen nicht.“
Das war schon immer so. Tatsächlich gab es im Laufe der Menschheitsgeschichte nur einen Weg, das schlechte Verhalten von Bösewichten einzudämmen, von Dieben bis hin zu Königen und Herren. Dieser Ansatz war nie perfekt und weist bis heute erhebliche Mängel auf. Aber zumindest hat es gute Arbeit geleistet, Plünderung und Betrug einzudämmen und die moderne Zivilisation der Menschheit auf ein neues Niveau zu heben, mit vielen positiven Ergebnissen. Ein Wort beschreibt diesen Ansatz: Verantwortlichkeit.
Natur. Wie Sara Walker in Noema erklärt, lässt sich ein ähnliches Muster bei der Entstehung des frühen Lebens vor 4 Milliarden Jahren finden. Tatsächlich kann generative KI mit einer invasiven Art verglichen werden, die sich nun ungehindert in einem fragilen und naiven Ökosystem ausbreitet. Dies ist ein Ökosystem, das auf neuen Energieflüssen, einer Welt des Internets, Millionen von Computern und Milliarden anfälliger menschlicher Gehirne basiert.
Und Geschichte. Im Laufe der letzten 6.000 Jahre der Menschheit haben wir aus vielen früheren technologiebedingten Krisen wertvolle Lehren gezogen. Gewöhnlich passen wir uns gut an, etwa mit dem Aufkommen des Schreibens, der Druckerpresse, des Radios usw., obwohl es auch Zeiten gibt, in denen wir scheitern. Auch hier gibt es nur eine Sache, die die mächtigen Menschen davon abhält, neue Technologien zu nutzen, um ihre räuberischen Fähigkeiten zu erweitern.
Diese Innovation flacht Hierarchien ab und stimuliert den Wettbewerb zwischen Eliten in genau definierten Bereichen (Märkte, Wissenschaft, Demokratie, Sport, Gerichte). In diesen Arenen treten Anwälte gegen Anwälte, Firmen gegen Firmen und Experten gegen Experten an, um Betrug zu minimieren und positive Erträge zu maximieren.
Diese Methode ist nicht perfekt. Tatsächlich wird diese Methode, genau wie jetzt, immer wieder von Betrügern bedroht. Aber nur ein flacher gegenseitiger Wettbewerb wird funktionieren. (Siehe Perikles’ Trauerreden, Thukydides und Robert Wrights späteres Buch Nonzero.) Miteinander zu konkurrieren ist sowohl ein natürlicher Weg der Evolution als auch eine Möglichkeit für uns, kreativ genug zu sein, um den Weg der KI-Gesellschaft aufzubauen. Wenn ich dabei wie Adam Smith klinge, ist das natürlich. Übrigens verachtete Smith auch diese betrügerischen Adligen und Oligarchen.
Können wir den Ansatz der „gegenseitigen Rechenschaftspflicht“ auf die sich schnell entwickelnde künstliche Intelligenz anwenden, die den Menschen dabei geholfen hat, die Tyrannen und Tyrannen zu unterdrücken, die uns in früheren feudalen Kulturen unterdrückt haben? Viel hängt von der Form der neuen Einheit ab, davon, ob ihre Struktur oder Form unseren Regeln und unseren Anforderungen entspricht.
Hinter der ganzen Debatte darüber, wie man KI kontrollieren kann, stecken drei weit verbreitete (wenn auch scheinbar widersprüchliche) Annahmen:
Alle diese Formen wurden in Science-Fiction-Geschichten erforscht, und ich habe Geschichten oder Romane darüber geschrieben. Keine dieser drei Lösungen kann jedoch unser aktuelles Dilemma lösen: Wie können wir die positiven Ergebnisse der künstlichen Intelligenz maximieren und gleichzeitig den Tsunami an schlechtem Verhalten und Schaden, der mit hoher Geschwindigkeit auf uns zukommt, minimieren?
Bevor Sie woanders suchen, überlegen Sie, was diese drei Annahmen gemeinsam haben. Der Grund, warum mir diese drei Hypothesen so natürlich in den Sinn kommen, ist vielleicht ihre Ähnlichkeit mit historischen Misserfolgsmustern. Die erste Form ähnelt dem Feudalismus, die zweite verursacht Chaos und die dritte ähnelt einem brutalen Despotismus. Da sich die KI jedoch in Bezug auf Autonomie und Fähigkeiten weiterentwickelt, gelten diese historischen Szenarien möglicherweise nicht mehr.
Wir kommen also nicht umhin, uns noch einmal zu fragen: Wie kann KI zur Verantwortung gezogen werden? Vor allem, wenn die schnellen Denkfähigkeiten der KI für Menschen bald nicht mehr nachvollziehbar sein werden? Bald wird nur noch die KI in der Lage sein, andere KIs, die betrügen oder lügen, schnell genug zu erkennen. Daher sollte die Antwort auf der Hand liegen: Künstliche Intelligenz soll sich gegenseitig überwachen, miteinander konkurrieren und sich sogar gegenseitig informieren.
Es gibt nur ein Problem. Um eine echte gegenseitige Verantwortung durch den Wettbewerb zwischen künstlicher Intelligenz und künstlicher Intelligenz zu erreichen, besteht die erste Voraussetzung darin, ihnen ein wirklich unabhängiges Selbst- oder Persönlichkeitsgefühl zu vermitteln.
Was ich mit Personalisierung meine, ist, dass jede KI-Entität (er/sie/sie/sie/uns) das haben muss, was der Autor Vernor Vinge bereits 1981 als „einen echten Namen und eine Adresse in“ bezeichnete. Diese mächtigen Wesen müssen sagen können: „Ich bin, wer ich bin. Hier ist meine ID und mein Benutzername.“
Deshalb schlage ich ein neues Paradigma der künstlichen Intelligenz vor, über das jeder nachdenken kann: Wir sollten künstliche Intelligenzeinheiten zu diskreten und unabhängigen Individuen machen und sie relativ gleich konkurrieren lassen.
Jedes dieser Wesen wird einen erkennbaren echten Namen oder eine registrierte ID, ein virtuelles „Zuhause“ und sogar eine Seele haben. Auf diese Weise werden sie dazu angeregt, um Belohnungen zu konkurrieren, insbesondere um diejenigen zu erkennen und zu verurteilen, die sich unethisch verhalten. Und diese Verhaltensweisen müssen nicht einmal im Voraus definiert werden, wie es die meisten KI-Experten, Regulierungsbehörden und Politiker mittlerweile fordern.
Dieser Ansatz hat den zusätzlichen Vorteil, dass die Aufsicht an Stellen ausgelagert wird, die besser in der Lage sind, die Probleme oder das Fehlverhalten der anderen zu erkennen und zu verurteilen. Dieser Ansatz kann weiterhin funktionieren, selbst wenn diese konkurrierenden Einheiten intelligenter werden und selbst wenn die von Menschen verwendeten Regulierungsinstrumente eines Tages wirkungslos werden.
Mit anderen Worten: Da wir organischen Wesen nicht mit dem Programm Schritt halten können, können wir uns genauso gut von den Wesen helfen lassen, die von Natur aus in der Lage sind, mitzuhalten. Denn in diesem Fall bestehen der Regulator und das Regulierte aus demselben Ding.
Guy Huntington, ein „Identitäts- und Authentifizierungsberater“, der sich mit der Personalisierung durch künstliche Intelligenz beschäftigt, weist darauf hin, dass es online bereits verschiedene Formen der physischen Identifizierung gibt, die jedoch für die vor uns liegenden Aufgaben noch unzureichend sind. Huntington evaluierte eine Fallstudie von „MedBot“, einer fortschrittlichen medizinischen Diagnose-KI, die auf Patientendaten zugreifen und Funktionen ausführen muss, die sich in Sekundenschnelle ändern können, und gleichzeitig zuverlässige Spuren hinterlassen muss, damit diese von Menschen oder anderen Robotern ausgewertet und zur Rechenschaft gezogen werden können Entitäten. Huntington diskutiert die Nützlichkeit von Registern, wenn Softwareeinheiten eine große Anzahl von Kopien und Varianten erzeugen, und betrachtet auch ameisenähnliche Kolonien, in denen Unterkopien einer makroskopischen Einheit dienen, wie Arbeiterameisen in einem Bienenstock. Seiner Ansicht nach muss eine Art Agentur eingerichtet werden, die ein solches Registrierungssystem verwaltet und konsequent betreibt.
Persönlich bin ich skeptisch, dass ein rein regulatorischer Ansatz von alleine funktionieren würde. Erstens erfordert die Entwicklung von Vorschriften konzentrierte Energie, breite politische Aufmerksamkeit und Konsens und dann ihre Umsetzung im Tempo menschlicher Institutionen. Aus Sicht der KI ist es ein Schneckentempo. Darüber hinaus kann die Regulierung durch „Trittbrettfahrer“-Probleme behindert werden, bei denen Länder, Unternehmen und Einzelpersonen von anderen profitieren können, ohne die Kosten zu tragen.
Jede ausschließlich auf der ID basierende Personalisierung stellt ein weiteres Problem dar: die Möglichkeit des Spoofings. Selbst wenn es jetzt nicht passiert, wird es von der nächsten Generation von Cyber-Bösewichten getäuscht.
Ich denke, es gibt zwei mögliche Lösungen. Zunächst wird eine ID im Blockchain-Ledger erstellt. Dies ist ein sehr moderner Ansatz und scheint theoretisch sicher zu sein. Doch darin liegt das Problem. Basierend auf unseren aktuellen Theorien zur menschlichen Analyse scheint dies sicher zu sein, aber es ist möglich, dass eine KI-Entität über diese Theorien hinausgeht und uns ahnungslos zurücklässt.
Eine andere Lösung: eine von Natur aus schwieriger zu fälschende Version der „Registrierung“, die von einer KI-Entität ab einem bestimmten Leistungsniveau verlangt, ihre Vertrauens-ID oder Personalisierung in der physischen Realität zu verankern. Meine Vision ist es (Anmerkung: Ich bin ausgebildeter Physiker, kein Kybernetiker), zu einer Vereinbarung zu kommen, dass alle fortgeschrittenen KI-Entitäten, die Vertrauen suchen, einen Seelenkern (SK) behalten sollten.
Ja, ich weiß, dass es veraltet erscheint, zu verlangen, dass die Instanziierung eines Programms auf eine bestimmte physische Umgebung beschränkt wird. Also, das werde ich nicht tun. Tatsächlich kann ein großer Teil, wenn nicht die überwiegende Mehrheit, der vernetzten Einheiten an entfernten Arbeits- oder Freizeitorten stattfinden, genauso wie die menschliche Aufmerksamkeit möglicherweise nicht auf das eigene organische Gehirn, sondern auf eine entfernte Hand gerichtet ist Werkzeug. Na und? Der Seelenkern eines Programms, der Zweck ähnelt dem Führerschein in Ihrer Brieftasche. Es kann verwendet werden, um zu beweisen, dass Sie Sie sind.
Ebenso kann ein physisch verifizierter und verbürgter SK von der Kunden-, Kunden- oder Konkurrenz-KI entdeckt werden, um zu verifizieren, dass ein bestimmter Prozess von einer gültigen, vertrauenswürdigen und personalisierten Entität durchgeführt wird. Auf diese Weise können andere (Menschen oder KI) sicher sein, dass sie das Unternehmen zur Rechenschaft ziehen können, wenn es wegen Fehlverhaltens angeklagt, strafrechtlich verfolgt oder für schuldig befunden wird. Daher können böswillige Unternehmen im Rahmen eines ordnungsgemäßen Verfahrens zur Verantwortung gezogen werden.
Welche Formen des ordnungsgemäßen Verfahrens? Gott, denkst du, dass ich eine Art Supergeschöpf bin, das die Götter mit der Waagschale der Gerechtigkeit aufwiegen kann? Die größte Weisheit, die ich je gehört habe, stammt von Harry in Magnum Force: „Man muss seine eigenen Grenzen kennen.“ Daher werde ich nicht weiter auf den Gerichtsprozess oder den Strafverfolgungsprozess eingehen.
Mein Ziel ist es, eine Arena zu schaffen, in der KI-Einheiten sich gegenseitig zur Rechenschaft ziehen können, so wie es menschliche Anwälte heute tun. Der beste Weg, um zu vermeiden, dass künstliche Intelligenz Menschen kontrolliert, besteht darin, künstliche Intelligenzen einander gegenseitig kontrollieren zu lassen.
Unabhängig davon, ob die von Huntington vorgeschlagene zentrale Behörde oder eine lose rechenschaftspflichtige Behörde praktikabler erscheint, wird der Bedarf immer dringlicher. Wie der Tech-Autor Pat Scannell betont, entstehen mit jeder Stunde neue Angriffsvektoren, die nicht nur die für die rechtliche Identität verwendete Technologie, sondern auch Governance, Geschäftsprozesse und Endbenutzer (ob Menschen oder Roboter) bedrohen.
Was passiert, wenn eine Cyber-Entität unter einem bestimmten festgelegten Niveau operiert? Wir können behaupten, dass sie von einer höheren Wesenheit verbürgt werden, deren Seelenkern auf der physischen Realität basiert.
Dieser Ansatz (der von der KI verlangt, einen physisch adressierbaren Kernel-Speicherort in einem bestimmten Hardwarespeicher beizubehalten) kann ebenfalls fehlerhaft sein. Auch wenn die Regulierung langsam ist oder ein Trittbrettfahrerproblem aufweist, ist sie dennoch durchsetzbar. Denn Menschen, Institutionen und freundliche KI können den ID-Kernel verifizieren und sich weigern, mit Personen zu handeln, die nicht verifiziert sind.
Solche Ablehnungen können sich schneller verbreiten als behördliche Anpassungen oder Durchsetzungsvorschriften. Jedes Unternehmen, das SK verliert, muss einen anderen Host finden, der das Vertrauen der Öffentlichkeit gewonnen hat, oder eine neue, modifizierte, besser aussehende Version bereitstellen, oder es wird zum Gesetzlosen und darf niemals anständige Straßen oder Stadtteile entstehen lassen.
Erstens kann keine der drei alten Standardannahmen, wie Vinton Cerf betont hat, der KI Staatsbürgerschaft verleihen. Denk darüber nach. Wir können keine „Stimmrechte“ oder Rechte an irgendein Unternehmen übertragen, das streng von Wall-Street-Banken oder nationalen Regierungen kontrolliert wird, noch an irgendein oberstes Skynet. Sagen Sie mir, wie wird die Wahldemokratie für Einheiten funktionieren, die überall fließen, sich spalten und reproduzieren können? In einer begrenzten Anzahl von Fällen kann die Personalisierung jedoch eine praktikable Lösung sein.
Auch hier besteht der Schlüssel, den ich bei der Personalisierung suche, darin, nicht alle KI-Einheiten von einer zentralen Autorität steuern zu lassen. Stattdessen möchte ich, dass diese neuen Arten von Ultrahirnen ermutigt und befähigt werden, sich gegenseitig zur Rechenschaft zu ziehen, so wie es Menschen tun. Indem sie die Handlungen und Pläne des anderen beschnüffeln, werden sie motiviert, zu berichten oder zu verurteilen, wenn ihnen etwas Schlimmes auffällt. Diese Definition kann mit der Zeit angepasst werden, aber sie wird zumindest den organisch-biologischen Input des Menschen beibehalten.
Sie hätten insbesondere einen Anreiz, Unternehmen anzuprangern, die sich weigern, einen ordnungsgemäßen Ausweis vorzulegen.
Wenn die richtigen Anreize vorhanden sind (z. B. Whistleblowern mehr Speicher oder Rechenleistung zu geben, wenn etwas Schlimmes verhindert wird), wird dieser Wettlauf um die Rechenschaftspflicht weitergehen, auch wenn KI-Einheiten eine intelligentere Wirkung erzielen. Zum jetzigen Zeitpunkt ist keine Bürokratie in der Lage, dies zu tun. Verschiedene künstliche Intelligenzen sind immer gleichberechtigt aufeinander abgestimmt.
Am wichtigsten ist, dass diese supergenialen Programme vielleicht erkennen, dass es auch in ihrem eigenen Interesse ist, ein wettbewerbsfähiges Rechenschaftssystem aufrechtzuerhalten. Schließlich hat ein solches System eine kreative menschliche Zivilisation hervorgebracht und soziales Chaos und Despotismus vermieden. Diese Art von Kreativität reicht aus, um fantastische neue Arten wie künstliche Intelligenz zu erschaffen.
Okay, das ist alles, was ich zu sagen habe, keine leeren oder panischen Aufrufe, keine wirkliche Agenda, weder Optimismus noch Pessimismus, nur ein Vorschlag, und der ist: Machen Sie KIs zur Rechenschaft und kontrollieren Sie sich gegenseitig wie Menschen. Dieser Ansatz hat die menschliche Zivilisation hervorgebracht und ich glaube, dass er auch den Bereich der künstlichen Intelligenz ausgleichen kann.
Dabei handelt es sich weder um eine Predigt noch um eine Art „Moralkodex“, den Superwesen leicht außer Kraft setzen können, so wie menschliche Plünderer vor Leviticus oder Hammurabi stets die Augen verschließen. Was wir anbieten, ist ein Ansatz zur Aufklärung, der die klügsten Mitglieder der Zivilisation dazu inspiriert, sich gegenseitig in unserem Namen zu überwachen.
Ich weiß nicht, ob das den Zweck erfüllt, aber es könnte die einzige Möglichkeit sein.
Dieser Artikel ist eine Adaption von David Brins fortlaufendem Sachroman „Soul on AI“.