Kissinger spricht über künstliche Intelligenz: Wie sehen Sie die internationale Ordnung im Zeitalter der künstlichen Intelligenz?

巴比特_

Original: The Beijing News

Bildquelle: Erstellt von Unbounded AI

Von Googles AlphaGo, das menschliche Schachspieler besiegt, bis hin zu ChatGpt, der hitzige Diskussionen in der Technologie-Community auslöst – jeder Fortschritt in der Technologie der künstlichen Intelligenz geht auf die Nerven der Menschen. Es besteht kein Zweifel daran, dass künstliche Intelligenz unsere Gesellschaft, Wirtschaft, Politik und sogar die Außenpolitik tiefgreifend verändert, und traditionelle Theorien können die Auswirkungen all dessen oft nicht erklären. In dem Buch „The Era of Artificial Intelligence and the Future of Humanity“ schreiben Kissinger, der berühmte Diplomat, Schmidt, der ehemalige CEO von Google, und Huttenlocher, der Dekan der Schwarzman School of Computer Science am Massachusetts Institute of Technology beleuchtete das vergangene Leben der künstlichen Intelligenz aus verschiedenen Perspektiven. Dieses Leben und erörterte ausführlich die verschiedenen Auswirkungen, die ihre Entwicklung auf Einzelpersonen, Unternehmen, Regierungen, Gesellschaften und Länder haben kann. Mehrere Top-Denker glauben, dass die Frage, wie wir die Rolle des Menschen positionieren sollen, eine Frage sein wird, über die wir in Zukunft noch lange nachdenken müssen, da die Fähigkeiten der künstlichen Intelligenz immer stärker werden. Der folgende Inhalt ist ein Auszug aus „The Era of Artificial Intelligence and the Future of Humanity“ mit Genehmigung des Herausgebers, mit Löschungen und Überarbeitungen, Untertitel wurden vom Herausgeber hinzugefügt.

Originalautor | [US] Henry Kissinger / [US] Eric Schmidt / [US] Daniel Huttenlocher

**Was wird allgemeine künstliche Intelligenz bringen? **

Können Menschen und künstliche Intelligenz aus unterschiedlichen Perspektiven an dieselbe Realität herangehen und können sie sich gegenseitig ergänzen und ergänzen? Oder nehmen wir zwei unterschiedliche, sich aber teilweise überschneidende Realitäten wahr: eine, die Menschen rational erklären können, und eine, die künstliche Intelligenz algorithmisch erklären kann? Wenn die Antwort Letzteres ist, dann kann künstliche Intelligenz Dinge wahrnehmen, die wir noch nicht wahrgenommen haben und nicht wahrnehmen können – nicht nur, weil wir nicht genug Zeit haben, auf unsere Art und Weise darüber nachzudenken, sondern weil sie an einem Ort existieren, an dem unser Verstand ist kann nicht konzeptualisieren. im Feld. Das Streben der Menschheit nach einem „vollständigen Verständnis der Welt“ wird sich ändern, und die Menschen werden erkennen, dass wir, um bestimmtes Wissen zu erlangen, möglicherweise künstliche Intelligenz damit betrauen müssen, Wissen für uns zu beschaffen und uns darüber Bericht zu erstatten. Unabhängig von der Antwort: Da künstliche Intelligenz immer umfassendere und umfassendere Ziele verfolgt, wird sie für den Menschen immer mehr wie ein „Geschöpf“ erscheinen, das die Welt erlebt und versteht – eine Kombination aus Werkzeugen, Haustieren und Geistern.

Wenn sich Forscher der künstlichen allgemeinen Intelligenz nähern oder diese erreichen, wird das Rätsel nur noch tiefer. Wie wir in Kapitel 3 besprochen haben, wird sich AGI nicht auf das Lernen und Ausführen spezifischer Aufgaben beschränken; stattdessen wird AGI per Definition in der Lage sein, ein extrem breites Spektrum an Aufgaben zu lernen und auszuführen, genau wie Menschen. Die Entwicklung künstlicher allgemeiner Intelligenz wird eine enorme Rechenleistung erfordern, was dazu führen kann, dass nur wenige gut finanzierte Organisationen in der Lage sind, eine solche KI zu entwickeln. Wie bei der aktuellen KI kann AGI zwar aufgrund seiner Fähigkeiten problemlos dezentral eingesetzt werden, seine Anwendungsmöglichkeiten werden jedoch zwangsläufig begrenzt sein. Der AGI könnten Beschränkungen auferlegt werden, indem nur zugelassenen Organisationen gestattet wird, sie zu betreiben. Dann stellt sich die Frage: Wer wird AGI kontrollieren? Wer genehmigt die Verwendung? Ist Demokratie in einer Welt, in der ein paar „geniale“ Maschinen von ein paar Organisationen betrieben werden, noch möglich? Wie wird in diesem Fall die Zusammenarbeit zwischen Mensch und KI aussehen?

Wenn künstliche allgemeine Intelligenz tatsächlich auf der Welt auftaucht, wäre das eine große intellektuelle, wissenschaftliche und strategische Errungenschaft. Aber selbst wenn dies nicht gelingt, kann künstliche Intelligenz eine Revolution in den menschlichen Angelegenheiten herbeiführen. Der Antrieb und die Fähigkeit der KI, auf Notfälle (oder unerwartete Ereignisse) zu reagieren und Lösungen bereitzustellen, heben sie von früheren Technologien ab. Ohne Regulierung könnte die KI von unseren Erwartungen und damit auch von unserer Absicht abweichen. Die Entscheidung, ob man es einschränkt, mit ihm kooperiert oder ihm gehorcht, wird nicht allein von Menschen getroffen. In manchen Fällen wird dies von der KI selbst bestimmt, in anderen hängt es von verschiedenen ermöglichenden Faktoren ab. Der Mensch könnte in einen „Wettlauf nach unten“ verwickelt sein.

Da KI Prozesse automatisiert, es Menschen ermöglicht, große Datenmengen zu erkunden und die physischen und sozialen Bereiche zu organisieren und umzustrukturieren, könnten diese Vorreiter einen Vorreitervorteil erlangen. Der Wettbewerbsdruck könnte die Parteien dazu zwingen, sich um die Einführung von AGI zu bemühen, ohne ausreichend Zeit für die Bewertung der Risiken zu haben, oder sie einfach zu ignorieren. Ethische Aspekte der künstlichen Intelligenz sind von wesentlicher Bedeutung. Jede einzelne Entscheidung – sich einzuschränken, zu kooperieren oder sich daran zu halten – kann dramatische Konsequenzen haben oder auch nicht, aber in Kombination vervielfacht sich die Wirkung.

Diese Entscheidungen können nicht isoliert getroffen werden. Wenn die Menschheit die Zukunft gestalten will, muss sie sich auf gemeinsame Prinzipien einigen, die jede Entscheidung leiten. Es ist wahr, dass kollektives Handeln schwierig und manchmal sogar unmöglich ist, aber individuelles Handeln ohne die Führung durch eine gemeinsame moralische Norm wird nur zu größerem Aufruhr und Chaos für die gesamte Menschheit führen. Wer KI entwirft, trainiert und damit arbeitet, wird in der Lage sein, Ziele von einem Ausmaß und einer Komplexität zu erreichen, die für Menschen bisher unerreichbar waren, wie zum Beispiel neue wissenschaftliche Durchbrüche, neue wirtschaftliche Effizienz, neue Formen der Sicherheit und eine neue Dimension der sozialen Überwachung. Und bei der Ausweitung der künstlichen Intelligenz und ihrer Nutzung könnten diejenigen, die nicht dazu befugt sind, das Gefühl haben, von Kräften beobachtet, untersucht und auf sie eingewirkt zu werden, die sie nicht verstehen und die nicht von ihnen selbst entworfen oder gewählt wurden. Diese Macht wirkt auf undurchsichtige Weise, die in vielen Gesellschaften von traditionellen menschlichen Akteuren oder Institutionen nicht toleriert werden kann. KI-Designer und -Anwender sollten darauf vorbereitet sein, diese Probleme anzugehen, indem sie zunächst technisch nicht versierten Personen erklären, was KI tut, was sie „weiß“ und wie sie es tut. Die dynamische und aufstrebende Natur der KI führt auf mindestens zwei Arten zu Unklarheiten. Erstens kann künstliche Intelligenz zwar so funktionieren, wie wir es erwarten, aber zu Ergebnissen führen, die wir nicht vorhersehen können. Diese Ergebnisse könnten die Menschheit an Orte führen, die ihre Schöpfer nie erwartet hätten, so wie Politiker im Jahr 1914 nicht erkannten, dass die alte Logik der militärischen Mobilisierung gepaart mit neuer Technologie Europa in den Krieg ziehen würde. Auch künstliche Intelligenz kann schwerwiegende Folgen haben, wenn sie unüberlegt eingesetzt und genutzt wird.

Standbilder aus dem Film Alita: Battle Angel.

Diese Folgen können gering sein, wie etwa eine lebensbedrohliche Entscheidung durch ein selbstfahrendes Auto, oder äußerst bedeutsam, wie etwa ein schwerer militärischer Konflikt. Zweitens kann KI in manchen Anwendungsbereichen unvorhersehbar sein und völlig unerwartet agieren. Am Beispiel von AlphaZero entwickelte das Unternehmen einen Schachstil, den sich die Menschen in Tausenden von Jahren der Schachgeschichte noch nie vorgestellt hatten, nur nach den Anweisungen des „Schachgewinnens“. Während Menschen bei der Vorgabe der Ziele einer KI vorsichtig sein mögen, könnte der Weg zu diesem Ziel uns überraschen und uns sogar in Panik versetzen, wenn wir ihr mehr Spielraum einräumen. Daher müssen sowohl die Ausrichtung als auch der Auftrag der KI sorgfältig konzipiert werden, insbesondere in Bereichen, in denen ihre Entscheidungen tödlich sein können. KI sollte weder als autonom und unbeaufsichtigt betrachtet werden, noch sollte ihr gestattet werden, unwiderrufliche Maßnahmen ohne Aufsicht, Überwachung oder direkte Kontrolle zu ergreifen. Künstliche Intelligenz wurde von Menschen geschaffen und sollte daher auch von Menschen überwacht werden. Aber eine der Herausforderungen der KI in unserer Zeit besteht darin, dass Menschen mit den Fähigkeiten und Ressourcen, sie zu erschaffen, nicht unbedingt über die philosophische Perspektive verfügen, um ihre umfassenderen Auswirkungen zu verstehen. Viele Entwickler künstlicher Intelligenz konzentrieren sich in erster Linie auf die Anwendungen, die sie erreichen möchten, und auf die Probleme, die sie lösen möchten: Sie denken möglicherweise nicht darüber nach, ob die Lösung eine historische Revolution auslösen wird oder wie sich ihre Technologie auf andere Zielgruppen auswirken wird. Das Zeitalter der künstlichen Intelligenz braucht seinen eigenen Descartes und Kant, um zu erklären, was wir geschaffen haben und was es für den Menschen bedeutet.

Wir müssen rationale Diskussionen und Verhandlungen organisieren, an denen Regierungen, Universitäten und Innovatoren aus der Privatwirtschaft beteiligt sind, und das Ziel sollte darin bestehen, praktischem Handeln Grenzen zu setzen, wie sie heute das individuelle und organisatorische Handeln bestimmen. KI verfügt über Merkmale, die einige der derzeit regulierten Produkte, Dienstleistungen, Technologien und Einheiten teilweise gemeinsam haben, sich jedoch in einigen wichtigen Punkten von ihnen unterscheiden, da ihr ein vollständig definierter eigener konzeptioneller und rechtlicher Rahmen fehlt. Beispielsweise stellt die sich ständig weiterentwickelnde und provokative Natur der KI regulatorische Herausforderungen dar: Wer und wie sie in der Welt agiert, kann je nach Bereich unterschiedlich sein und sich im Laufe der Zeit weiterentwickeln, und das nicht immer auf vorhersehbare Weise. Die Führung der Menschen wird von einem Ethikkodex geleitet. KI braucht einen eigenen moralischen Kompass, der nicht nur die Natur der Technologie, sondern auch die Herausforderungen, die sie mit sich bringt, widerspiegelt.

Oftmals gelten hier keine etablierten Grundsätze. Im Zeitalter des Glaubens, als Angeklagte in der Inquisition vor einem Kampfurteil standen, konnte das Gericht über das Verbrechen entscheiden, aber Gott entschied, wer siegreich war. Im Zeitalter der Vernunft beurteilten die Menschen die Schuld nach den Grundsätzen der Vernunft und beurteilten und bestraft Verbrechen nach Konzepten wie Kausalität und krimineller Absicht. Aber künstliche Intelligenz basiert weder auf der menschlichen Vernunft noch auf menschlicher Motivation, Absicht oder Selbstreflexion. Somit wird die Einführung von KI bestehende Gerechtigkeitsprinzipien, die für Menschen gelten, erschweren.

Wenn ein autonomes System auf der Grundlage seiner eigenen Wahrnehmungen und Entscheidungen handelt, übernehmen seine Schöpfer dann Verantwortung? Oder sollten die Handlungen der KI zumindest im Hinblick auf die Schuld nicht mit denen ihrer Schöpfer verwechselt werden? Wenn KI eingesetzt werden soll, um Anzeichen von kriminellem Verhalten zu erkennen oder um festzustellen, ob jemand schuldig ist, muss die KI dann in der Lage sein, zu „erklären“, wie sie zu ihren Schlussfolgerungen gelangt ist, damit menschliche Beamte ihr vertrauen können? Und zu welchem Zeitpunkt und in welchem Kontext der technologischen Entwicklung sollte KI Gegenstand internationaler Verhandlungen sein? Dies ist ein weiteres wichtiges Diskussionsthema. Wenn die Technologie zu früh untersucht wird, könnte die Entwicklung der Technologie behindert werden oder sie könnte versucht sein, ihre Fähigkeiten zu verbergen; zu lange verzögert könnte sie verheerende Folgen haben, insbesondere im Militär. Diese Herausforderung wird durch die Schwierigkeit verschärft, wirksame Verifizierungsmechanismen für eine Technologie zu entwickeln, die ätherisch, undurchsichtig und leicht zu verbreiten ist. Die offiziellen Verhandlungsführer werden notwendigerweise Regierungen sein, aber es wird auch eine Stimme für Technologen, Ethiker, die Unternehmen, die KI entwickeln und betreiben, und andere außerhalb des Fachgebiets erforderlich sein.

Standbilder aus dem amerikanischen Drama „Western World“.

Die durch KI aufgeworfenen Dilemmata haben weitreichende Auswirkungen auf verschiedene Gesellschaften. Ein Großteil unseres gesellschaftlichen und politischen Lebens findet heute auf KI-gestützten Online-Plattformen statt, und insbesondere Demokratien sind auf diese Informationsräume für Debatten und Kommunikation angewiesen, um die öffentliche Meinung zu formen und ihr Legitimität zu verleihen. Wer oder welche Behörde sollte die Rolle der Technologie definieren? Wer soll es regulieren? Welche Rolle sollten Einzelpersonen, die KI nutzen, spielen? Was ist mit Unternehmen, die künstliche Intelligenz produzieren? Was ist mit Sozialregierungen, die es einsetzen? Als Teil der Lösung dieser Probleme sollten wir versuchen, es überprüfbar zu machen, das heißt, seine Prozesse und Schlussfolgerungen sind sowohl überprüfbar als auch korrigierbar. Ob Korrekturen umgesetzt werden können, hängt wiederum von der Fähigkeit ab, die Prinzipien für die Form der KI-Wahrnehmung und Entscheidungsfindung zu verfeinern. Moral, Wille und sogar Kausalität passen nicht gut in die Welt der autonomen künstlichen Intelligenz. Ähnliche Probleme treten auf den meisten Ebenen der Gesellschaft auf, vom Transport über die Finanzen bis hin zur Medizin.

Bedenken Sie die Auswirkungen künstlicher Intelligenz auf soziale Medien. Mit den jüngsten Innovationen sind diese Plattformen schnell zu einem wichtigen Aspekt unseres öffentlichen Lebens geworden. Wie wir in Kapitel 4 besprochen haben, basieren die Funktionen, die Twitter und Facebook nutzen, um Inhalte oder Einzelpersonen hervorzuheben, einzuschränken oder ganz zu verbieten, allesamt auf künstlicher Intelligenz, ein Beweis für deren Leistungsfähigkeit. Der Einsatz von KI zur einseitigen und oft undurchsichtigen Förderung oder Entfernung von Inhalten und Konzepten ist eine Herausforderung für alle Nationen, insbesondere für Demokratien. Ist es für uns möglich, die Vorherrschaft zu behalten, während sich unser soziales und politisches Leben zunehmend in Bereiche verlagert, die von künstlicher Intelligenz gesteuert werden, und wir uns nur auf ein solches Management verlassen können, um diese zu bewältigen?

Die Praxis, künstliche Intelligenz zur Verarbeitung großer Informationsmengen einzusetzen, stellt noch eine weitere Herausforderung dar: Die künstliche Intelligenz verstärkt die Verzerrung der Welt, um den instinktiven Vorlieben des Menschen gerecht zu werden. Dies ist ein Bereich, in dem künstliche Intelligenz unsere kognitiven Vorurteile leicht verstärken kann, wir aber dennoch mit ihnen in Resonanz stehen. Mit diesen Stimmen, konfrontiert mit einer Vielfalt von Wahlmöglichkeiten und befugt, zu wählen und zu prüfen, werden die Menschen eine Flut von Fehlinformationen erhalten. Social-Media-Unternehmen fördern mit ihren Newsfeeds keine extreme und gewalttätige politische Polarisierung, aber es ist klar, dass diese Dienste auch nicht zur Maximierung eines aufgeklärten Diskurses führen.

Künstliche Intelligenz, freie Informationen und unabhängiges Denken

Wie sollte also unsere Beziehung zur KI aussehen? Sollte es eingeschränkt, ermächtigt oder als Partner bei der Verwaltung dieser Bereiche behandelt werden? Es besteht kein Zweifel daran, dass die Verbreitung bestimmter Informationen, insbesondere vorsätzlich erstellter Falschinformationen, zu Schädigung, Spaltung und Volksverhetzung führen kann. Daher sind einige Einschränkungen erforderlich. Allerdings sind die Verurteilung, der Angriff und die Unterdrückung „schädlicher Informationen“ mittlerweile zu locker und sollten auch zum Nachdenken anregen.

In einer freien Gesellschaft sollte die Definition von Schädlichkeit und Desinformation nicht auf den Zuständigkeitsbereich von Unternehmen beschränkt bleiben. Wenn solche Verantwortlichkeiten jedoch einer Regierungsgruppe oder -behörde übertragen werden, sollte diese Gruppe oder Behörde nach festgelegten öffentlichen Standards und überprüfbaren Verfahren vorgehen, um eine Ausbeutung durch die Machthaber zu vermeiden. Wenn es einem KI-Algorithmus anvertraut wird, müssen die objektive Funktion, das Lernen, die Entscheidungen und die Handlungen des Algorithmus klar sein, einer externen Prüfung unterliegen und zumindest in irgendeiner Form für den Menschen attraktiv sein.

Natürlich werden verschiedene Gesellschaften hierauf unterschiedliche Antworten geben. Einige Gesellschaften betonen möglicherweise die Meinungsfreiheit, möglicherweise in unterschiedlichem Maße, basierend auf ihrem relativen Verständnis individueller Ausdrucksformen, und schränken daher möglicherweise die Rolle der KI bei der Moderation von Inhalten ein. Jede Gesellschaft entscheidet selbst, welche Ideen sie wertschätzt, was zu komplexen Beziehungen mit multinationalen Netzwerkplattformbetreibern führen kann. KI ist saugfähig wie ein Schwamm und lernt vom Menschen, selbst wenn wir sie entwerfen und formen.

Standbilder aus dem amerikanischen Drama „Western World“.

Daher sind nicht nur die Entscheidungen jeder Gesellschaft unterschiedlich, sondern auch die Beziehung jeder Gesellschaft zur KI, die Wahrnehmung von KI und die Art und Weise, wie KI Menschen imitiert und von menschlichen Lehrern lernt, sind unterschiedlich. Eines ist jedoch sicher: Die menschliche Suche nach Fakten und Wahrheit sollte nicht dazu führen, dass eine Gesellschaft das Leben durch einen schlecht definierten und nicht überprüfbaren Filter erlebt. Die spontane Erfahrung der Realität ist trotz all ihrer Widersprüche und Komplexitäten ein wichtiger Aspekt der menschlichen Existenz, auch wenn sie zu Ineffizienzen oder Fehlern führt.

Künstliche Intelligenz und internationale Ordnung

Überall auf der Welt warten unzählige Fragen darauf, beantwortet zu werden. Wie können Online-Plattformen mit künstlicher Intelligenz reguliert werden, ohne dass es zu Spannungen in Ländern kommt, die sich Sorgen um ihre Sicherheit machen? Werden diese Online-Plattformen traditionelle Vorstellungen von nationaler Souveränität untergraben? Werden die daraus resultierenden Veränderungen zu einer Polarisierung in der Welt führen, die es seit dem Zusammenbruch der Sowjetunion nicht mehr gegeben hat? Hat der kleine Kongress Einwände? Werden Versuche, diese Folgen abzumildern, erfolgreich sein? Oder besteht Hoffnung auf Erfolg?

Da die Fähigkeiten der künstlichen Intelligenz immer weiter zunehmen, wird die Frage, wie die Rolle des Menschen in Zusammenarbeit mit künstlicher Intelligenz positioniert werden kann, immer wichtiger und komplexer. Wir können uns eine Welt vorstellen, in der Menschen die Meinungen künstlicher Intelligenz zu immer wichtigeren Themen zunehmend respektieren. Können Führungskräfte auf der defensiven Seite in einer Welt, in der offensive Gegner erfolgreich KI einsetzen, beschließen, ihre eigene KI nicht einzusetzen und die Verantwortung dafür zu übernehmen? Selbst sie sind sich nicht sicher, wie sich dieser Einsatz entwickeln wird. Und wenn KI über die überlegene Fähigkeit verfügt, eine Vorgehensweise zu empfehlen, gibt es dann für Entscheidungsträger einen Grund, diese zu akzeptieren, selbst wenn diese Vorgehensweise ein gewisses Maß an Opfern erfordert? Wie kann der Mensch wissen, ob ein solches Opfer für den Sieg unerlässlich ist? Wenn es unbedingt erforderlich ist, sind die politischen Entscheidungsträger dann wirklich bereit, dagegen ein Veto einzulegen? Mit anderen Worten: Wir haben möglicherweise keine andere Wahl, als künstliche Intelligenz zu fördern. Aber wir haben auch die Verantwortung, es so zu gestalten, dass es mit der Zukunft der Menschheit vereinbar ist. Unvollkommenheit ist eine der Normen der menschlichen Erfahrung, insbesondere wenn es um Führung geht.

Oftmals werden politische Entscheidungsträger von unerträglichen Sorgen überwältigt. Manchmal basieren ihre Handlungen auf falschen Annahmen, manchmal handeln sie aus purer Emotion und wieder andere Male verzerrt die Ideologie ihre Vision. Welche Strategien auch immer zur Strukturierung von Mensch-KI-Partnerschaften verwendet werden, sie müssen an den Menschen angepasst werden. Wenn künstliche Intelligenz in bestimmten Bereichen übermenschliche Fähigkeiten aufweist, muss ihr Einsatz mit der unvollkommenen menschlichen Umwelt vereinbar sein.

Im Sicherheitsbereich reagieren KI-gestützte Systeme so schnell, dass Angreifer möglicherweise versuchen, das System anzugreifen, bevor es betriebsbereit ist. Das Ergebnis könnte eine inhärent instabile Situation sein, vergleichbar mit der durch Atomwaffen geschaffenen. Dennoch sind Atomwaffen in Konzepte der internationalen Sicherheit und Rüstungskontrolle eingebettet, die in den letzten Jahrzehnten von Regierungen, Wissenschaftlern, Strategen und Ethikern durch kontinuierliche Verfeinerung, Debatte und Verhandlung entwickelt wurden. Künstliche Intelligenz und Cyberwaffen haben keinen ähnlichen Rahmen.

Tatsächlich zögern Regierungen möglicherweise, ihre Existenz anzuerkennen. Länder – und möglicherweise auch Technologieunternehmen – müssen sich darauf einigen, wie sie mit waffenfähiger KI koexistieren können. Die Verbreitung von KI durch staatliche Verteidigungsfunktionen wird das internationale Gleichgewicht und die Datenverarbeitung, auf der es in unserer Zeit aufrechterhalten wird, verändern. Atomwaffen sind teuer und aufgrund ihrer Größe und Struktur schwer zu verbergen. Im Gegensatz dazu kann künstliche Intelligenz auf Computern laufen, die überall zu finden sind. Da das Training eines Modells für maschinelles Lernen Fachwissen und Rechenressourcen erfordert, erfordert die Schaffung einer künstlichen Intelligenz Ressourcen auf der Ebene eines großen Unternehmens oder Landes; und da die Anwendung künstlicher Intelligenz auf relativ kleinen Computern erfolgt, wird sie zwangsläufig weit verbreitet sein , auch auf eine Weise, die wir nicht erwartet hatten. Wird jemand mit einem Laptop, einer Internetverbindung und der Leidenschaft, in die dunkle Seite der KI einzudringen, endlich Zugang zu einer KI-gestützten Waffe haben? Werden Regierungen zulassen, dass Akteure mit engen oder keinen Verbindungen zu ihnen KI nutzen, um ihre Gegner zu belästigen? Werden Terroristen KI-Angriffe planen? Können sie diese Aktivitäten Staaten oder anderen Akteuren zuordnen?

Früher fand die Diplomatie in einem organisierten und vorhersehbaren Umfeld statt, heute werden ihr Zugang zu Informationen und ihr Handlungsspielraum stark erweitert. Die klaren Grenzen, die früher durch geografische und sprachliche Unterschiede gebildet wurden, werden nach und nach verschwinden. KI-Übersetzungen werden den Dialog erleichtern, ohne dass nicht nur sprachliche, sondern auch kulturelle Kenntnisse erforderlich sind, wie dies bei früheren Übersetzern der Fall war. KI-gestützte Online-Plattformen werden die grenzüberschreitende Kommunikation erleichtern, während Hacking und Desinformation weiterhin Wahrnehmungen und Einschätzungen verzerren werden. Je komplexer die Situation wird, desto schwieriger wird es, durchsetzbare Vereinbarungen mit vorhersehbaren Ergebnissen zu entwickeln.

Die Möglichkeit, KI-Fähigkeiten mit Cyberwaffen zu kombinieren, verschärft dieses Dilemma. Die Menschheit umgeht das nukleare Paradoxon, indem sie eine klare Unterscheidung zwischen konventionellen Waffen (die im Einklang mit der konventionellen Strategie betrachtet werden) und Atomwaffen (die als Ausnahme betrachtet werden) trifft. Sobald die zerstörerische Kraft von Atomwaffen freigesetzt wird, ist sie wahllos und unabhängig vom Ziel; konventionelle Waffen können das Ziel unterscheiden. Aber Cyberwaffen, die sowohl Ziele identifizieren als auch in großem Umfang Chaos anrichten können, machen diesen Unterschied zunichte.

Zusammen mit dem Treibstoff der künstlichen Intelligenz werden diese Waffen noch unberechenbarer und potenziell zerstörerischer. Gleichzeitig ist es unmöglich, ihre Zugehörigkeit zu bestimmen, wenn diese Waffen im Netzwerk unterwegs sind. Sie können nicht entdeckt werden, weil sie nicht sperrig wie Atomwaffen sind; sie können auch auf USB-Sticks mitgeführt werden, was die Verbreitung erleichtert. In einigen Formen sind diese Waffen nach ihrem Einsatz schwer zu kontrollieren, umso mehr angesichts der dynamischen und aufstrebenden Natur der künstlichen Intelligenz.

Diese Situation stellt die Prämissen der regelbasierten Weltordnung in Frage. Darüber hinaus ist es zwingend erforderlich, Konzepte zur KI-Rüstungskontrolle zu entwickeln. Im Zeitalter der künstlichen Intelligenz wird die Abschreckung nicht mehr historischen Normen folgen und dies auch nicht tun. Zu Beginn des Nuklearzeitalters wurde ein konzeptioneller Rahmen für die nukleare Rüstungskontrolle entwickelt, der auf Erkenntnissen aus Diskussionen zwischen führenden Professoren und Wissenschaftlern (mit Regierungserfahrung) an Harvard, MIT und Caltech basierte, die wiederum zur Schaffung eines Systems führten ( und die Institutionen, die es in den Vereinigten Staaten und anderen Ländern umsetzen).

So wichtig akademisches Denken auch ist, wird es getrennt von den Überlegungen des Pentagons zur konventionellen Kriegsführung umgesetzt – eine neue Ergänzung, keine Modifikation. Doch die potenziellen militärischen Einsatzmöglichkeiten künstlicher Intelligenz gehen über Atomwaffen hinaus, und die Unterscheidung zwischen Angriff und Verteidigung ist zumindest im Moment nicht klar. In einer so komplexen und von Natur aus unvorhersehbaren Welt wird künstliche Intelligenz zu einer weiteren möglichen Quelle von Missverständnissen und Fehlern, und früher oder später werden Großmächte mit High-Tech-Fähigkeiten in einen kontinuierlichen Dialog eintreten müssen.

Ein solcher Dialog sollte sich auf ein grundlegendes Thema konzentrieren: Katastrophen vermeiden und überleben. Künstliche Intelligenz und andere neue Technologien wie das Quantencomputing scheinen Realitäten jenseits der menschlichen Wahrnehmung zugänglicher zu machen. Letztendlich werden wir jedoch möglicherweise feststellen, dass auch diese Techniken ihre Grenzen haben. Unser Problem besteht darin, dass wir ihre philosophischen Implikationen nicht verstanden haben. Wir werden von ihnen unwillkürlich und nicht bewusst vorangetrieben.

Das letzte Mal kam es während der Aufklärung zu einem großen Wandel im menschlichen Bewusstsein, und dieser Wandel geschah, weil neue Technologien neue philosophische Erkenntnisse hervorbrachten, die wiederum durch Technologie (in Form der Druckmaschine) verbreitet wurden. In unserer Zeit wurden neue Technologien ohne entsprechende Leitphilosophien entwickelt. Künstliche Intelligenz ist ein riesiges Unterfangen mit weitreichenden potenziellen Vorteilen. Menschen arbeiten hart daran, künstliche Intelligenz zu entwickeln, aber nutzen wir sie, um unser Leben besser oder schlechter zu machen? Es verspricht stärkere Medikamente, eine effizientere und gerechtere Gesundheitsversorgung, nachhaltigere Umweltpraktiken und andere Fortschrittsvisionen. Gleichzeitig kann es jedoch auch Informationen verzerren oder zumindest den Prozess des Informationskonsums und der Wahrheitsfindung erschweren und dadurch die Fähigkeit einiger Menschen zum unabhängigen Denken und Urteilen schwächen.

Am Ende stellt sich eine „Meta“-Frage: Kann der Mensch das Bedürfnis nach Philosophie mit der „Hilfe“ künstlicher Intelligenz mit unterschiedlichen Interpretationen und Verständnissen der Welt befriedigen? Menschen verstehen Maschinen nicht vollständig, aber werden wir irgendwann Frieden mit ihnen schließen und die Welt verändern? Immanuel Kant beginnt sein Vorwort zu seiner Kritik der reinen Vernunft mit diesem Punkt:

Die menschliche Vernunft hat das besondere Schicksal, dass sie in einem Zweig ihres gesamten Wissens mit Problemen konfrontiert wird, die nicht außer Acht gelassen werden können, da sie sich durch die Natur der Vernunft selbst auferlegen, die aber alle Fähigkeiten der Vernunft übertreffen , es kann nicht gelöst werden.

In den Jahrhunderten seitdem haben sich die Menschen eingehend mit diesen Fragen beschäftigt, von denen einige die Natur des Geistes, der Vernunft und sogar der Realität berühren. Die Menschheit hat große Durchbrüche erzielt, ist aber auch auf viele der von Kant aufgestellten Einschränkungen gestoßen: einen Bereich von Fragen, den sie nicht beantworten kann, einen Bereich von Fakten, den sie nicht vollständig verstehen kann. Das Aufkommen der künstlichen Intelligenz, die die Fähigkeit mit sich bringt, Informationen zu lernen und zu verarbeiten, die Menschen mit Vernunft allein nicht erreichen können, könnte es uns ermöglichen, Fortschritte bei Fragen zu erzielen, die nachweislich über unsere Fähigkeit hinausgehen, sie zu beantworten. Doch der Erfolg wird neue Fragen aufwerfen, von denen wir einige in diesem Buch zu beleuchten versucht haben. Menschliche Intelligenz und künstliche Intelligenz befinden sich an einem Punkt, an dem beide in Bestrebungen auf nationaler, kontinentaler oder sogar globaler Ebene zusammenlaufen werden. Um diesen Wandel zu verstehen und einen ethischen Leitkodex dafür zu entwickeln, bedarf es der kollektiven Weisheit, der Stimme und des gemeinsamen Engagements aller Teile der Gesellschaft, einschließlich Wissenschaftlern und Strategen, Politikern und Philosophen, Geistlichen und CEOs. Diese Verpflichtung sollte nicht nur innerhalb von Ländern, sondern auch zwischen Ländern eingegangen werden. Welche Art von Partnerschaft können wir mit künstlicher Intelligenz eingehen und welche Realität wird daraus entstehen? Jetzt ist es an der Zeit, dies zu definieren.

Autor: / [US] Henry Kissinger / [US] Eric Schmidt / [US] Daniel Huttenlocher

Auszug / Liu Yaguang

Herausgeber/Liu Yaguang

Korrekturlesen / Zhao Lin

Original anzeigen
Disclaimer: The information on this page may come from third parties and does not represent the views or opinions of Gate. The content displayed on this page is for reference only and does not constitute any financial, investment, or legal advice. Gate does not guarantee the accuracy or completeness of the information and shall not be liable for any losses arising from the use of this information. Virtual asset investments carry high risks and are subject to significant price volatility. You may lose all of your invested principal. Please fully understand the relevant risks and make prudent decisions based on your own financial situation and risk tolerance. For details, please refer to Disclaimer.
Kommentieren
0/400
Keine Kommentare