Heißt es bald "AI-pocalypse now"?

Think:Act Magazin "KI neu denken"
Heißt es bald "AI-pocalypse now"?

15. Mai 2024

Während einige in KI enormes Potenzial sehen, sorgen sich andere um mögliche Risiken

Artikel

von Fred Schulenburg
Kunstwerk von Carsten Gueth

Der große Physiker Stephen Hawking warnte, dass KI das Ende der Menschheit bedeuten könnte. Die Fortschritte KI-getriebener Apps sind schwindelerregend, ihr Einsatz bald allgegenwärtig. Werden diese technischen Quantensprünge eine neue, inspirierende Menschheitsepoche einläuten – oder das Leben, wie wir es kennen, zerstören? Und wie können Regierungen und Big Tech die Balance finden zwischen Regulierung und Innovation?

Gut zu wissen
Verstehe die Ängste rund um KI:

Die Art ihrer In­telligenz weicht von der menschlich-biologischen ab: Sie kann ihr Wissen augenblicklich global vernetzen.

Ordne KI historisch ein:

Als nach dem Zweiten Weltkrieg die Atomkraft zu einer neuen Bedrohung wurde, fand die Menschheit gemeinsame Lösungen.  

Verstehe die Vorteile:

Der Aufstieg von KI könnte ein Anstoß sein, kreativer zu werden und die Dinge besser zu machen, als es die Maschinen können.

Bletchley Park wirkt vielleicht so wie eines dieser englischen Landhäuser aus einem heimeligen Agatha-Christie-Krimi. Im späten 19. Jahrhundert von einem Finanzmogul erbaut, ist das Haus ein Mischmasch architektonischer Stile, die zusammen einen "rührselig monströsen Haufen" ergeben, wie es ein Architekturkritiker formulierte. Dennoch erheben das rund 100 Kilometer nordwestlich von London gelegene Haus und Gut einen plausiblen Anspruch darauf, die Wiege unseres Computerzeitalters zu sein. Hier versammelten sich während des Zweiten Weltkriegs einige der weltbesten Mathematiker, unter ihnen der legendäre Alan Turing, um die militärischen Chiffren der Deutschen zu knacken. Dabei entwickelten sie unter anderem einen programmierbaren Computer – das Vorzeichen einer technologischen Revolution.

Abstraktes Design in Neonfarben von Carsten Gueth

So war Bletchley Park ein passender Ort für den ersten globalen Gipfel zur Sicherheit Künstlicher Intelligenz. Im November 2023 kamen hier Regierungsbeamte, Wissenschaftler und Führungskräfte der Technologiebranche aus 28 Ländern zusammen, um die Chancen und Risiken der mächtigen neuen Technologie zu diskutieren, die – je nachdem, mit wem man spricht – das Potenzial hat, die Welt zum Besseren oder Schlechteren zu verändern. Unter der Leitung des britischen Premierministers Rishi Sunak brachte der AI Safety Summit in Bletchley Park Vertreter der US- und chinesischen Regierungen sowie Persönlichkeiten wie Elon Musk und Sam Altman von OpenAI zusammen. Zu den Diskussionspunkten gehörte die Frage, ob und wie die Entwicklung von KI kontrolliert werden sollte.

Olivia O'Sullivan

Olivia O'Sullivan ist die GB-Direktorin im Weltprogramm von Chatham House und war Mitglied des britischen Open Innovation Teams.

Die anwesende Prominenz bestätigte, wie schnell KI in allen Lebensbereichen präsent geworden ist, von der Wirtschaft über die Politik und Unterhaltung bis hin zur Gesundheitsversorgung und darüber hinaus. Was einst Science-Fiction war, ist zu einem Teil unserer alltäglichen Realität geworden: Zahlreiche Szenarien, in denen die Maschinen die Kontrolle übernehmen, sind denkbar. Nun drehen sich die Diskussionen darum, welche Jobs nicht durch intelligente Maschinen gefährdet sind.

Das Tempo der Entwicklung ist atemberaubend. Der beliebte Bot ChatGPT ging erst Ende November 2022 online. Schon ist er zur am schnellsten wachsenden Verbraucher-App aller Zeiten geworden. "Die Entwicklung der Technologie hat innerhalb eines Jahres die Erwartungen vieler Experten übertroffen", sagt Olivia O'Sullivan vom Thinktank Chatham House in London. Ein führender Wissenschaftler auf dem Gebiet sagt, dass er keinen Tag im Labor verpassen dürfe, da jeden Tag etwas Neues entsteht. Und das ist erst der Anfang. Fei-Fei Li von der Stanford University, eine führende KI-Entwicklerin, erklärt, dass wir uns immer noch in der "sehr frühen … vornewtonschen" Evolutionsphase der Technologie befinden.

"Innerhalb eines Jahres hat die Entwicklung viele Erwartungen übertroffen."
Portrait of Olivia O'Sullivan

Olivia O'Sullivan

GB-Direktorin im Weltprogramm
Chatham House

Zu allem Überfluss herrscht große Unsicherheit darüber, was genau wir meinen, wenn wir über Künstliche Intelligenz sprechen. Schon heute ist KI fest in zahlreichen alltäglichen Anwendungen verankert, von der Texterkennung bis hin zur Zusammenstellung von Leseempfehlungen basierend auf früheren Entscheidungen, von der Prognose von Patientenzahlen für Krankenhäuser bis zur Höhe der neuen Hausratversicherung.

Viel unklarer scheint bislang die nächste Stufe, die sogenannte "Frontier-KI", von der britischen Regierung definiert als "hochfähige allgemeine KI-Modelle, die eine Vielzahl von Aufgaben ausführen können und die Fähigkeiten der heute fortschrittlichsten Modelle erreichen oder übertreffen können". Das KI-Unternehmen OpenAI fügt hinzu, dass solche Modelle "gefährliche Fähigkeiten haben könnten, die ernsthafte Risiken für die öffentliche Sicherheit darstellen könnten". Diese gefährlichen Fähigkeiten könnten "unerwartet auftreten". Es sei schwierig, ihren Missbrauch und ihre Verbreitung zu verhindern.

Pilzwolke aus einer Atomtestexplosion im Hintergrund, Wasser, Strand und Palmen im Vordergrund.
Explosiv: Manche Wissen­schaftler vergleichen KI mit Atom­bomben. Diese wurden erst nach ihren ersten Kriegseinsätzen im großen Maßstab getestet, so wie hier 1946 auf dem Bikini-Atoll.

Die Möglichkeiten zum Missbrauch sind endlos: Sie reichen von Deepfakes bis hin zur Cyberkriegsführung in unvorstellbarem Ausmaß, von weitreichenden Arbeitsplatzverlusten bis hin zum Ende der Menschheit, wenn man dem verstorbenen Physiker Stephen Hawking folgen mag. Dabei ist es nur fair zu erwähnen, dass OpenAI und viele andere auch darauf hinweisen, dass die Technologie enorme Vorteile für die Menschheit bringen könnte, von der Verbesserung öffentlicher und gewerblicher Dienstleistungen und Entscheidungsprozesse über die Heilung von Krankheiten und die Bewältigung des Klimawandels bis hin zur Entschlüsselung der Geheimnisse des Universums.

Die Herausforderung besteht darin, diese Vorteile zu nutzen, ohne in die Fallen zu tappen, die KI mit sich bringt. Und es drängen nicht nur die erwartbar Technophoben zu mehr Vorsicht. Bemerkenswert viele Protagonisten aus der Speerspitze der KI-Entwicklung gehören jetzt zu denen, die am lautesten nach strengeren Kontrollen rufen. Es ist fast so, als ob sie besorgt darüber wären, welchen Geist sie aus der Flasche gelassen haben.

Yoshua Bengio

Yoshua Bengio ist Professor an der Université de Montréal und ein international anerkannter KI­Experte. Für seine Pionierarbeit im Bereich Deep Learning erhielt er 2018 gemeinsam mit Geoffrey Hinton und Yann LeCun den A. M. Turing Award.

Einer von ihnen ist der Mitgründer von DeepMind, Mustafa Suleyman, der kürzlich sein Buch The Coming Wave veröffentlicht hat, in dem er eine größere Diskussion darüber verlangt, wie KI-Entwicklung gemanagt werden sollte. Er gehört zu den Unterzeichnern einer Erklärung des Center for AI Safety, in der gefordert wird, "das Risiko des Aussterbens" durch KI genauso im Auge zu haben wie "andere gesellschaftliche Risiken" von Pandemien hin zu Atomkriegen. Ein weiterer Unterzeichner ist Yoshua Bengio, ein sogenannter "Pate der KI". Der BBC sagte er vergangenes Jahr, er fühle sich verloren, wenn er das Tempo und den Umfang der KI-Entwicklung betrachte; es sei "nicht das erste Mal, dass Wissenschaftler solche Emotionen durchleben. Denken Sie an den Zweiten Weltkrieg und die Atombombe. Da gibt es viele Analogien."

Für andere stehen eher philosophische Fragen zur Debatte. Der KI-Pionier Geoffrey Hinton sagte der BBC, sein Fokus liege auf dem "existenziellen Risiko, wenn diese Dinge intelligenter werden als wir". Ein entscheidender Punkt sei, dass es sich um eine "andere Intelligenz" handele. KI ist kein biologisches, sondern ein digitales System: Maschinen können daher getrennt lernen, aber ihr Wissen sofort in großem Maßstab untereinander teilen.

Neue Vorschläge, wie man KI kontrollieren könnte, entstehen fast so schnell wie die neuen Modelle selbst. Experten wie Suleyman und Googles ehemaliger CEO Eric Schmidt fordern die Einrichtung eines internationalen Gremiums ähnlich dem Weltklimarat (IPCC), damit die Politik Protokolle und Normen für den Umgang mit KI erstellen kann und eine Überwachungs- und Warnfunktion erhält. Andere schlagen vor, sich an der Internationalen Zivilluftfahrtorganisation ICAO zu orientieren. Olivia O'Sullivan von Chatham House sagt, es sei "wert, über etwas wie Atomkraft nachzudenken". Wie KI bringe auch Atomkraft mächtige Fähigkeiten mit sich, die sowohl für Waffen als auch für zivile Zwecke eingesetzt werden können. "Wir haben globale Abkommen zur Atomkraft", bemerkt O'Sullivan – etwas Ähnliches könnte für KI etabliert werden.

"Es ist nicht das erste Mal, dass Wissenschaftler solche Emotionen durchleben. Denken Sie an den Zweiten Weltkrieg und die Atombombe. Da gibt es viele Analogien."
Portrait of Yoshua Bengio

Yoshua Bengio

Professor
Université de Montréal

Andere Beobachter sind skeptischer. Der leitende KI-Wissenschaftler bei Meta, Yann LeCun, argumentiert, dass die Angst vor Künstlicher Intelligenz übertrieben sei und dass die Menschheit nur profitieren werde von der wachsenden Macht der Maschinen, die ja schließlich unter menschlicher Kontrolle blieben. Gegenüber der Financial Times verglich er die aktuellen Regulierungsversuche mit den Beschränkungen für Düsentriebwerke in den 1920ern – die zu einem Zeitpunkt erörtert wurden, zu dem die entsprechenden Düsenjets noch gar nicht erfunden waren.

Wer setzt also die Agenda? Geopolitisch hat das Gerangel bereits begonnen. Kaum hatten sich die Delegierten in Bletchley Park versammelt, machte US-Vizepräsidentin Kamala Harris dem britischen Premierminister einen Strich durch die Rechnung. Sie stellte klar, dass Amerika nicht die zweite Geige spielen würde, wenn es um die Gestaltung der KI-Entwicklung geht: "Ganz klar: Wenn es um KI geht, gehört Amerika zu den weltweit führenden Nationen." Amerikanische Unternehmen seien Innovationsführer, und die USA seien wie sonst kein anderes Land in der Lage, globale Maßnahmen und einen Konsens herbeizuführen. Inzwischen hat die EU eigene Vorschläge ausgearbeitet, um KI-Standards für den gesamten Binnenmarkt zu schaffen. Die Anwesenheit Chinas in Bletchley Park wurde angesichts des rasanten Innovationswachstums des Landes als eine Art diplomatischer Coup gewertet.

Abstraktes Design in Neonfarben von Carsten Gueth

Es gibt noch mehr Konflikte. Vertreter des Globalen Südens plädierten dafür, die Vorteile von KI-Innovationen so frei wie möglich zugänglich zu machen. Expertinnen wie Fei-Fei Li wiederum mahnten, dass der öffentliche Sektor eine größere Rolle bei der Entwicklung einer so "kritischen Technologie" spielen müsse. Die Sonderberaterin der Europäischen Kommission, Marietje Schaake, wies darauf hin, dass Gesetzgeber, Aufsichtsbehörden und die Öffentlichkeit immer weniger über die Möglichkeiten und Risiken von Technologien wissen, die in immer mehr Bereichen des öffentlichen Lebens zum Einsatz kommen werden – von der Gesundheitsfürsorge bis zur Strafverfolgung. John Maeda, Vizepräsident für Design und Künstliche Intelligenz bei Microsoft, schlägt einen optimistischeren Ton an. KI werde die Menschen dazu zwingen, noch kreativer als bisher zu sein. Maeda fragt lieber: "Wie können wir bessere Dinge schaffen, als es die Industriemaschinen können?"

Das Gipfeltreffen in Bletchley Park endete mit einer Erklärung, in der die Unterzeichner die enormen globalen Chancen, den potenziellen Nutzen und die Risiken der KI anerkennen, die allesamt eine internationale, kooperative und vor allem "menschenzentrierte" Antwort erfordern. Letztlich stellt die Erklärung aber nur den Beginn einer Diskussion dar. Im Laufe des Jahres 2024 wird es in Südkorea und Frankreich weitere "Ausgaben" des Gipfels geben, bei denen es schwerpunktmäßig um praktische Maßnahmen gehen soll. Die Frage ist nur: Wer weiß, wie weit die KI-Pioniere ihre Modelle bis dahin vorangetrieben haben?

Über den Autor
Fred Schulenburg
Fred Schulenburg, der auch unter dem Namen Frederick Studemann veröffentlicht, ist Literaturredakteur der Financial Times. Dort war er seit 1996 unter anderem Berlin-Korrespondent, Korrespondent für Großbritannien, stellvertretender Nachrichtenredakteur und verantwortlich für Kommentar & Analyse. Er schreibt regelmäßig für die Notebook-Kolumne und war Gründungsmitglied der Financial Times Deutschland.
Alle Online-Veröffentlichungen dieser Ausgabe
Mehr
Portrait of Think:Act Magazine

Think:Act Magazine

München Office, Zentraleuropa