Paolo Benanti über das Verhältnis von Mensch und Technik

Think:Act Magazin "In Dekaden denken"
Paolo Benanti über das Verhältnis von Mensch und Technik

17. Februar 2025

Ein Blick auf die Bewahrung unserer Menschenrechte und -werte in einer Zeit zunehmender digitaler Dominanz

Interview

von Steffan Heuer
Illustrationen von Jan Robert Dünnweller

Der Franziskaner Paolo Benanti hat sich als die inoffizielle Stimme des Vatikans zu heiklen Fragen des technologischen Wandels und des Menschseins im 21. Jahrhundert etabliert.

Paolo Benanti lebt in einem Kloster aus dem 16. Jahrhundert im Herzen Roms und lehrt an der 1551 gegründeten Päpstlichen Universität Gregoriana. Dennoch ist er sehr mit dem Hier und Jetzt beschäftigt. Er hat als Kind am Computer "Dungeons and Dragons" gespielt, trägt eine Apple Watch und ist in der internationalen Technologie-Szene eine anerkannte Größe. Der bekannteste Tech-Theologe des Vatikans ordnet Künstliche Intelligenz im christlichen Kontext ein. Mit Think:Act sprach er über moralische und praktische Risiken, die das rasante Entwicklungstempo birgt.

Pater Benanti, Sie sind Professor für Ethik an der Päpstlichen Universität Gregoriana in Rom, aber auch häufig in den Schlagzeilen als Berater des Papstes in Sachen Künstliche Intelligenz. Wieso braucht der Vatikan einen KI-Berater?

Meine tägliche Arbeit findet an der Universität statt. Die Vorstellung, dass ich den Papst berate, ist ein Missverständnis der Medien. Ich bin Konsultor. Das ist eine Funktion im Vatikan, für die der Papst meist einen Professor ernennt, der ihn bei der Arbeit an bestimmten Themen unterstützt. Ich bin kein Einflüsterer des Papstes. Meine Aufgabe ist die einer offiziellen Komponente in einem größeren Rahmen. Wenn der Heilige Stuhl Forscher wie mich zu einer bestimmten Frage konsultiert, verfassen wir Schriftstücke dazu und treten in eine Art Dialog.

Paolo Benanti 

Paolo Benanti studierte zunächst Ingenieurwesen. Er brach sein Studium ab, trat in den Franziskanerorden ein und studierte an der Päpstlichen Universität Gregoriana. Er promovierte in Moraltheologie und lehrt dort seit 2008. Benanti berät die italienische Regierung zu KI-Fragen und ist Autor des Buches Homo Faber: The Techno-Human Condition.

Als Brückenbauer zwischen Glauben und Technologie arbeiten Sie auch daran, den Dialog zwischen Techfirmen wie Microsoft und Cisco und dem Vatikan zu fördern. Was weiß Papst Franziskus über KI?

Der Papst ist 87 Jahre alt und kein Softwareingenieur. Aber wenn man sich die päpstlichen Erklärungen anschaut, dann zeichnen sie sich durch seine Gabe aus, zu erkennen, was die wichtigsten Fragen der Menschheit sind. Das fing zu Beginn seines Pontifikats an, als er im Juli 2013 Lampedusa besuchte, um für die auf dem Meer verschollenen Geflüchteten und Migranten zu beten. Es folgte 2015 die Enzyklika ­Laudato si', die sich mit ökologischen Fragen befasste. Und nun haben wir das große Thema KI. Hier hat er wiederholt über das positive Potenzial von KI gesprochen, aber auch gewarnt, dass dafür ein konsequentes Engagement derjenigen nötig ist, die diese Technologien entwickeln, damit KI ethisch und verantwortungsvoll eingesetzt wird. Man darf nicht vergessen, dass eines der viralsten KI-Bilder den Papst zeigt, wie er ein weißes Hoodie "trägt". In seiner Botschaft zum Welttag der sozialen Kommunikationsmittel der katholischen Kirche im Mai 2024 machte er klar: "Auch ich war Gegenstand eines Deepfakes." Dabei schaut der Papst nicht auf sich selbst, sondern hat die Wirkung auf andere Menschen im Blick.

"KI kann ein Werkzeug sein oder zur Waffe werden."

Paolo Benanti

KI-Berater des Papstes

Wo sehen Sie die größten und möglicherweise existenziellen Risiken für die Menschheit durch KI?

Wie vor rund 10.000 Jahren, als unsere Vorfahren das erste Mal eine Keule in der Hand hatten, gilt auch heute: KI kann ein Werkzeug sein oder zur Waffe werden. Das hängt von unserer Kultur ab, die als vom Menschen geschaffene Welt die Natur ergänzt und aus der Sprache hervorgegangen ist. Und wer Sprache "hacken" kann, kann auch die Kultur, das Wissen und unsere fundamentalsten Werte manipulieren. Sprache ist sehr mächtig. Zuerst wurden Wörter gesprochen, dann aufgeschrieben, später kam die Druckerpresse. Jetzt haben wir eine Sprache, die Computer berechnen. Ich denke, hier liegt das größte Risiko. In der Moderne haben wir gelernt, unser Wissen in autarken Silos zu sammeln. Technik ist Technik. Wissenschaft ist Wissenschaft. Wenn Sie nun mit einer KI interagieren, ist das Wissen orakelhaft. Alles ist miteinander vermischt – und man muss dem vertrauen. Was wir über uns selbst wissen, ist kein automatisiertes Wissen, sondern wurde über Generationen weitergegeben. Wenn man eine schlecht konzipierte KI in diese Wissenskette einfügt, könnte sie sehr tiefgreifende Auswirkungen auf unser Verständnis der Welt haben.

KI-Vordenker für den Heiligen Vater - Einige der Überlegungen von Paolo Benanti flossen 2024 in Papst Franziskus' Rede über KI auf dem G7-Gipfel ein

Paolo Benanti:
"Es ist ein Gebot der Menschenwürde und der Menschenrechte, den Menschen in der Beziehung von Mensch und Maschine zu schützen."

Papst Franziskus:
"Wir müssen Raumschaffen für eine ange­messene­ menschliche ­Kontrolle über von KI-Programmen getroffene Ent­scheidungen: für die Menschen­würde."

Paolo Benanti:
"Was wir erleben, ist ein grundlegender und tiefgreifender Wandel, wie wir die Wirklichkeit und besonders uns selbst verstehen […] und das, was mit der 'Mensch als moralischer Akteur' gemeint ist."

Papst Franziskus:
"Eines der grund­­legendsten ­Konzepte des Westens verliert anscheinend an Wert und Bedeutung: das der menschlichen Person."

Paolo Benanti:
"Technologie ist Teil des Menschseins. Das ist der techno-menschliche Zustand. Technologie ist immer präsent, auch wenn sie sich in der menschlichen Geschichte verändert."

Papst Franziskus:
"Unsere Fähigkeit, Werkzeuge her­zustellen, […] verweist auf einen techno-menschlichen Zustand: Wir sind stets in Kontakt zur Umweltgetreten durch die Werkzeuge, die wir entwickelten."

Paolo Benanti:
"Wir brauchen eine Sprache, die moralische Werte für Maschinen berechenbar macht. Der Blick durch die ethische Brille ist eine genuin menschliche Fähigkeit. Die Fähigkeit, mit nume­rischen Werten zu arbeiten, ist eher eine Kompetenz von Maschinen. 'Algor-Ethik' be­deutet, Moral­vorstellungen in etwas Berechenbares zu verwandeln."

Papst Franziskus:
"Eine ethische Entscheidung berücksichtigt, was eine Handlung bewirkt, welche Werte auf dem Spiel stehen und welche Pflichten sich daraus ergeben […]. 'Algor-Ethik' fasst eine Reihe von Prinzipien auf einer pluralistischen, globalen Plattform prägnant zusammen."

In welchen Bereichen brauchen wir Regulierung? Sie plädieren für KI-Leitplanken ähnlich der Gurtpflicht im Auto.

Wenn wir ein Auto entwickeln, definieren wir zuerst bestimmte Regeln. Diese werden nicht aufgestellt, um die technische Entwicklung zu beschränken, sondern um Unfälle zu vermeiden. Da wir heutzutage Maschinen haben, die Entscheidungen automatisieren oder in der Medizin eingesetzt werden können, brauchen wir Leitplanken, um Unfälle in diesen Bereichen zu vermeiden. Stellen Sie sich das wie einen Sicherheitsgurt vor, der verhindert, dass die Würde des Menschen, unser verletzlichster Teil, durch die Geschwindigkeit von Innovationen beschädigt wird. Diese müssen immer dem Gemeinwohl dienen.

"Stellen Sie sich das wie einen Sicherheitsgurt vor, dass die Würde des Menschen, unser verletzlichster Teil, durch die Geschwindigkeit von Innovationen beschädigt wird."

Paolo Benanti

KI-Berater des Papstes

Wie viel Zeit bleibt der Politik und den Regulierungs­behörden, um diese Leitplanken zu installieren?

Die Technologiewelt entwickelt sich rasant. Aber es hat auch seine Tücken, wenn Vorschriften übereilt erlassen werden, ohne dass wir eine neue Technologie wirklich verstehen oder ihr Raum zur Entwicklung geben. Nehmen Sie die Datenschutz-Grundverordnung (DSGVO) der EU. Sie ermöglicht uns, Menschenrechte in Bezug auf unsere Daten zu definieren. Und gerade das bedächtige Tempo des Prozesses erwies sich als Segen. So konnten wir nicht nur eine starre Liste von Daten schützen, sondern alle Daten, die sich einer Person zuordnen lassen. Mittlerweile, da KI viele neue Datenpunkte mit einer Person verknüpfen kann, werden auch diese geschützt. Das bedächtige Tempo des Gesetzgebungsprozesses hat uns keine Liste verbotener Technologien an die Hand gegeben, sondern erlaubt, umfassende Kriterien dafür zu definieren, was wir schützen wollen, wenn es um menschliche Identität und Würde geht. Das KI-Gesetz der EU folgt dem gleichen Ansatz, da es sich auf den Schutz der Menschenrechte statt auf einzelne Technologien konzentriert.

Die Debatte über Regulierung versus Fortschritt ist nicht neu. Ein unfaires Rennen?

Regulierung ist immer ein Kompromiss. Ich sehe das nicht als Katz-und-Maus-Spiel. KI-Technologien sind in gewisser Weise flüchtig, da sie sich ständig weiterentwickeln. Wir müssen deshalb Regulierung immer als etwas Vorläufiges verstehen, das an Veränderungen angepasst werden kann.

Wie sieht es mit der Durchsetzung aus? Wir haben es mit multinationalen Akteuren und Problemen zu tun. Brauchen wir hier globale Institutionen oder so etwas Ähnliches wie den Atomwaffensperrvertrag?

Man kann sicherlich geteilter Meinung sein, ob dieser Vertrag funktioniert. Aber er ist besser als nichts. Das wahre Problem ist die Durchsetzung solcher Verträge, denn wir haben keine Weltpolizei. Nach meinen Erfahrungen im Beratungsgremium der Vereinten Nationen für KI, das im Oktober 2023 gegründet wurde, gibt es dafür keine Lösung. Natürlich könnten wir ein ideales, globales Regelwerk entwerfen. Aber dann hätte jedes Land seine eigene Autonomie – samt der Macht der Märkte und des Geldes.

Rome Call

Der von Paolo Benanti mitinitiierte "Römische Appell" ist ein nicht bindendes, interreligiöses Dokument zur Förderung einer gemeinsamen globalen Verantwortung für die Ethik der KI. IBM und Microsoft gehören zu den Erstunterzeichnern.

Was das Thema KI-Ethik betrifft, so sind Sie eine treibende Kraft hinter dem "Rome Call". Was wollen Sie erreichen?

Der Römische Appell ist kein normatives Regelwerk. Er ist ein Versuch, einen Rahmen zu schaffen, in dem verschiedene Akteure – Kirchen oder Glaubensgemeinschaften, Staaten oder Nichtregierungsorganisationen, Universitäten und Techfirmen – zusammenkommen und eine KI-Ethik definieren können, um ihr Handeln an diesen Prinzipien auszurichten. Unternehmen zum Beispiel entdecken eine gewisse Art der Verantwortung in Bezug auf ihre eigenen Prozesse und könnten ihre Ingenieure zu Ethikkursen verpflichten. Wir hoffen, durch gemeinsame Grundsätze eine Ethik­Bewegung zu initiieren, aber wir vergeben keine Gütesiegel.

Der Initiative haben sich seit ihrem Start 2020 auch andere Weltreligionen angeschlossen. Wie können diese kooperieren, damit KI allen Menschen dient?

Der Beitritt anderer Religionen, von den asiatischen Religionen bis zum Judentum, ist sehr spannend. Neu ist, wie die verschiedenen Religionen Differenzen und Kämpfe hinter sich lassen, um zu erklären, dass uns Fragen der KI-Ethik vereinen. KI soll die menschliche Entwicklung fördern und nicht zu einem Unterdrückungsinstrument werden.

Wie sieht das in der Praxis aus?

Nehmen wir die Bildung: Allein im Christentum unterrichten wir Millionen junge Menschen. Dann gibt es muslimische, jüdische, buddhistische und shintoistische Bildungseinrichtungen, die ebenfalls mit künftigen Generationen über KI-Ethik sprechen. Wir fördern eine gesunde Technologie-Sensibilität. Das wird Folgen haben. Denn es ist Teil eines kulturellen Prozesses. Und wir sind kein Unternehmen, wir denken nicht in Quartalen. Religionen haben lange Zeithorizonte.

"Was es gibt, sind Systeme, die uns vorgaukeln, ein Bewusstsein zu haben, mehr nicht."

Paolo Benanti

KI-Berater des Papstes

Es gibt eine Debatte darüber, ob diese Systeme ein Bewusstsein oder Gefühle entwickeln. Sind manche KI-Experten realitätsfern?

Ich komme aus dem Ingenieurwesen und weiß sehr wohl, dass eine Turing-Maschine nur bestimmte Probleme lösen kann. Der Nachweis von Bewusstsein zählt nicht dazu. Was es gibt, sind Systeme, die uns vorgaukeln, ein Bewusstsein zu haben, mehr nicht. Viel dringender und wichtiger ist es, die Auswirkungen zu diskutieren, die KI-Systeme auf die Arbeitswelt, die Gleichberechtigung und den Zugang zu Ressourcen wie Energie oder Wasser haben können.

Nehmen wir an, es gibt bald eine Super-KI. Welche Rolle spielt dann die Religion, wenn es neben Menschen andere empfindungsfähige Wesen gibt?

Wenn jemand mit einer Maschine wie mit einem Orakel interagiert, ist das ein religiöser Ansatz. Anstatt diese neue Göttlichkeit zu bekämpfen, sollten wir den Menschen klarmachen, dass sie Maschinen wie Götter behandeln. Götzen entstehen, wenn wir der vorgeschlagenen Lösung einer Maschine folgen, die wir nicht verstehen. Es besteht die Gefahr, dass sich ein solches religiöses Maschinenverständnis in der Gesellschaft ausbreitet.

Gut zu wissen:
KI kann Werkzeug oder Waffe Sein:

Kein Werkzeug ist 100%ig sicher oder nur gefährlich. Unsere Absichten beim Gebrauch machen den Unterschied.

Regulierung nach Bedarf:

Technologien entwickeln sich ständig. Regulatorische Leitplanken müssen deshalb flexibel angepasst werden können.

Langfristig denken:

Ein gesundes Technologie­verständnis erfordert Bildung, die sowohl die Zukunft als auch die Gegenwart im Blick behält.

ÜBER DEN AUTOR
Portrait of
Steffan Heuer lebt in Berlin und Kalifornien. Seit mehr als zwei Jahrzehnten schreibt er über Technologie, Wirtschaft und Kultur des Silicon Valley, unter anderem für The Economist, die MIT Technology Review und brandeins.
Vollständiges PDF herunterladen
Think:Act Edition

In Dekaden denken

{[downloads[language].preview]}

Die aktuelle Think:Act-Ausgabe wirft einen frischen Blick auf die Business-Konzepte der letzten Jahrzehnte – und ihre Bedeutung für die kommenden 20  Jahre.

Veröffentlicht Februar 2025. Vorhanden in
Das könnte Sie auch interessieren
Alle Online-Veröffentlichungen dieser Ausgabe
Mehr
Portrait of Think:Act Magazine

Think:Act Magazine

München Office, Zentraleuropa