Für ethische Technik: Papst soll bei G7-Gipfel vor Missbrauch von KI warnen

Die Regulierung von KI bereitet internationalen Staatsoberhäuptern Kopfschmerzen, daher soll Papst Franziskus beim G7-Gipfel für ethische KI eintreten.

In Pocket speichern vorlesen Druckansicht 89 Kommentare lesen
Papst Franziskus

(Bild: Gerd Altmann)

Lesezeit: 3 Min.
Inhaltsverzeichnis

Papst Franziskus soll auf dem diesjährigen G7-Gipfel an der Sitzung zum Thema Künstliche Intelligenz teilnehmen. Dort will er laut der italienischen Ministerpräsidentin Giorgia Meloni die Gefahren der boomenden Technik diskutieren, die laut Meloni viele als größte Herausforderung unserer Zeit bezeichneten. Franziskus' Teilnahme wäre das erste Mal, dass ein Papst bei G7 mitwirkt.

In einer Videobotschaft verkündete die italienische Ministerpräsidentin die historische Teilnahme des Papstes. Ziel der Sitzung sei es, sich auf Governance-Mechanismen zu verständigen, die sicherstellen, dass KI menschenzentriert und vom Menschen kontrolliert ist. Bereits 2020 haben der Vatikan und Tech-Firmen wie Microsoft und IBM zusammen mit der italienischen Regierung einen Aufruf für einen ethischen Umgang mit Algorithmen und KI unterzeichnet und auf dem letzten Weltfriedenstag sorgte sich der Papst um die Gefahren von KI. Meloni hofft, dass die Anwesenheit des Papstes einen entscheidenden Beitrag zu ethischen und regulatorischen Richtlinien leistet. Die Sitzung zu KI steht neben dem Papst auch den weiteren geladenen Staatsoberhäuptern offen.

Neben KI stehen etwa die Unterstützung der Ukraine durch die G7, der Konflikt zwischen Israel und Palästina, die Klimakrise und Energiesicherheit auf der Tagesordnung. Kernmitglieder des Gipfels sind neben Gastgeber Italien Kanada, Frankreich, Deutschland, Japan, Großbritannien, die USA und Vertreter von EU-Parlament und EU-Kommission. Aus Afrika, Asien und Südamerika sind weitere zehn Staatsoberhäupter als Gäste geladen.

Mit dem AI Act ist in Europa zwar eine erste geplante Regulierung unterwegs, die finale Textfassung steht jedoch noch aus. Das Gesetz teilt KI-Systeme in vier Risikokategorien ein und verbietet manche Techniken, während mit anderen Beschränkungen und Verpflichtungen einhergehen. Was ein KI-System genau umfasst, ist dabei noch nicht ganz klar – außerdem fehlen unter anderem die Themengebiete Urheberrecht und geistiges Eigentum, welche Daten zur Schaffung von KI verwendet werden dürfen und der Umgang mit Schadenersatz und Haftung in dem Gesetz.

Während Systeme für Social Scoring, biometrische Videoüberwachung oder unterschwellige Beeinflussung zwar verboten sein sollen, kämpft die deutsche Polizei derzeit stark für den Einsatz der Überwachungssoftware der amerikanischen Firma Palantir. Obwohl Systeme für voraussagende Polizeiarbeit ("Predictive Policing") durchaus vom AI Act untersagt sein sollten. Dabei ist bisher noch vollkommen unklar, was die in Bayern und Hessen getestete "Verfahrensübergreifende Recherche- und Analyseplattform", kurz VeRA, überhaupt bewirkt. Technische Details sind Verschlusssache. Zuletzt diskutierte der Innenausschuss des Bundestages das Thema. Das Ergebnis: Polizisten und Sicherheitsfirmen wollen so ein System unbedingt, die anwesenden Datenschützer bemerkten, dass man dafür allerdings verfassungsrechtliche Rahmenbedingungen anpassen müsste. Am liebsten würde man aber eigene Systeme entwickeln, um digital souverän und nicht abhängig von einer amerikanischen Firma zu sein.

(pst)