Für neue kirchliche KI-Leitlinien mitverantwortlicher Sekretär des Vatikan-Dikasteriums für Kultur und Bildung mahnt: "Sicherstellen, dass wir nicht versehentlich etwas schaffen, was der Menschheit und der Gesellschaft schaden könnte"
Vatikanstadt, 28.01.2025 (KAP) Das neue Vatikan-Dokument zur Künstlichen Intelligenz (KI) ist aus Sicht des KI-Experten Bischof Paul Tighe ein Appell, kritisch über diese Technologie und ihre Folgen nachzudenken. Es gehe darum, "sicherzustellen, dass wir nicht versehentlich etwas schaffen (...), was der Menschheit und der Gesellschaft schaden könnte", sagte der Sekretär des Vatikan-Dikasteriums für Kultur und Bildung dem Portal "Vatican News" (Dienstag).
Nachdem man etwa bei den Sozialen Medien anfangs gefährliche Nebenwirkungen wie "Fake News" und gesellschaftliche Polarisierung nicht gesehen habe, sei bei der KI ein "gewisses Element der Warnung" angebracht. Die Kirche wolle das Potenzial sehen und "gleichzeitig auf die möglichen Schattenseiten aufmerksam machen".
Gemäß der katholischen Tradition und anderen philosophischen Traditionen sei Intelligenz mehr als nur Denken, Rechnen und Verarbeiten. Sie schließe auch die Fähigkeit ein, "nach Zweck, Sinn und Richtung in unserem Leben zu suchen." Das gehe über das hinaus, was von einer Maschine erledigt werden könne.
Risiken auch im Bereich Erziehung
Tighe betonte die Risiken für Bildung und Erziehung. Dazu gehöre die Gefahr, dass die Bildung entpersonalisiert werde. Die Weltbildungsorganisation Unesco warne davor, dass KI zu einer "anthropologischen Störung" führen könne. Das habe ihn sehr beeindruckt, so der Bischof, der zu den Unterzeichnern des neuen Vatikan-Dokuments zählt. Man müsse die von Technologie-Erfindern oft beschworenen Tugenden der Disruption und des Sich-neu-Erfindens kritisch hinterfragen, betonte Tighe; die Frage nach dem Sinn des Lebens dürfe nicht ausgeklammert werden.
Abschließend erklärte der Geistliche: "Man sollte sich von Anfang an überlegen, wo die Probleme liegen. (...) Wie stellen wir sicher, dass sie nicht leicht von Leuten ausgenutzt werden kann, die sie für schlechte Zwecke verwenden wollen? Wie stellen wir sicher, dass die Datenbanken, die die KI konditionieren, tatsächlich die gesamte menschliche Erfahrung widerspiegeln und nicht nur das, was bereits digitalisiert wurde? (...) Deshalb versuchen wir, diejenigen in die Verantwortung zu nehmen, die entwerfen, die planen, die entwickeln, aber auch diejenigen, die KI nutzen."