Am Dienstag endete mit Stefan Jütte die diesjährige Vortragsreihe der Ökumenischen Erwachsenenbildung. Er sei ein Fan von Künstlicher Intelligenz, gestand der Theologe gleich zu Beginn. Dass er diese Technologie keineswegs unkritisch sieht, zeigte sich im weiteren Verlauf des Abends.
MARK POLLMEIER
Eine Strassenbahn ist ausser Kontrolle geraten und rast ungebremst auf eine Weiche zu. Auf dem rechten Gleis steht eine mehrköp!ge Familie – auf dem linken Schienenstrang ein einzelner Mann namens Peter. Wohin soll das Tram gelenkt werden? Wen soll es treffen?
Würde man die Entscheidung einer KI überlassen, so würde diese vermutlich kühl abwägen: Ein Opfer ist besser als viele Opfer. Also muss der Zug nach links fahren und den armen Peter überrollen.
Die beschriebene Situation, bekannt unter dem Namen Trolley-Problem, wirkt vielleicht ein wenig konstruiert. Doch allzu weit hergeholt ist das Szenario nicht – man denke etwa an selbstlenkende Fahrzeuge. Wen würde ein KIgesteuertes Auto überfahren, wenn ein Unfall unvermeidlich ist? Nach welchen Kriterien soll die Maschine auswählen, wen es trifft?
Der Mensch und seine Würde
Bei solchen Gedankenspielen kommt unweigerlich die Frage nach dem Menschenbild auf. Im christlichen Kulturkreis gilt der Mensch als ein Geschöpf Gottes, wie Stefan Jütte aufzeigte. Nach der biblischen Schöpfungsüberlieferung sind Mann und Frau Gottes Ebenbilder – allein daraus leitet sich ihre Würde ab. Der Gedanke hat die Kultur des Abendlandes gepägt. Er !ndet sich zum Beispiel in der US-amerikanischen Unabhängigkeitserklärung wieder, wie Jütte ausführte: «Alle Menschen sind gleich geschaffen», heisst es darin, «der Schöpfer hat ihnen bestimmte unveräusserliche Rechte verliehen», zu denen etwa «Leben, Freiheit und das Streben nach Glück gehören». Auch das, was wir heute unter Menschenrechten verstehen, ist letztlich von diesem christlichen Menschenbild beeinflusst. Woran aber orientiert sich Künstliche Intelligenz?
Wann darf man jemanden töten?
Stefan Jütte berichtete von einem privaten Experiment. Er fragte ein KI-Programm, unter welchen Umständen man einen Menschen töten dürfe. Sein digitaler Gesprächspartner listete nüchtern auf, welche Gründe es zum Töten eines Menschen gebe: Selbstverteidigung, Notwehr, Krieg, eine gesetzlich veranlasste Exekution, eine Notstandslage. Am Schluss merkte das KI-Programm noch Folgendes an: Wann es gerechtfertigt sei, einen Menschen zu töten, hänge stark von kulturellen, rechtlichen und ethischen Überzeugungen ab. Das Ganze sei ein komplexes Thema, das man von unterschiedlichen Perspektiven aus betrachten könne. «Wenn wir nun über dieses Thema diskutieren wollten, dann würden wir genau das machen», fuhr Jütte fort. «Wir würden verschiedene Perspektiven einnehmen und dazu Argumente austauschen. Genau das kann KI aber nicht.» Sie habe keinen eigenen Standpunkt und kenne die Welt nur «vom Hörensagen», nie aus eigener Erfahrung, erläuterte der Referent. «Deshalb können solche Programme immer nur reproduzieren, was irgendjemand mal zu einem Thema gesagt hat.»
Um moralische Wertvorstellungen zu entwickeln, sei aber die eigene, unmittelbare Erfahrung nötig. «Wer Ungerechtigkeit selbst erlebt und nicht nur davon gelesen hat, der entwickelt eine ganz andere Sensibilität für das Thema. Wer als Schüler gemobbt wurde, der denkt anders über den Umgang in einer Gruppe als jemand, der diese Erfahrung nicht gemacht hat.»
Wenn KI Bewerbungen aussortiert
Zwischendurch betonte der Referent immer wieder, dass er eigentlich ein Fan von KI-Anwendungen sei. Es gebe zahlreiche Anwendungen, bei denen KI sehr hilfreich sei und gute Ergebnisse liefere, etwa im Medizinbereich, wo sie zuverlässig die Befunde eines bildgebenden Verfahrens einordnen könne. Jütte erzählte, wie er selbst KI-Programme in seinem Arbeitsalltag einsetzt – und auch privat in der Familie. «Es ist gar nicht so selten, dass ChatGPT mit uns am Esstisch sitzt und wir dem Programm zusammen mit unseren Kindern Fragen stellen.» Er sei also kein Tech-Skeptiker, fasste Jütte zusammen.
Problematisch !ndet er es allerdings, wenn der Mensch Verantwortung an die KI auslagere – wenn also ein Programm Entscheidungen treffe, für die ihm die Grundlage fehle. «Die Gefahr dabei ist, dass die KI uns am Ende sagt, was richtig ist», so Jütte. Schon heute würden solche Programme in grossen Unternehmen für Bewerbungsverfahren eingesetzt. «Die KI siebt aus, welche zehn Dossiers überhaupt noch angeschaut werden – und wenn man dann nachfragt, weiss eigentlich niemand so genau, nach welchen Kriterien das geschieht.»
Wer trägt am Ende die Verantwortung?
Nun sind Bewerbungsverfahren als Anwendungsgebiet noch überschaubar. Die Überlegungen würden aber längst weiter gehen, erläuterte Jütte, und nannte das Schlagwort des «effektiven Altruismus». Hinter dieser philosophischen Strömung steckt die Idee, dass man unsere beschränkten Ressourcen so einsetzen sollte, dass möglichst viele Menschen – oder auch Lebewesen – einen Nutzen davon haben. Könnte eine quasi neutrale KI diese Aufgabe nicht am besten lösen? «Der Gedanke wirkt auf den ersten Blick bestechend», gab Jütte zu. «Was aber bedeutet eigentlich maximaler Nutzen?» Am Ende gehe es vielleicht nur noch um die Statistik, um nackte Zahlen. «Unsere Kultur beruht aber auf einem ganz anderen Bild – nämlich darauf, dass die Würde des Menschen unteilbar ist. Ein Individuum ist genauso viel wert wie 100.»
Falsche Heilsversprechen
Dass KI unsere Verteilungsprobleme lösen kann, die ökologische Krise und andere Herausforderungen, hält Stefan Jütte für ein falsches Heilsversprechen. «Indem wir solche Entscheidungen an die KI abtreten, kaschieren wir nur, wer eigentlich die Verantwortung trägt: wir selbst.» Insofern sei nicht die KI an sich eine Gefahr, sondern unsere Haltung zu ihr, so Jütte. «Ständig vergleichen wir diese Technologie mit dem Menschen, als sei auch sie ein Geschöpf. Dabei ist uns zum Beispiel ein Hund mit seiner Intelligenz viel näher.» Der Hund mache sinnliche Erfahrungen, er bewege sich in der Welt, er treffe andere Lebewesen, emp- !nde Angst um sein Leben, freue sich über sein Fressen. «KI hat und kann all das nicht – und trotzdem sprechen wir ehrfürchtig von Künstlicher Intelligenz.»
Jütte plädierte dafür, die Technologie nicht zu überhöhen. KI verändere viel – aber nicht, was es bedeute, ein Mensch zu sein: «Sie kann uns unsere Verantwortung nicht abnehmen.»
«Aber wehe, meine Frau merkt es!»
Anschluss an den Vortrag entspann sich im Kirchgemeindehaus Kandersteg eine interessante Diskussion über Nutzen und Gefahren von Künstlicher Intelligenz. Ob nicht absehbar sei, dass man die Verantwortung für den Einsatz von Waffen an eine KI abtrete, fragte ein Besucher. Das sei in der Tat eine grosse Gefahr, die derzeit noch vom Recht verhindert werde, antwortete Referent Stefan Jütte. Ehrlicherweise müsse man aber zugeben, dass schon der Einsatz von Drohnen eine Vorstufe dazu sei. Die Piloten dieser unbemannten Flugzeuge seien ja auch nicht mehr vor Ort, sondern sässen irgendwo auf der Welt, und auch die lasergesteuerte Zielerfassung sei längst computergestützt.
Ein anderer Vortragsbesucher warf die Frage auf, ob fremde Mächte irgendwann eine KI einsetzen und missbrauchen könnten. Das sei kein Zukunftsszenario, so Stefan Jütte, sondern geschehe bereits heute. Er selbst sei in dieser Frage aber nicht nur pessimistisch: Die meisten, die etwas davon verstünden, wollten KI glücklicherweise zum Guten einsetzen.
Wenn die KI die Valentinskarte schreibt …
Ein weiteres Thema der Gesprächsrunde betraf die Unterschiede zwischen menschlichen und KI-generierten Werken. Stefan Jütte gab zu, dass KI Gedichte schreiben könne, Romane und Musikstücke. Die Konsumenten dieser Kunst würden vielleicht keinen Unterschied zu einem menschlichen Werk feststellen. Dennoch sei die Bedeutung eine andere, weil die KI nur eine Rolle spiele, weil sie vorgebe, etwas zu sein, das sie nicht ist. Jütte brachte ein anschauliches Beispiel: «Ich kann eine KI eine Valentinskarte für meine Frau schreiben lassen, und vielleicht ist der Text gar nicht mal schlecht und ich komme damit durch. Aber wehe, meine Frau merkt es!» Es sei eben nicht das Gleiche, ob etwas von einer KI oder von einem Menschen stamme – weil dahinter keine Erfahrung, keine echte Emotion stehe.
«Was kann ich selbst tun?»
Eine Frage zielte auf die eigenen, individuellen Möglichkeiten, sich der Künstlichen Intelligenz zu entziehen. Der Schlüssel dazu sei Vertrauen, entgegnete Stefan Jütte und nannte praktische Beispiele. «Man kommt heute überall gratis an Infos zu allen möglichen Themen. Aber kann ich sicher sein, dass sie stimmen?» Es sei eine persönliche Entscheidung, wem man mehr vertraue: einem von Algorithmen gesteuerten Internetkanal oder z. B. einer traditionellen Zeitung. «Auch die schreibt vielleicht mal ‹Seich›, aber sie ist dann wenigstens darauf behaftbar.» Fazit: In vielen Fällen haben wir es selbst in der Hand, wie viel Macht wir der KI einräumen.
MARK POLLMEIER



