Zum Inhalt

Künstliche Intelligenz als ethische Herausforderung für Christen

Chancen und Gefahren Künstlicher Intelligenz, Teil 2/2
14.10.2023
SERIE - Teil 2 / 2Chancen und Gefahren Künstlicher Intelligenz

Einführung in die Thematik der Künstlichen Intelligenz

Ich habe einige Aspekte genannt, was künstliche Intelligenz ist und wo ihre Einsatzmöglichkeiten liegen. Diese können wir wahrscheinlich bejahen und sagen, dass es gut ist, einen solchen neuen Mechanismus zu haben, der die Arbeit in vielerlei Hinsicht erleichtert.

Gleichzeitig habe ich auch einige Punkte erwähnt, bei denen Defizite, Probleme und Gefahren im Bereich der künstlichen Intelligenz bestehen. Diese Einschätzungen beziehen sich jedoch nur auf den aktuellen Entwicklungsstand. Künstliche Intelligenz wird ja weiterentwickelt und wird wahrscheinlich in fünf oder zehn Jahren ganz andere Dinge können, als das jetzt der Fall ist.

Es wäre eine Fehleinschätzung, davon auszugehen, dass die Entwicklung dabei stehenbleiben wird. Im Moment sagen alle Beteiligten, dass künstliche Intelligenz in Zukunft noch viel mehr Bereiche unseres Lebens erfassen wird – und das auf ganz verschiedenen Ebenen.

Manche haben vielleicht schon gehört, dass man das Smart Home entwickelt. Das Smart Home wird dann ganz ohne Lichtschalter und Schlüssel auskommen. Das heißt, ich komme einfach aus meinem Auto und die Schlossschule erkennt mich. Sie weiß, dass ich zum Haus gehöre und der richtige Bewohner bin. Dann geht die Außenbeleuchtung an, die Haustür öffnet sich, und die Intelligenz weiß, wohin ich normalerweise gehe. Dann geht das Licht an, und wenn ich wieder rausgehe, schaltet es sich wieder aus.

Der Kühlschrank ist ebenfalls smart. Er weiß ganz genau, wie viel Milch noch drin ist, und wenn die Milch zur Neige geht, bestellt er automatisch neue Milch im Supermarkt.

So stellt man sich im Idealfall das Smart Home der Zukunft vor, in dem alles aufeinander abgestimmt ist. Die künstliche Intelligenz weiß sogar, wann wer kommt. Wenn zum Beispiel meine Frau nach Hause kommt, die es lieber etwas wärmer mag, wird die Temperatur schnell entsprechend geregelt. Bin ich allein zu Hause, wird die Temperatur wieder heruntergeregelt, weil das ja nicht nötig ist.

Irgendwann wird man sich vielleicht gar nicht mehr vorstellen können, wie wir heute noch leben. Aber wahrscheinlich werden wir auch manche Probleme erleben, bei denen etwas völlig falsch läuft. Vielleicht hackt sich der Nachbar ein, und dann geht die Tür gar nicht mehr auf oder die Lichter gehen alle aus, weil nichts mehr funktioniert.

Denn je mehr vernetzte Systeme und künstliche Intelligenz eingesetzt werden, desto anfälliger werden sie natürlich auch für Fehler und Störungen.

Aber das ist Zukunftsmusik – ganz so weit sind wir ja noch nicht.

Ethische Herausforderungen im Alltag mit Künstlicher Intelligenz

Ich möchte mit den ethischen Herausforderungen der künstlichen Intelligenz beginnen, insbesondere dort, wo wir sie im Alltag einsetzen. Ein Beispiel dafür sind Chatbots, also Programme wie dieses Chat-GPT. Solche Programme finden heute sehr viel Gebrauch.

Vor zwei Wochen war ich zum Beispiel in einer Gemeinde. Dort hatte der Jugendleiter ein Thema vorbereitet. Ich war für ein anderes Thema eingeteilt, aber er machte die Einleitung. Anschließend sagte er, dass der Text, den er gerade vorgelesen hatte, von ChatGPT geschrieben wurde. Er wollte den Leuten zeigen, wie so etwas funktioniert. Im Anschluss wurde noch mehr darüber gesprochen.

Der Text war zunächst gar nicht schlecht. Die darin enthaltenen Aussagen waren durchaus sinnvoll. Das zeigt eine klare Stärke dieser Technologie.

Wir wollen ja den Suchprozess abkürzen. Statt hunderttausend Seiten im Internet zu durchsuchen oder unzählige Bücher zu lesen, können wir ein Computerprogramm, also die künstliche Intelligenz, diese Arbeit für uns erledigen lassen. Danach erhalten wir eine Zusammenfassung.

Das ist zunächst eine positive Sache. Allerdings ist sie verbunden mit einigen ethischen Herausforderungen.

Herausforderungen bei schulischen und akademischen Leistungen

Ethische Herausforderungen treten beispielsweise auf, wenn Schüler oder Studenten künstliche Intelligenz nutzen. Die Frage ist dabei: Handelt es sich um die eigene Leistung oder nicht? Wenn du etwas als Seminararbeit, Hausarbeit oder Ähnliches abgibst, aber die Arbeit eigentlich von der künstlichen Intelligenz verfasst wurde, stellt sich ein Problem.

Bisher griffen Schüler, die nicht selbst schreiben wollten, oft auf Wikipedia zurück. Sie kopierten dort Inhalte und fügten sie in ihre Ausarbeitung ein. Kluge Lehrer überprüften das dann im Internet, erkannten die Quelle und bewerteten die Arbeit entsprechend – oft mit einem Durchfallen.

Jetzt kann ChatGPT Texte so formulieren, dass sie kein Plagiat sind. Die Inhalte werden neu formuliert und sind daher nicht einfach als Kopie erkennbar. Eine einfache Internetsuche reicht nicht mehr aus, um festzustellen, dass die Arbeit nicht die eigene Leistung des Schülers ist.

Ein Schüler, Student oder auch ein Erwachsener könnte beispielsweise den Auftrag bekommen, einen Text für den Gemeindebrief zu verfassen. In der Schule oder im Studium ist das jedoch eine Leistung, die bewertet wird. Wenn die Arbeit nicht selbst gemacht wurde, sondern von der künstlichen Intelligenz stammt, ist das ethisch problematisch. Es handelt sich dann klar um Betrug und Lüge, denn man erhält eine Note für eine Leistung, die man nicht erbracht hat.

Manche Schüler könnten nun sagen: „Das ist doch so einfach, und jeder weiß das, auch der Lehrer. Das spielt als Christ keine Rolle.“ Falls es noch Menschen gibt, die zur Schule gehen, studieren oder Kinder und Enkel haben, die das betrifft, sollte man deutlich sein. Man könnte den Lehrer oder Professor fragen, ob er zufrieden wäre, wenn die Arbeit nicht selbst gemacht, sondern von ChatGPT erstellt wurde. Wahrscheinlich wird die Antwort „Nein“ lauten. Die Note müsste dann eigentlich ChatGPT bekommen, nicht der Schüler. Ehrlich betrachtet haben dann ChatGPT bestanden und der Schüler ist durchgefallen.

Die Schwierigkeit für Professoren, solche Fälle zu erkennen, wird größer, weil die Texte neu formuliert sind. Hier ist die Ethik des Schülers oder Studenten gefragt. Möglicherweise steht man als Schüler schlechter da, weil man nicht so gut zusammenfassen kann wie das Computerprogramm. Aber dann muss man ehrlich sein. Es geht um die eigene Leistung, die man erbracht hat, und genau diese sollte man auch abgeben.

Man gibt keine fremde Leistung als die eigene aus. Wenn das doch geschieht, ist das biblisch betrachtet eine Lüge. Man stellt etwas als wahr dar, das nicht der Realität entspricht. Künstliche Intelligenz verführt dazu, solche Täuschungen zu begehen. Früher flog das schneller auf, heute ist das kaum noch erkennbar. Vielleicht werden in Zukunft Programme entwickelt, die solche Täuschungen erkennen können.

Letztlich braucht es die eigene Entscheidung des Schülers, Studenten oder Erwachsenen, der eine Arbeit schreiben soll. Man muss für sich selbst sagen: „Nein, das mache ich nicht. Ich nutze keine künstliche Intelligenz, weil es um meine Aussage geht. Ich werde bewertet und muss zu meiner Leistung stehen.“

Künstliche Intelligenz als Hilfsmittel und die Gefahr der Faulheit

Heißt das, dass jemand, der eine Ausarbeitung schreibt, gar nicht auf eine solche künstliche Intelligenz zugreifen kann? Doch, das kann er schon, aber nur als eine Quelle unter vielen.

Das heißt: Klar kann ich jetzt das Programm fragen, fasse mir das zusammen. Aber dann sollte ich eben auch noch in anderen Büchern nachlesen, in anderen Aufsätzen und Zeitschriften nachschauen. Dann ist das eine Quelle unter anderen, die ich verarbeite, durchdenke und mit der ich mich auseinandersetze. Dann ist das in Ordnung, und es gibt kein Problem dabei. Es kann sogar hilfreich sein.

Besonders hilfreich ist solche künstliche Intelligenz für diejenigen, die schon Fachmann beziehungsweise Fachfrau in einer bestimmten Angelegenheit sind. Wenn sie dazu genutzt wird, die eigene Faulheit zu befriedigen, ist das natürlich falsch. Die Bibel sagt das ganz deutlich – man muss ja nur die Sprüche lesen. Eine nächste ethische Herausforderung ist Faulheit, die ethisch falsch ist.

Die Sprüche sagen das sehr deutlich, zum Beispiel: „Geh zur Ameise, du Fauler, lerne von ihr.“ Das heißt, du sollst arbeiten und dich anstrengen, um etwas zu erreichen. Es ist nicht richtig, den Weg abzukürzen, indem man aus Faulheit etwas vermeidet. Zum Beispiel liege ich lieber draußen im Garten in der Sonne oder schaue mir ein Fußballspiel an, statt die Aufgabe für die Schule oder das Studium zu machen. Stattdessen soll die künstliche Intelligenz die Arbeit für mich übernehmen.

Das widerspricht dem biblischen Gebot: Wir sollen fleißig sein und nicht faul. Genau das steht dahinter: Ich muss mich überwinden, mich hinsetzen und etwas tun, was vielleicht unangenehm ist. Ich muss darüber nachdenken und mich intensiv auseinandersetzen. Das ist eine wichtige ethische Herausforderung.

Die Bibel sagt auch: Du sollst nicht lügen. Deshalb gib nicht etwas ab, was gar nicht deine eigene Leistung ist, so als ob es deine wäre. Vermeide es nicht, die Mühe der Arbeit auf dich zu nehmen. Denn das wird nicht funktionieren. Du sollst Fleiß lernen. Wenn du einmal nicht fleißig bist, gewöhnst du dich daran und versuchst in Zukunft immer wieder, die Arbeit aufzuschieben oder zu umgehen.

Genau das soll nicht sein. Arbeit ist von Gott etwas, das uns gegeben ist und das wir in bestem Wissen und Gewissen erledigen sollen. Also keine Abkürzung aus Faulheit! Gerade für die faulen Schüler und Studenten werden solche künstlichen Intelligenzen die größte Versuchung sein.

Denn wer intelligent ist, findet auch auf anderem Weg schnell Lösungen. Man kann Sachen zusammenfassen und recherchieren. Wer aber vor der Aufgabe steht, zum Beispiel „Beschreibe die Gewaltenteilung in Deutschland“ in Sozialwissenschaften in der Schule, und keine Ahnung hat, ist oft gelähmt. Er weiß nicht, wie er anfangen soll, wo er suchen muss, und das dauert lange.

Dann könnte er einfach zu einer solchen künstlichen Intelligenz gehen, fragen: „Wie ist das Gewaltsystem in Deutschland? Schreibe einen Aufsatz von zwei Seiten.“ Zack, in einer Minute ist das Ergebnis da, und er gibt es ab.

Dabei merken wir: Es ist nicht nur gelogen, sondern ich werde auch nie richtig lernen, wenn ich das so mache. Lernen, auch in der Bibel, geht nur, indem ich mich selbst hineindenke und mich damit auseinandersetze. Ich muss selbst Vor- und Nachteile kennenlernen.

Das heißt: Ich habe ein Ergebnis, aber ich verstehe es gar nicht. Ich kann es nicht anwenden, überprüfen oder korrigieren, weil ich mich nicht hineingedacht habe. Die Idee, nur fertige Ergebnisse abzuliefern oder am Ende nur noch eine Beurteilung abzugeben, funktioniert nur, wenn man fundiertes Sachwissen hat.

Um dieses Sachwissen zu bekommen, muss ich mich immer wieder mit grundlegenden Fakten auseinandersetzen. Das kann kein anderer für mich tun, auch kein Computerprogramm kann das ersetzen. Das Programm kann mir helfen, bestimmte Fakten zu finden. Aber dann muss ich sie lernen, überprüfen und mich mit ihnen auseinandersetzen.

Wenn ich das nicht tue, verleitet mich solch ein Computerprogramm zur Lüge und zur Faulheit, die von der Bibel deutlich kritisiert werden.

Bedeutung von Fachwissen und kritischer Prüfung

Also derjenige, der bereits Vorwissen hat – zum Beispiel, wenn ich seit fast dreißig Jahren Kirchengeschichte unterrichte – kann durch ein Computerprogramm unterstützt werden. Wenn ich etwa sage: „Schreib mir doch mal etwas über die Abendmahlslehre von Philippe Landstoll“, dann kann mir das die Arbeit erleichtern. Statt selbst in Fachbüchern nachzuschlagen, übernimmt das Programm diese Aufgabe. Ich lese das Ergebnis durch und kann aufgrund meiner Fachkenntnisse erkennen, ob die Informationen richtig oder falsch sind.

Manchmal fällt mir auf: Das kann gar nicht sein, hier stimmt ein Datum nicht, oder es wird ein falscher Begriff verwendet. Diese Fehler erkenne ich nur, weil ich Fachmann bin. Wer kein Fachwissen hat, wird das nicht bemerken. Das Computerprogramm kann irgendetwas vorlegen, und der Nutzer hat keine Möglichkeit, die Richtigkeit zu überprüfen. Dann denkt man automatisch, es stimmt immer. Aber genau das ist das Problem: Es stimmt eben nicht immer.

Heute Morgen habe ich Beispiele genannt. Ein Journalist fragte ChatGPT: „Wie kann Donald Trump als US-Präsident wiedergewählt werden?“ Die Antwort von ChatGPT lautete: „Nein, er kann nicht wiedergewählt werden, weil er schon zwei Amtszeiten hinter sich hat.“ Wenn ich keine Ahnung von amerikanischer Politik habe, könnte ich das glauben und sagen: „Siehst du, geht nicht, ist doch ganz klar.“ Der Computer sagt ja die Wahrheit.

Wenn ich aber ein wenig misstrauisch bin und mich mit amerikanischer Politik auskenne, weiß ich: Nein, er wurde bei der letzten Wahl nicht wiedergewählt. Dieser Fehler liegt vermutlich daran, dass die Daten, die ChatGPT verwendet, vor der letzten US-Wahl gesammelt wurden. Möglicherweise hat ChatGPT auf Quellen zurückgegriffen, die davon ausgegangen sind, dass Donald Trump ein zweites Mal gewählt wird. Das wurde dann fälschlicherweise als Fakt verarbeitet, obwohl es nicht stimmt.

Hier merken wir: Wenn man sich in einem Bereich auskennt, kann ein solches Programm eine Hilfe sein. Es kann Informationen bündeln, sammeln und schneller auf relevante Informationen aufmerksam machen. Aber das funktioniert nur, wenn ich ein gutes Hintergrundwissen habe und die Gesamtzusammenhänge kenne.

Wer solche Programme benutzt, braucht daher umso mehr Fachkenntnisse. Wer keine Fachkenntnisse hat, wird durch das Programm eher irregeführt. Er wird eher in seinem Denken behindert, weil er selbst verlernt, Fakten zu bewerten und zu recherchieren. Das wird ihm abgenommen. Wenn man diese Fähigkeiten nicht übt, lernt man sie auch nicht.

Das bedeutet: Wenn das Computerprogramm, das man benutzt, ideologisch gefärbt ist oder einseitig arbeitet, lernt man gar nichts mehr. Wenn man dann einmal ohne das Programm dasteht – aus welchen Gründen auch immer – weiß man nicht mehr, wie man an Informationen kommen kann. Man ist völlig hilflos.

Deshalb gehört zum verantwortungsvollen Umgang mit solchen Programmen grundlegend, sich erst einmal gründlich mit dem Fachwissen auszurüsten. Man muss den Fachbereich selbst erlernen, bevor man sich auf eine Zusammenfassung durch ein Programm verlässt. Nur so hat man die Möglichkeit, die Informationen zu überprüfen.

Hier spielen also mehrere Aspekte eine wichtige Rolle, besonders aus ethischer Sicht: Wahrheit und Lüge, Faulheit und Fleiß. Diese Faktoren beeinflussen, wie man mit solchen Programmen umgeht.

Verantwortung bei der Informationsaufnahme und -weitergabe

Eine weitere wichtige Sache ist, dass wir alle – nicht nur Studenten, Schüler oder andere, die etwas schreiben – beim Umgang mit dem Internet vor allem Konsumenten sind. Das heißt, wir nehmen Informationen auf und bilden daraus unsere Meinungen und Überzeugungen.

Für diese Meinungen und Überzeugungen bist du selbst verantwortlich, auch vor Gott, besonders wenn du sie an andere weitergibst. Du kannst dann nicht einfach sagen: „Das hat mir die künstliche Intelligenz so gesagt.“ Du trägst die Verantwortung dafür.

Wenn du Informationen weitergibst, musst du sie zuerst selbst gründlich prüfen. Das ist bei einer Zusammenfassung durch künstliche Intelligenz schwieriger, als wenn du selbst recherchierst. Wenn du beispielsweise in einer Bibliothek oder im Internet selbst suchst, weißt du, aus welcher Quelle die Informationen stammen.

Lesst du einen Artikel aus der Frankfurter Rundschau, dann weißt du, dass diese Zeitung politisch eher linksorientiert ist, ähnlich wie der Spiegel. Daraus kannst du ableiten, welche Hintergründe und Perspektiven wahrscheinlich sind, und bist vorsichtig bei der Bewertung der Schlussfolgerungen.

Liest du hingegen die Neue Zürcher Zeitung, die eher konservativ ist, kannst du deren politische oder weltanschauliche Ausrichtung berücksichtigen. Wenn du also genau weißt, von welcher Quelle oder Internetseite etwas stammt, kannst du die Informationen besser einordnen – vorausgesetzt, du hast dich etwas eingelesen.

Bei ChatGPT ist das anders. Hier wird der Eindruck erweckt, das Gesagte sei die Wahrheit. Doch du weißt nicht, woher die Informationen genau stammen. Wenn du diese Informationen übernimmst, trägst du die Verantwortung, auch für mögliche Fehler.

Diese falschen Informationen können durch ein Programm entstehen. Ich habe heute Morgen darauf hingewiesen, dass wir immer mehr damit rechnen müssen, dass auch große Medienanstalten – Zeitungen, Fernsehen, Radio – sowie Privatpersonen ihre Informationen nicht mehr aus eigener Recherche oder erster Kenntnis schöpfen. Stattdessen nutzen sie Zusammenfassungen und Bewertungen durch künstliche Intelligenz.

Manchmal geben sie der künstlichen Intelligenz sogar falsche Vorgaben, damit das Ergebnis ihren Wünschen entspricht. Dieses Ergebnis wird dann weitergegeben. Wenn du das als Konsument aufnimmst, kannst du dich nicht hinter der Aussage verstecken, jemand habe dir etwas Falsches gesagt. Wenn du es weitergibst, bist du mitverantwortlich.

Wir sind heute viel stärker gefordert, in einer Zeit der künstlichen Intelligenz, die Informationen künstlich gestalten und verfälschen kann. Stimmen, Videos, Bilder und Texte können gefälscht werden und trotzdem echt wirken.

Das fordert uns heraus, genau hinzuschauen. Wir dürfen uns nicht in unseren Vorurteilen bestätigen lassen, indem wir nur das lesen, was wir gerne hören wollen. Das gilt auch für Christen. Auch Christen haben manchmal Vorurteile und möchten bestimmte Dinge so hören.

Wenn dir jemand sagt, was du gerne hören möchtest, bejahst du es oft sofort und gibst es weiter. Dann trägst du die Verantwortung dafür.

Deshalb warnt die Bibel vor übler Nachrede und dem Weitergeben von Gerüchten. Genau das ist gemeint: Du gibst etwas weiter, von dem du nicht sicher sagen kannst, dass es stimmt. Du bist für jedes Wort verantwortlich, das du sagst, schreibst oder im Internet weitergibst.

Wenn du also in sozialen Netzwerken wie Instagram oder Facebook einen Artikel verlinkst oder weitergibst, der sich später als falsch herausstellt, bist du mitschuldig – genauso, als hättest du ein Gerücht oder eine Lüge verbreitet.

Auch bei der Kreuzigung Jesu gab es eine solche Situation: Plötzlich riefen alle „Kreuzige ihn!“. Haben die alle selbst darüber nachgedacht? Wahrscheinlich nicht. Die Stimmung in der Gesellschaft war so, dass viele einfach mitmachten.

Gerade wenn wir damit rechnen müssen, dass Medien – und heute vor allem elektronische Medien – immer mehr künstlich erzeugte Informationen verbreiten, müssen wir umso kritischer hinschauen. Besonders kritisch sollten wir bei denen sein, die uns das sagen, was wir gerne hören wollen.

Wenn uns jemand etwas sagt, das wir nicht gerne hören, sind wir meist sowieso kritisch. Wenn zum Beispiel jemand behauptet, es gäbe keinen Gott und das sei bewiesen, würden die meisten von uns den Artikel genau prüfen. Wahrscheinlich ist dort ein Fehler, denn es gibt keine Beweise dafür, dass es Gott nicht gibt; das ist reine Fiktion.

Wenn ich jedoch einen Artikel lese, der beweist, dass es Gott gibt, sind viele Christen viel weniger kritisch. Sie sind eher bereit, Lügen und Erfindungen zu übernehmen. Das ist aber genauso problematisch.

Beispiel für falsche Informationen und deren Folgen

In der letzten Woche habe ich zum Beispiel einen Artikel gelesen, der von einem amerikanischen, christlichen Fernsehsender verbreitet wurde. Darin wurde behauptet, es gäbe einen Beweis für die Existenz der Hölle.

Bis 1989 gab es auf der Kola-Halbinsel in der ehemaligen Sowjetunion eine Tiefenbohrung. Man bohrte bis elf oder zwölf Kilometer tief in die Erde. Der christliche Fernsehsender berichtete, man habe plötzlich Stimmen von schreienden Menschen aus der Hölle gehört. Angeblich habe man die Hölle angebohrt.

Diese Behauptung wurde von evangelikalen Predigern aufgegriffen. In ihren Gemeinden sahen sie darin einen Beweis für die Hölle, denn die Russen hätten dort gebohrt und Stimmen aus der Hölle gehört.

Inzwischen wurde das alles gründlich recherchiert. Verschiedene Leute sind dem nachgegangen, und es stellte sich heraus, dass das ein kompletter Betrug ist. Die Bohrung selbst hat tatsächlich stattgefunden, aber die Stimmen aus der Hölle gab es nicht.

Man hat im Mikrofon zwar Geräusche gehört, aber das waren nur Knackgeräusche des Erdreichs. Es ist klar, dass Schollen aufeinander reiben und Magma blubbert, aber keine einzige Stimme, geschweige denn aus der Hölle, war zu hören.

Ich hätte auch gewisse Zweifel, ob Gott zulassen würde, dass wir die Hölle einfach so anbohren. Nach biblischer Vorstellung gibt es die Hölle, das ist richtig. Ob sie tatsächlich existiert, wissen wir nicht genau, aber nach der Bibel sind die Menschen zunächst im Totenreich. Die Entscheidung über das endgültige Schicksal, also über das Gericht, kommt erst später.

Das größte Völkergericht wird in Offenbarung 20 beschrieben. Es findet nach dem Tausendjährigen Reich statt. Theologisch ist die Behauptung also auch problematisch.

Trotzdem haben evangelikale Pastoren diese Geschichte übernommen und gesagt: „Jetzt überzeugen wir die Leute, siehst du, das ist die Realität.“ Damit machen sie Menschen mitverantwortlich.

Vielleicht dient es sogar dazu, dass sich Menschen im Glauben öffnen. Aber ist es ethisch vertretbar, Menschen mit einer Lüge zu gewinnen, die sich bei Recherche als falsch herausstellt? Das geht nicht. Wir können Menschen nicht mit Lügen für Jesus gewinnen.

Wenn wir Gerüchte hören, die wir gerne wahrhaben wollen – viele Menschen wünschen sich einen wissenschaftlichen Beweis für die Existenz der Hölle – dann müssen wir umso kritischer sein. Gerade bei Dingen, die wir gerne glauben wollen, sind wir oft zu wenig kritisch und stimmen zu schnell zu.

Wenn wir diese falschen Informationen dann an andere weitergeben, die nicht gläubig sind, fällt ihnen vielleicht viel schneller auf, dass wir Unsinn verbreitet haben. Am Ende machen wir Jesus damit lächerlich und unglaubwürdig.

Deshalb sollten wir kritisch hinschauen – nicht nur bei unseren Gegnern, sondern auch bei Aussagen, die uns gefallen. Meistens sind wir bei unangenehmen Aussagen schon sehr skeptisch.

Wir müssen in Zukunft damit rechnen, dass Leute versuchen, uns aufs Glatteis zu führen. Das Beispiel mit der Hölle wurde von einem Atheisten erfunden, der sich über Christen lustig machen wollte. Er hat diese Geschichte in die Welt gesetzt.

Der christliche Fernsehsender hat das aufgenommen und als Realität verbreitet. Ein angeblicher Wissenschaftler behauptete, bei der Bohrung dabei gewesen zu sein. Das war eine Lüge. Später stellte sich heraus, dass er nie bei der Bohrung war.

Der Sender hat die Geschichte nicht überprüft, sondern einfach übernommen, weil sie so schön in das Bild passte, das man gerne hören wollte. Das ist problematisch.

Solche Fälle gibt es öfter. Ich kenne auch andere Beispiele. Zum Beispiel gab es einen Jungen in den USA, der behauptete, er sei tot gewesen, habe Gott gesehen und beschrieben, wie es bei Gott war. Das Buch verkaufte sich millionenfach.

Später gab der Junge zu, dass er das alles erfunden hatte. Auf die Frage, warum er das getan habe, antwortete er, er habe gedacht, das würde den Glauben der Leute festigen, wenn sie wüssten, dass es wirklich ein Jenseits gibt.

Am Ende festigt es den Glauben aber nicht, sondern zerstört die Glaubwürdigkeit von Christen.

Wir merken, dass das, was früher schon gefälscht werden konnte, heute durch künstliche Intelligenz noch viel einfacher geworden ist. KI kann falsche Bilder, Töne, Gesichter und Dokumente erzeugen – und das geschieht bereits.

Deshalb müssen wir noch genauer hinschauen und lernen, Medienkompetenz zu entwickeln. Wir sollten erkennen, ob etwas faul ist, ob die Argumentation stimmig ist, und wie seriös die Quelle ist.

Je leichter es wird, mit künstlicher Intelligenz Falschinformationen zu erzeugen, desto mehr sind wir für unsere eigene Meinungsbildung verantwortlich. Wir dürfen uns nicht falsch orientieren.

Wir sollten nicht aus Angst vor Dingen, die es gar nicht gibt, oder aus Unwissenheit falsche Schlüsse ziehen. Stattdessen sollten wir seriös und im Vertrauen leben, denn Jesus ist die Wahrheit. Er sagt: „Ich bin der Weg, die Wahrheit und das Leben.“

Wenn wir mit Jesus leben, sollten wir auch wahrhaftig sein und nach Wahrheit streben – egal, ob sie uns passt oder nicht, egal, ob sie unseren Vorstellungen entspricht oder nicht.

Künstliche Intelligenz macht das schwierig. Ich erinnere mich an ein Beispiel: Jemand schickte mir ein bearbeitetes Bild, möglicherweise mit KI erstellt. Es zeigte den Papst in einer Moschee mit der Unterschrift: „Der Papst betet zu Allah.“

Ich bin dem nachgegangen und stellte fest, dass das Bild komplett gefälscht war. Es stimmt nicht.

Es gab Christen, die dachten, der Papst bete zu Allah – was vielleicht stimmt oder nicht, ist eine andere Frage. Aber hier wurde bewusst ein Bild gefälscht, um diese Idee zu unterstützen.

Das hilft Gott nicht, sondern schadet eher.

Ich hoffe, ich habe das an einigen Beispielen erläutert. Wenn wir merken, dass es ein Problem gibt, sollten wir umso vorsichtiger sein.

Je leichter falsche Informationen erzeugt werden können, desto leichter können wir darauf hereinfallen. Wenn wir diese Informationen weitergeben, sind wir auch verantwortlich.

Wenn du etwas in einem YouTube-Video hörst und es dir komisch vorkommt, prüfe es nach. Wenn du es nicht überprüfen kannst, gib es nicht weiter.

Immer mehr falsche Informationen werden mit künstlicher Intelligenz erzeugt, um Menschen zu manipulieren und in eine bestimmte Richtung zu drängen.

Auch dafür sind wir verantwortlich: für die Wahrheit, mit der wir uns informieren, und für die Wahrhaftigkeit, die wir anderen gegenüber zeigen.

Ich hoffe, ich muss nicht extra erwähnen, dass man künstliche Intelligenz nicht dazu benutzen sollte, selbst falsche Informationen zu verbreiten.

Das wäre eine ganz andere Ebene: Nicht nur prüfen, ob etwas wahr ist, sondern bewusst falsche Informationen erzeugen – zum Beispiel, um gegen andere Christen vorzugehen oder um ungläubige Menschen zu täuschen.

Solche Dinge gibt es leider. Das nennt man Mobbing oder Cybermobbing. Mit künstlicher Intelligenz wird das noch viel leichter.

Stell dir vor, jemand ärgert dich in der Gemeinde, und du nimmst eine Aufnahme auf, in der es so klingt, als hätte er etwas Falsches gesagt. Dann bearbeitest du die Aufnahme mit KI so, dass seine Frau denkt, ihr Mann hätte etwas Schlimmes gesagt, und trennt sich von ihm.

So kann man Leben zerstören.

Ich hoffe, solche Dinge sind für euch weit entfernt. Aber für manche wird es leider Realität, dass sie ihre eigenen Interessen mit krummen Methoden durchsetzen – indem sie künstliche Intelligenz nutzen, um die Wirklichkeit so zu verändern, dass sie zu ihren Interessen passt.

Das ist heute so gut möglich, dass man es oft nicht auf den ersten Blick erkennt.

Das ist ein riesiges Problem, das uns alle betrifft.

Verantwortung und Haftung bei Fehlern durch Künstliche Intelligenz

Ein weiteres Problem, das Politik und Wissenschaft zum Teil bereits erkannt haben, betrifft die Frage: Wer ist eigentlich für die erzeugten Informationen verantwortlich?

Denn wenn die künstliche Intelligenz etwas macht, kann das ernsthafte Schäden auslösen. Ein Beispiel habe ich heute Morgen bereits erwähnt: eine Organisation, die Hinweise zur richtigen Ernährung gibt. Wenn du eine Nachricht bekommst, dass du dich auf eine bestimmte Weise ernähren sollst, und du dadurch langfristig krank wirst oder sogar stirbst, stellt sich die Frage: Wer trägt dann die Verantwortung?

Im Moment schiebt jeder die Verantwortung auf jemand anderen. Denn bei künstlicher Intelligenz kann das richtig teuer und problematisch werden. Auch bei ChatGPT ist es so. Man könnte sagen, die Organisation könnte Geld verdienen, indem sie das Copyright für alles, was das Programm erzeugt, beansprucht und dafür Gebühren verlangt. Das macht die Organisation jedoch bewusst nicht. Sie sagt, dass du als Kunde das Recht an dem hast, was geschrieben wird, und somit auch die Verantwortung trägst.

Wenn also falsche Informationen enthalten sind – beispielsweise die Empfehlung, einmal im Monat einen Liter Kerosin zu trinken, um keine Probleme mehr mit Lungenentzündung zu haben – und du das tatsächlich machst, dann ist das nicht die Frage der Organisation, sondern deine eigene Verantwortung. Du hast die Information angefordert und erhalten.

Damit zeigt die Firma, dass sie sich nicht sicher ist, ob das, was ihr Programm produziert, immer wahr ist. Sonst könnten sie ja die Verantwortung übernehmen. Sie übernehmen sie bewusst nicht, weil sie wissen, dass ihr Programm auch Falschinformationen erzeugt.

Das zeigt uns, dass hier eine riesige Herausforderung besteht. Diese Frage betrifft jetzt nicht dich oder mich persönlich, denn wir sind ja keine Betreiber von künstlicher Intelligenz. Aber gesellschaftlich müsste aus ethischen Gründen noch geregelt werden, wer dafür verantwortlich ist.

Ähnlich ist es beim autonomen Fahren. Wenn ein autonomes Auto einen Unfall verursacht, stellt sich die Frage: Wer ist schuld? Der Besitzer, die Straßenmeisterei, der Hersteller des Autos oder der Entwickler des Programms?

Es überrascht nicht, dass jeder die Schuld gerne auf den anderen schieben möchte. Im Moment liegt die Schuld meist beim Nutzer, was auch am bequemsten ist. Die großen Firmen wollen auf keinen Fall die Verantwortung übernehmen.

Wenn du ein autonomes Auto kaufst, heißt es oft: Du hast das Auto, aber du trägst die Verantwortung. So sagen beispielsweise Mercedes und andere Hersteller, dass das Auto autonom fährt, du es aber ständig überwachen musst. Wenn etwas schiefgeht, bist du schuld. Du kannst nicht sagen, Mercedes sei verantwortlich, weil das Auto gegen etwas gefahren ist.

Hier zeigt sich, dass die Frage der Verantwortung für die Handlungen künstlicher Intelligenz völlig offen ist. Denn am Ende ist die künstliche Intelligenz keine Person, die man verklagen könnte. Sie kann kein Geld bezahlen. Nur die Firma, die sie entwickelt oder einsetzt, könnte das. Aber sie will es nicht, weil sie weiß, dass die Technologie nicht hundertprozentig sicher ist.

Was passiert dann? Am Ende stehst du mit deinem Schaden selbst da. Oder schlimmer noch: Du gibst deinen Ernährungstipp weiter, und jemand anderes erleidet dadurch Schaden oder stirbt. Im Moment trägst du die Schuld, weil du leichtfertig Informationen weitergegeben hast, die anderen schaden.

Die Frage der Verantwortung ist auch in der Bibel ganz wichtig. Wir sind verantwortlich für das, was wir tun. Ich habe vorhin schon gesagt, dass es um Wahrheit oder Unwahrheit geht, aber genauso bei anderen Anwendungen der künstlichen Intelligenz – sei es beim autonomen Fahren, bei der Steuerung von Häusern oder bei vielen anderen Dingen – stellt sich die Frage: Wer ist verantwortlich?

Solange diese Frage nicht geklärt ist, wird niemand ernsthaft gegen Fehler vorgehen. Denn das wäre sehr teuer und aufwendig. Künstliche Intelligenz ist fehleranfällig, weil die Programme so komplex sind. Man kann sie bisher nicht hundertprozentig sicher machen.

Die Fehleranfälligkeit ist relativ hoch, größer als bei Programmen, die immer nur dasselbe abarbeiten. Dort sind Fehler meist leichter zu finden. Bei künstlicher Intelligenz ist es dagegen sehr schwer nachzuvollziehen, warum das Programm eine falsche Entscheidung getroffen hat. Deshalb ist die Frage der Verantwortung ein großes Problem.

Einsatzbereiche und Risiken von Künstlicher Intelligenz im gesellschaftlichen Kontext

Wer trägt also die Verantwortung für diese Sache? Mit der Verantwortung sind auch weitere Aspekte verbunden, insbesondere wenn künstliche Intelligenz im größeren Stil eingesetzt wird – also nicht nur im privaten Bereich, sondern auch im staatlichen Bereich.

Künstliche Intelligenz hilft uns dabei, Routineaufgaben besser zu erledigen, aber auch sehr komplexe Aufgaben zu bewältigen, wenn viele einzelne Daten verarbeitet werden müssen. Ein Beispiel dafür ist die Wettervorhersage. Dort findet künstliche Intelligenz regelmäßig Anwendung, weil so viele verschiedene Daten vorliegen, dass ein Mensch kaum noch den Überblick behalten kann. Deshalb überlässt man die Verarbeitung der künstlichen Intelligenz.

Ähnlich verhält es sich beim autonomen Fahren. Auch hier wird künstliche Intelligenz eingesetzt, weil sehr viele Daten sehr schnell verarbeitet werden müssen, um eine Entscheidung zu treffen. Man muss dabei berücksichtigen, dass es auch zu Fehlern kommen kann, zum Beispiel bei einem Unfall. Solche Fehler können sogar große politische Konsequenzen nach sich ziehen.

Wer entscheidet also in Zukunft, ob zum Beispiel eine Steuererhöhung eingeführt wird oder wie die politische Strategie aussehen soll? Auch das könnte von künstlicher Intelligenz entschieden werden, weil sie einen viel besseren Überblick hat. Teilweise ist das heute schon so. Politiker trauen sich oft nicht, selbst zu entscheiden, weil sie nicht wissen, wie eine Strategie ausgehen wird. Deshalb füttern sie Computerprogramme mit verschiedenen Szenarien: „Wenn ich das und das mache, wie wird das Ergebnis aussehen? Wie wird die Bevölkerung reagieren?“ Am Ende trifft nicht mehr der Mensch die Entscheidung, sondern das Computerprogramm.

Wenn wir noch weiter denken, betreten wir glücklicherweise eher utopisches Terrain. Was passiert zum Beispiel, wenn ein neues, hochentwickeltes Raketenabwehrprogramm vollautomatisch mit künstlicher Intelligenz arbeitet? Was, wenn die künstliche Intelligenz plötzlich meint, eine russische Rakete nähere sich? Sie ordnet dann Gegenfeuer an. Vielleicht war die vermeintliche Rakete nur ein elektronischer Fehlimpuls, während unsere Gegenraketen real sind. Plötzlich könnte daraus ein Dritter Weltkrieg entstehen.

Doch zum Teil läuft es tatsächlich schon so ab, weil man sagt, künstliche Intelligenz sei intelligenter als wir Menschen: Sie verarbeitet mehr Daten und kann schneller Entscheidungen treffen. Wenn sehr schnell entschieden werden muss, überlässt man das immer mehr Computersystemen, sofern man ihnen vertraut. Die komplexen Aufgaben werden dann von künstlicher Intelligenz übernommen. Dabei wird deutlich, dass das enorme Auswirkungen haben kann.

Ein weiterer wichtiger Punkt ist, dass künstliche Intelligenz nicht nach Ethik oder Gewissen fragt. Es geht nicht darum, ob etwas richtig oder falsch ist, sondern die Entscheidungen basieren auf den Paradigmen und Vorgaben, die in das System eingespeist wurden. Diese Vorgaben können aber inzwischen veraltet oder nicht mehr relevant sein.

Deshalb müssen wir sehr genau darauf achten, wie viel Macht wir der künstlichen Intelligenz geben und welches Risiko damit verbunden ist. Kann eine Entscheidung der künstlichen Intelligenz möglicherweise ein ganzes Land vernichten? Wenn das Risiko zu groß ist im Verhältnis zum Nutzen, müssen wir auf diesen Nutzen verzichten. Selbst wenn das Risiko nur alle zwanzig Jahre eintreten sollte, wäre das nicht verantwortbar.

Diese Abwägung von Kosten und Risiken, also die Risiko-Nutzen-Abwägung, führt unter anderem dazu, dass viele Menschen heute keine Atomkraft wollen. Sie sagen: Im Normalfall passiert mit Atomkraft nichts, aber im schlimmsten Fall kann es zu einem Super-GAU kommen, wie in Tschernobyl. Deshalb verzichten sie lieber darauf. Hier wird also der Nutzen – günstige Energie – dem Risiko – Super-GAU und Verstrahlung – gegenübergestellt. Wenn das Risiko zu groß ist, wird der Nutzen nicht mehr akzeptiert.

Die Auswirkungen künstlicher Intelligenz können sogar noch größer sein als die eines einzelnen, lokalen Atomkraftwerks, das meist nur die direkte Umgebung verseuchen kann. Künstliche Intelligenz ist international vernetzt und kann weltweit tiefgreifende Veränderungen hervorrufen. Zum Beispiel könnten alle Finanzmärkte zusammenbrechen.

Solche Situationen gab es bereits. Künstliche Intelligenz wird an vielen Börsen eingesetzt. Wenn sie falsche Informationen erhält, kann es zu einem plötzlichen Kurssturz kommen. Die Computerprogramme sind oft so programmiert, dass sie bei fallenden Kursen automatisch verkaufen. Dadurch beschleunigt sich der Kursverfall noch weiter, bis es zu einem großen Zusammenbruch kommt. Dies konnte nur gestoppt werden, indem alle Programme abgeschaltet wurden. Dann war kein Handel mehr möglich.

Das zeigt, wie schnell etwas passieren kann, wenn künstliche Intelligenz eigenständig Entscheidungen trifft, ohne dass Menschen noch eingreifen. Wirtschaftssysteme könnten zusammenbrechen, Kriege ausbrechen – das ist sehr heikel.

Das bedeutet nicht, dass solche Szenarien zwangsläufig eintreten müssen. Aber wir müssen immer abwägen, inwieweit wir Entscheidungen der künstlichen Intelligenz überlassen wollen. Wir sollten die möglichen Risiken und Probleme zumindest teilweise berücksichtigen, wenn wir mit dieser Technologie umgehen und entscheiden, wie wir sie einsetzen.

Datenschutz und die Gefahr des gläsernen Menschen

Wir sind ständig von künstlicher Intelligenz betroffen, wenn wir unser Handy benutzen. Wie ich bereits im Beispiel erwähnt habe, werden alle unsere Daten gespeichert – egal, wen du anrufst oder welche Seiten du aufrufst. Diese Daten werden dann von künstlicher Intelligenz verwendet.

Hier stellt sich die Frage, inwiefern wir das unterstützen wollen. Ein Vorteil ist natürlich, dass dir manchmal Dinge angeboten werden, die dich wirklich interessieren oder die du auch tatsächlich haben möchtest.

Auf der anderen Seite muss man wissen: Heute weiß kein Mensch so viel über dich wie die künstliche Intelligenz im Internet. Vielleicht ist es dein Ehepartner, der ganz genau weiß, wo du wann geparkt hast, was du wann gebraucht hast und wie lange du wo gewesen bist. All diese Informationen werden genau aufgezeichnet. Die meisten Menschen geben diese Daten freiwillig preis.

Hier sollte uns immer klar sein, inwiefern wir das wollen und bis wohin uns dieser totale, gläserne Mensch nützt oder wo er uns schadet. Wenn wir in einer Gesellschaft leben, die christenkritisch ist, dann merken wir schnell, dass wir uns nicht mehr verstecken können. Du brauchst keinen Antichristen mehr, der jemanden losschickt, um herauszufinden, wo die Christen sind. Man muss nur dein Handy auswerten, und schon ist alles klar.

Wahrscheinlich – oder hoffentlich – kommt dabei heraus, dass du zum Beispiel ständig die Losung abonniert hast. Vielleicht über Instagram oder andere Kanäle hörst du dir christliche Inhalte an. Wenn der Verbraucher dann nicht reagiert, ist das sofort sichtbar.

Heute bringt Verstecken nichts mehr, denn durch die Nutzung des Internets und die schnelle Auswertbarkeit der Daten bist du relativ gläsern geworden.

Wenn wir jetzt sagen: „Ich will das nicht“, dann merken wir schnell, dass das kaum möglich ist. Man müsste auf alles verzichten. Wer von uns kann das wirklich? Es geht fast gar nicht mehr, weil du für viele Dinge dein Handy brauchst.

Ich selbst habe mich erst vor Kurzem entschieden, ein Handy anzuschaffen, obwohl ich dachte: „Nein, ich will kein Handy, das nervt mich, ich werde unterwegs ständig unterbrochen und möchte es nicht immer dabei haben.“ Doch ich habe gemerkt, dass ich manche Dinge ohne Handy gar nicht mehr erledigen kann. Zum Beispiel bei meiner Bank: Überweisungen sind ohne Handy nicht mehr möglich, weil es eine doppelte Absicherung gibt – einmal mit dem Handy, einmal mit einem anderen Verfahren.

Eigentlich komme ich gar nicht ohne Handy aus. Doch dadurch sind wir direkt überprüfbar und überwacht. Das kann Probleme aufwerfen.

Geistliche Dimensionen und die Bedeutung biblischer Maßstäbe

Heute Morgen wurde auch die Frage gestellt: Wer steckt denn hinter künstlicher Intelligenz? Es gibt geistliche Aspekte, die dahinterstehen, und das müssen wir uns als Christen, glaube ich, deutlich vor Augen führen.

Wir befinden uns in einer geistlichen Auseinandersetzung, denn künstliche Intelligenz ist keinesfalls neutral. Sie wird immer von einer bestimmten Organisation, Partei oder Regierung zu einem bestimmten Zweck eingesetzt. Keine Regierung, keine Partei und keine Organisation ist neutral, auch wenn sie das vorgibt. Hinter jedem steht ein Interesse – sei es ein Gewinninteresse oder ein politisches Interesse. Künstliche Intelligenz wird dabei als verlängerter Arm dieser Interessen benutzt.

Uns muss klar sein: Wenn wir künstliche Intelligenz nutzen oder von ihr beeinflusst werden, dann werden wir gleichzeitig auch von den Interessen jener politischen Organisationen beeinflusst und benutzt, die dahinterstehen. Natürlich kann man argumentieren, dass hinter vielen weltlichen Organisationen der Teufel steht, der die Menschen verführen will. Das stimmt zum Teil.

Allerdings gibt uns die Bibel auch einen deutlichen Hinweis, der uns beruhigen kann: Am Ende steht hinter allen Mächtigen der Welt Gott. So lesen wir zum Beispiel, dass Gott Könige einsetzt und auch wieder absetzt. Nicht der Teufel, sondern Gott tut das. Wir wissen auch, dass es einen Antichristen geben wird, der Christen verfolgen wird. Aber auch das geschieht nicht, weil der Teufel es will, sondern weil Gott es so zulässt. Gott hat es vorhergesagt, deshalb muss es so kommen. Alle unsere Aktivitäten, den Antichristen zu verhindern, laufen ins Leere, weil wir damit gegen Gottes Willen kämpfen würden.

Gott hat das angekündigt, deshalb wird es genau so kommen, und wir werden ihn nicht verhindern können. Allerdings müssen wir ihn auch nicht fördern. Es wird so oder so geschehen, aber wir müssen diese Perspektive haben: Am Ende steht glücklicherweise Gott hinter allem. Auch wenn böse Mächte der Welt mit ihrer Ideologie oder Politik künstliche Intelligenz für ihre Zwecke einsetzen, müssen wir wissen, dass Gott größer ist.

Was brauchen wir also umso mehr? Wir müssen umso mehr in der Bibel verwurzelt sein. Das klingt vielleicht etwas platt, aber genau das ist wichtig. Wir Christen gehen davon aus, dass Gott uns die Maßstäbe für richtig und falsch gegeben hat. Diese Maßstäbe dienen zur Bewertung unseres Lebens und der Wahrheit, und sie stehen in der Bibel. Nur wenn wir die Bibel gut kennen, können wir in einer Welt, die immer mehr mit Fake-Informationen oder selektiver Information arbeitet, entscheiden, was ethisch richtig und was ethisch falsch ist. Dabei können wir nicht losgelöst von Gottes Wort urteilen.

Besonders deutlich wird das im Römerbrief Kapitel zwölf, Vers zwei. Dort lesen wir: „Und passt euch nicht diesem Weltlauf oder diesem Zeitgeist an, sondern lasst euch in eurem Wesen verwandeln durch die Erneuerung eures Sinnes, damit ihr prüfen könnt, was der gute, wohlgefällige und vollkommene Wille Gottes ist.“ Das zeigt, wie wir vorgehen sollen – auch im Umgang mit künstlicher Intelligenz und den Daten und Fakten, die uns präsentiert werden.

Künstliche Intelligenz gibt keine ethischen oder moralischen Maßstäbe vor. Diese müssen wir woanders herholen. Wer diese Maßstäbe nicht hat, wird zum Spielball von Ideologien und Manipulationen in der Gesellschaft. Denn der Input, den künstliche Intelligenz liefert, wird immer intensiver und überzeugender gestaltet. Es werden ausgewählte Töne und Zitate präsentiert, die manchmal gefälscht oder vereinheitlicht sind. Es wird für uns immer schwerer, die Informationen zu überprüfen, auch wenn wir dazu aufgefordert sind.

Wenn wir keine biblischen Maßstäbe haben, müssen wir diese aus der Bibel herausholen. Diese Maßstäbe sind seit Jahrtausenden gültig und kommen von Gott. Gerade wenn äußere Überprüfungskriterien fehlen, geraten Menschen in große Irritation. Menschen ohne Gott wissen zwar, dass Dinge falsch sein können, aber nach welchem Maßstab prüfen sie das? Was ist wirklich richtig, auch ethisch? Nach welchen Maßstäben soll künstliche Intelligenz Daten bewerten?

Wir Christen müssen uns an den Maßstäben orientieren, die Gott gibt. Für Menschen, die Gott nicht kennen, gelten andere Maßstäbe – oft ideologische oder politische, nach denen ausgewählt wird, welche Informationen künstliche Intelligenz zusammenstellt. Dabei kann es sein, dass wichtige Inhalte von vornherein gar nicht mehr berücksichtigt werden.

Wenn wir als Christen nicht lernen, einen kritischen Abstand zu gewinnen und die Informationen, die uns zur Verfügung gestellt werden, nach christlichen Maßstäben zu überprüfen, werden wir mitgerissen und denken wie alle Menschen um uns herum. Doch wir sollen Licht und Salz der Welt sein und auf die Defizite aufmerksam machen, die die Welt um uns herum nicht sieht.

Gerade in einer stark vernetzten Kultur, die auf Internet, elektronische Medien und künstliche Intelligenz setzt, wird das noch viel wichtiger. Denn es ist nicht sofort sichtbar, aber an diesen Grundlagen entscheidet sich, wie wir handeln. Nur wenn wir die biblischen Grundlagen haben, können wir prüfen, was der gute und vollkommene Wille Gottes ist. Sonst werden wir vom großen Mainstream mitgerissen, der durch diese Technologien noch verstärkt wird.

Wir befinden uns in einem geistlichen Kampf. Künstliche Intelligenz ist nicht der Teufel, aber sie wird von Menschen benutzt, deren Ziele oft gegen den christlichen Glauben gerichtet sind. Sie vertreten andere Weltbilder und Ideologien, die sie durchsetzen wollen. Dabei haben wir kaum noch Möglichkeiten, die Informationen zu überprüfen. Vieles fällt weg oder wird ausgeblendet – das merken wir heute schon, obwohl künstliche Intelligenz erst ansatzweise genutzt wird.

Ein Beispiel: Der WDR, der Rundfunk in meiner Gegend, sendet täglich die beliebte Sendung „Zeitzeichen“, die von Millionen Menschen in Nordrhein-Westfalen gehört wird. Dort werden historische Persönlichkeiten vorgestellt. Es ärgert mich regelmäßig, dass selten geistliche Personen vorgestellt werden. Wenn doch, dann meist verzerrt.

Diese Sendung prägt das Bild vieler Menschen von der Vergangenheit. Hier werden schon von Journalisten ausgewählt, wer vorgestellt wird. Wenn du zum Beispiel Frau, Feministin und Atheistin bist, stehen deine Chancen gut, unabhängig davon, was du geleistet hast. Bist du noch farbig, ist es noch besser. Bist du ein weißer Mann und Christ, kommst du kaum vor, egal was du geleistet hast. Hier spielen also Kriterien eine Rolle, die nicht auf Leistung basieren.

Das ist keine Verschwörungstheorie, sondern in den USA offiziell so. Dort gibt es bei Bewerbungen an Privatuniversitäten Kriterien, die über die Zulassung entscheiden. Neben Schulleistungen zählt die Hautfarbe. Farbige Bewerber haben größere Chancen als weiße. Auch Geschlecht und geschlechtliche Orientierung spielen eine Rolle. Transsexuelle und Frauen haben bessere Chancen, angenommen zu werden. Diese Maßnahmen dienen offiziell der Förderung von Randgruppen.

Zwischenzeitlich werden Inhalte immer stärker ausgefiltert. Ich habe das im Sommer bei einer Fortbildung für christliche Lehrer in Detmold erlebt. Wir waren unter anderem in Leipzig im Bach-Museum. Dort erhielten wir eine Führung von einem Spezialisten, der über Johann Sebastian Bach berichtete – über die Barockzeit, Essen, Politik, aber nicht über Bachs Glauben.

Warum? Weil wir in einer Gesellschaft leben, in der Glaube am Rande tabu ist, als Privatsache gilt und nicht thematisiert werden soll. So verlässt man das Museum mit dem Eindruck, Bach sei ein genialer Musiker gewesen, aber sein Glaube habe keine Rolle gespielt. Ich habe danach noch eine halbe Stunde den Lehrern erklärt, wie eng Bachs Musik mit seinem Glauben verbunden ist. Seine Musik sollte Gott verherrlichen, weshalb er am Ende seiner Werke „Soli Deo Gloria“ schrieb.

Das wird ausgeblendet – von Museumsleuten, von Rundfunksendungen wie „Zeitzeichen“ und auch von denjenigen, die entscheiden, auf welche Fakten künstliche Intelligenz zugreift. So verschwinden wichtige christliche Werte und Inhalte, weil sie von vornherein ausgefiltert oder als irrelevant angesehen werden.

Eine Generation von Menschen wird künstliche Intelligenz nutzen, um sich zu informieren, aber viele Informationen erhalten sie gar nicht mehr. Als Christen müssen wir schon jetzt aufpassen, selbst ohne künstliche Intelligenz: Woher beziehen wir unsere Informationen? Wenn wir uns nur auf das verlassen, was uns in großen Stil geboten wird, kann es sein, dass wir einseitig und gegen den christlichen Glauben geprägt werden.

Um ethische Werte und Informationen richtig einordnen zu können, müssen wir uns umso intensiver in das Wort Gottes vertiefen. Nur so wissen wir, was richtig und was falsch ist. Künstliche Intelligenz kann uns bei der Suche und Sammlung von Informationen helfen, aber wir brauchen Fachkenntnis. Ohne diese können wir nicht beurteilen, ob das, was gesagt wird, faktisch stimmt.

Wir brauchen auch ethisch-religiöse Kompetenz, um zu überprüfen, ob Interpretationen, Zuordnungen und Auswahlen ethisch wichtig sind, ob sie stimmen oder nicht, ob sie gut oder böse sind. Das kann das Programm nicht leisten. Es liefert nur das, was die Macher von vornherein erwarten oder welche Bedingungen sie setzen.

Ich hoffe, dass ich einige Aspekte aufgezeigt habe, wo es ethische Probleme gibt. Ich habe angefangen mit ethischen Problemen: Wir sind die Nutzer, wir benutzen künstliche Intelligenz. Ehrlichkeit, Faulheit und Fleiß spielen eine Rolle. Du bist verantwortlich für die Informationen, die du aufnimmst und weitergibst. Das kann üble Nachrede sein, wenn du etwas weitergibst, das du nicht überprüft hast und vielleicht falsch ist. Oder du wirst selbst irregeführt.

Wir haben die Frage der Verantwortung: Wer trägt sie für das, was durch künstliche Intelligenz geschieht? Dann die Abwägung von Nutzen und Risiken. Wenn die Risiken zu groß sind, müssen wir auf den Nutzen verzichten. Schließlich die Frage der Bewertung der Inhalte: Wie bewerten wir Inhalte? Nach welchen Maßstäben gehen wir vor?

Wir können das nicht einfach als die reine Wahrheit ansehen. Wir müssen immer erkennen, dass dahinter Weltbilder stehen, die uns vermittelt werden. Wir sind aufgefordert, das Weltbild der Bibel zu nehmen und nicht einfach das, was irgendeine große Firma oder Regierung uns vermittelt.