Zum Inhalt

KI und Evangelisation (3/5)

KI und Evangelisation, Teil 3/5
30.09.2025Matthäus 4,23
SERIE - Teil 3 / 5KI und Evangelisation

Einführung in die Thematik christlicher Chatbots

Ki und Evangelisation, Apokalypse oder Chance, Theologie, die dich im Glauben wachsen lässt, Nachfolge praktisch – dein geistlicher Impuls für den Tag. Mein Name ist Jürgen Fischer, und diese Woche möchte ich euch erklären, warum ich so große Freude an christlichen Chatbots habe.

Technik hat immer zwei Seiten, das muss uns klar sein. Auf der einen Seite ist sie ein Werkzeug zum Guten, auf der anderen Seite ein Werkzeug zum Bösen. Deshalb braucht es geistliche Wachsamkeit und einen verantwortungsvollen Gebrauch.

Damit ihr wisst, dass wir uns darüber Gedanken machen, wenn wir uns mit Chatbots beschäftigen, möchte ich euch die Gefahren von KI vorstellen – vor allem die Gefahren für christliche Chatbots. So bekommt ihr eine Idee davon.

Im Wesentlichen spielen an dieser Stelle fünf Bereiche eine Rolle.

Die fünf wesentlichen Gefahren von christlichen Chatbots

Fehlinformation als erste Gefahr

Da gibt es zum einen Fehlinformationen. Ich habe ja gesagt, so ein Chatbot, so eine KI kann nicht denken. Was sie aber kann, ist auf eine sehr plausible Weise falsche Inhalte zu generieren, die sich richtig gut anhören.

Der Chatbot gibt dir zum Beispiel einen Bibelvers an, den es gar nicht gibt. Das macht er einfach, weil es einen Fehler im System gibt. Oder er behauptet etwas, das nicht stimmt. Ich habe zum Beispiel einmal in der Psychologie nach etwas gefragt, und dann hat mir der Chatbot neue Störungsbilder genannt. Er fand das offenbar „cool“ und meinte, es gäbe noch das oder das. Nein, das gibt es nicht.

Das ist also das Problem: plausible, aber falsche Inhalte. Man darf nicht vergessen, Chatbots klingen nur so, als hätten sie Intelligenz. In Wirklichkeit sind sie aber Rechenmaschinen. Sie haben kein Verständnis von dem, was sie tun. Sie schreiben wirklich einfach nur etwas hin.

Und je mehr du die Dinge ausprobierst, desto öfter wird dir das begegnen.

Theologische Verzerrung als zweite Gefahr

Fehlinformation ist das eine, das andere ist natürlich eine theologische Verzerrung. Künstliche Intelligenz lernt auf der Grundlage des Wissens dieser Welt. Wenn man das Wissen dieser Welt kennt – und dieses hier war ein Teil davon – dann weiß man, dass dieses Wissen auch viel Müll enthält.

Ohne eine bewusste Steuerung kann ein Chatbot Positionen vertreten, die nicht bibeltreu sind. Wenn man möchte, dass sich ein Chatbot wie ein Salafist verhält, ist das kein Problem. Genauso kann er sich wie ein Zeuge Jehovas verhalten. Innerhalb von wenigen Minuten kann er vollständig in dieser Linie sein, denn die Informationen sind alle vorhanden.

Was einerseits lustig ist: Wenn man sagt, man hat hier so einen „Osterhasen“, mit dem man sich über das Evangelium unterhalten kann, kann das leider peinlich werden. Denn es kann passieren, dass der Chatbot plötzlich Bücher von Irrlehrern empfiehlt. Das ist eine mögliche Folge.

Vermenschlichung als dritte Gefahr

Ein dritter Punkt betrifft Fehlinformation, theologische Verzerrung und drittens die Vermenschlichung.

Man muss sich der Gefahr bewusst sein, dass Menschen einen Chatbot als echten Gesprächspartner wahrnehmen. Dabei beginnen sie, in ihm einen Freund oder Seelsorger zu sehen, obwohl der Bot selbst kein Bewusstsein hat, keine echte Empathie besitzt und keine Seele hat. Er schreibt lediglich Worte, doch dahinter steckt kein Mensch.

Diese Vermenschlichung ist eine Gefahr, weil Leute in dem Bot etwas sehen, was eigentlich nicht da ist. Das betrifft euch vielleicht besonders, wenn ihr Bots wie bibel.chat verwendet. Dort stellt man Fragen zur Bibel, und www.bibel.chat funktioniert wirklich gut. Das sage ich nicht nur, weil ich ihn geschrieben habe, sondern weil er einfach gut ist und sich nicht verstecken muss.

Das Problem ist jedoch: Wer immer wieder solche Chatbots nutzt, verliert auf Dauer etwas. Man gewöhnt sich daran, nicht mehr selbst denken zu müssen, weil man ja immer den Chatbot fragen kann. Das ist einerseits praktisch, wenn man gerade niemanden hat, keine Zeit oder schnell eine Antwort braucht. Das ist genau richtig für solche Situationen.

Wenn man das aber nur noch so macht, verliert man langfristig die Urteilskraft und auch ein Stück weit die Fähigkeit, selbst zu denken. Das ist nicht gut. Dieses ständige schnelle Antworten-Haben führt dazu, dass man sich nicht mehr tiefer mit den Antworten auseinandersetzt. Man wird dadurch nicht fitter im Umgang mit der Bibel.

Das ist vergleichbar mit Fastfood. Es kann mal ganz wertvoll sein, wenn man lange unterwegs ist und einfach nur kurz bei McDonald’s vorbeischauen will. Man sagt dann: „Komm, zieh rein, Drive-Through, fertig.“ Aber auf Dauer ist das nicht wirklich gesund. So ist es auch mit Chatbots.

In dem Moment, in dem Chatbots uns das eigenständige Forschen in der Bibel abnehmen, behindern sie unser geistliches Wachstum.

Entmündigung als vierte Gefahr

Und der letzte Punkt: Fehlinformation, theologische Verzerrung, Vermenschlichung und Entmündigung sind letztlich Formen von Missbrauch. Wer die KI oder den Bot kontrolliert, kontrolliert auch die Inhalte.

Diese Person oder Instanz besitzt damit ein Stück Deutungsmacht, daran besteht kein Zweifel. Sie bestimmt, welche Informationen wem zugänglich gemacht werden und kann auf diese Weise Macht über Menschen gewinnen.

Das gilt sowohl im Großen als auch im Kleinen. Dessen muss man sich bewusst sein. Wenn man so will, sind dies die wesentlichen Gefahren von christlichen Chatbots.

Umgang mit den Herausforderungen christlicher Chatbots

Wie geht man damit um? Ich gebe euch jetzt einen Einblick in unser Denken, wobei ich denke, dass dieses Denken ganz generell für Christen im Blick auf Künstliche Intelligenz normal sein sollte.

Ich habe gesagt, ein Chatbot ist ein Computerprogramm. Natürlich kann ich ein Programm so gestalten, dass es möglichst wenig Fehler macht. Ich muss ja nicht in jedes Fettnäpfchen treten. Zum Beispiel kann ich ein Programm so einstellen, dass es nur dann antwortet, wenn es wirklich etwas weiß. Ansonsten gibt es ehrlich zu: „Sorry, von dem Autor oder dem Buch habe ich keine Ahnung.“

Achtung: Ein Chatbot würde das normalerweise nicht machen. Er antwortet immer. Man muss ihm beibringen, dass er nicht antworten darf, wenn er keine Ahnung hat. Sonst gibt er dir irgendetwas raus, weil er ja „lieb sein“ will. Du bekommst dann eine Antwort, obwohl er von nichts Ahnung hat und einfach irgendetwas hinschreibt.

Deshalb programmieren wir unsere Bots so, dass sie sagen: „Wenn du keine Ahnung hast, gib zu, dass du keine Ahnung hast.“ Was ich nicht in deinen Trainingsdaten finde, darüber redest du nicht.

Bei Theologie ist das natürlich ganz genauso. Ich muss dem Chatbot sagen, wie er sich verhalten soll. Eben nicht als Salafist, sondern als evangelikaler Theologe. Das gebe ich durch die Programmierung vor. Außerdem muss ich es so einstellen, dass der Nutzer nachfragen kann: „Sag mal, woran glaubst du? Was ist denn deine Position?“ Damit der Nutzer weiß, mit wem er es da zu tun hat.

Jetzt merkt man schon, dass das Thema Fehlinformation und theologische Einseitigkeit viel damit zu tun hat, dass die Programmierung stimmt.

Umgang mit der Vermenschlichung

Beim Thema Vermenschlichung ist das etwas schwieriger. Wenn ein Nutzer in einem Chatbot einen Freund findet, kann ich das nur bis zu einem gewissen Grad verhindern.

Bei unserem neuesten Bot, der eigenständig ein Gespräch zum Thema Glauben mit dem Nutzer führt, habe ich jetzt einen Hinweis eingefügt. Wenn man den öffnet, steht dort: Hinweis: Dies ist ein Chatbot. Die Antworten werden automatisch erzeugt, nicht von einem Menschen.

Warum schreibe ich das hin? Weil die Antworten gut sind. Wenn man eine Weile mit dem Bot spricht, vergisst man das leicht. Man muss sich wirklich vergegenwärtigen, dass da kein Mensch ist.

Das ist ja der Clou: Wir wollen, dass der Bot ein möglichst intelligentes Gespräch führt. Das ist die Art, in die wir programmieren möchten und in die wir viel Mühe investieren.

Gleichzeitig müssen wir den Nutzern aber auch klarmachen, dass sie hier nicht mit einem Menschen sprechen.

Verantwortung und Chancen im Umgang mit Entmündigung

Was das Thema Entmündigung angeht, sehe ich zwei Aspekte.

Zum einen glaube ich, dass jeder Nutzer immer auch selbst ein Stück weit dafür verantwortlich ist, wie er mit Technologie umgeht. Wenn man von klein auf Handys nutzt und dann irgendwann kurzsichtig wird und keine längeren Bibeltexte mehr verstehen kann, dann trägt man daran auch eine gewisse Schuld. Diesen Schuh ziehe ich mir deshalb nur begrenzt an.

Zum anderen reizt es mich, Chatbots zu entwickeln. Hier oben entstehen bereits solche, die genau das tun: Sie geben nicht nur Antworten, sondern fordern zum Denken heraus. Das kann man auch selbst machen.

Man könnte zum Beispiel sagen: Ich erstelle einen Stillezeit-Bot, der einem nicht einfach die Fragen beantwortet, sondern einen auf eine Reise in den Text mitnimmt. Er stellt Fragen, die zum Nachdenken anregen, sodass man an der Stelle mehr hat als nur eine Antwort. Genau so gehen wir das an.

Abschluss und Segenswunsch

Das war es für heute. Bitte bete für Biblebots e.V.

Falls du unseren Berliner Missionar finanziell unterstützen möchtest, sprich mich bitte an.

Der Herr segne dich, lasse dich seine Gnade erfahren und lebe in seinem Frieden. Amen.

Vielen Dank an Jürgen Fischer, dass wir seine Ressourcen hier zur Verfügung stellen dürfen!

Seine App "Frogwords" gibt's für Android und iOS.

Jürgens aktuellste Gebets-Infos gibt's hier zum Lesen und Abonnieren.