Meine Beschäftigung mit der künstlichen Intelligenz ist wahrscheinlich ähnlich wie bei manch anderem, der heute Abend gekommen ist. Und das ist etwas, das sich von Woche zu Woche noch verändert. Das liegt daran, wie sich die Entwicklung der künstlichen Intelligenz gestaltet, wie sie eingesetzt wird und welche Auswirkungen sie in verschiedenen Bereichen unseres Lebens hat.
Das merkt man, wenn man genau hinschaut. Das kann im eigenen Berufsbereich sein oder im Freizeitbereich. Ich erinnere mich an eine Meldung, die vielleicht etwa drei Wochen alt ist. Momentan gibt es in den USA eine Kartelluntersuchung gegen Google, weil Google die große Suchmaschine im Internet ist. Google wird verklagt, und es wird geprüft, ob das Unternehmen kartellrechtlich zerschlagen werden muss. Falls jemand gerade in Google investiert hat, ist das eine heikle Sache. Je nachdem, wie das ausgeht, weiß man nicht genau, wie es weiterläuft.
Vor ungefähr drei Wochen hatte ein Spitzenmanager von Apple vor diesem Untersuchungsausschuss ausgesagt. Er sagte, dass in ihrem Browser Safari im letzten Quartal immer mehr Menschen nicht mehr die Google-Technologie nutzen, sondern die künstliche Intelligenz, die Safari ebenfalls implementiert hat. Diese Aussage führte am selben Tag, nur wenige Minuten später, dazu, dass die Google-Aktie fast zehn Prozent sank.
Daran erkennt man, dass künstliche Intelligenz auch wirtschaftliche Auswirkungen hat. Bei einem Riesenunternehmen wie Google können in wenigen Minuten zig Milliarden an der Börse verloren gehen – natürlich nur auf dem Papier, aber dennoch eine enorme Summe. Warum? Weil Google-Aktionäre sofort Angst bekamen. Google verdient den Großteil seines Geldes mit der Suchmaschine. Wenn die Menschen diese nicht mehr nutzen, brechen die Werbeeinnahmen ein. Google verdient hauptsächlich durch die Werbung, die auf der Suchmaschine geschaltet wird.
Nun hatte man die Befürchtung, dass in Zukunft die Menschen nicht mehr Google zum Suchen verwenden, sondern möglicherweise einen Alternativanbieter, den Google ebenfalls zu entwickeln versucht. Das hätte immense Auswirkungen auf den Wert des Unternehmens und auf das Verhalten der Kunden.
Dies ist nur ein Detail, um zu zeigen, dass künstliche Intelligenz in ganz verschiedenen Bereichen unseres Lebens eine Rolle spielt – manchmal direkt, manchmal indirekt, sei es als normaler Verbraucher oder wenn man im Berufsleben aktiv ist.
Grundsätzlich sind wahrscheinlich die meisten, die heute Abend hier sind, besonders aufmerksam geworden durch die Einführung von ChatGPT. Das war ja noch gar nicht so lange her und eine der erfolgreichsten Neueinführungen von neuer Software.
Innerhalb kürzester Zeit hatte sich ChatGPT weltweit verbreitet. Es gab ja auch einen Gratis-Account, den es bis heute noch gibt. Für Nutzer, die die Software spezieller nutzen wollen, müssen wie immer Gebühren bezahlt werden. Das hat große Aufmerksamkeit geweckt – selbst bei denen, die beruflich oder persönlich gar nicht so viel mit künstlicher Intelligenz zu tun haben. Viele wollten es einfach ausprobieren und sehen, was dabei herauskommt.
Auch Journalisten zeigten Interesse und machten selbstverständlich sofort auf einige Punkte aufmerksam, bei denen ChatGPT falsche Antworten gegeben hatte. Allerdings muss man sagen: Solche Fehler können vorkommen, aber eine Woche später sind sie oft schon behoben. Denn auch die Firma OpenAI arbeitet ständig daran, das System zu verbessern.
Es ist also nicht sinnvoll, von dauerhaften Fehlern auszugehen oder einen Artikel zu lesen, der vor einem Jahr geschrieben wurde und in dem steht, dass etwas nicht gut gelaufen ist. Das kann sein, aber heute sieht die Situation oft schon ganz anders aus. Die Entwicklung und Verbesserung der Datengrundlage, auf der ChatGPT antwortet, erfolgt rasend schnell.
Ich erinnere mich, als ChatGPT auf den Markt kam, hatte ich einen Artikel gelesen, der vielleicht einen Monat später veröffentlicht wurde. Darin hatte ein Journalist ChatGPT gefragt, ob Donald Trump amerikanischer Präsident werden könne. Damals war ja noch Joe Biden Präsident. Die Antwort von ChatGPT lautete damals Nein, Trump könne nicht Präsident werden, weil er angeblich schon zwei Amtszeiten hinter sich hätte.
Man kann sagen: Das war vielleicht Science-Fiction oder eine prophetische Äußerung, dass das in der Zukunft passieren könnte. Wahrscheinlicher ist jedoch, dass ChatGPT die Datenbasis ausgewertet und dabei etwas durcheinandergebracht hat, sodass eine falsche Antwort entstand.
Im selben Artikel war der Journalist auch froh, noch einen anderen Fehler gefunden zu haben. Er hatte ChatGPT gefragt, was das größte lebende Säugetier sei. Die Antwort lautete Elefant, obwohl alle, die in Biologie gut aufgepasst haben, wissen, dass der Blauwal das größte lebende Säugetier ist.
Solche Fehler können also auch mal vorkommen. Ich vermute aber, wenn man heute dieselbe Frage stellen würde, wäre die Antwort korrekt. Denn die Datenbasis hat sich erweitert und das Programm wird ständig verbessert.
Wenn wir uns Gedanken über künstliche Intelligenz machen – und genau darum soll es heute Abend schwerpunktmäßig gehen – dann müssen wir grundsätzlich sehen, dass es wahrscheinlich auch unter den Anwesenden hier heute Abend zwei grundsätzlich unterschiedliche Fraktionen gibt. Das ist meistens so bei solchen Themen.
In diesem Zusammenhang finde ich es immer wieder interessant, einen Blick in die Technikgeschichte der Vergangenheit zu werfen. Dort gab es immer wieder ähnliche Positionierungen. Über manche Entwicklungen müssen wir heute etwas lächeln, weil einige der Skeptiker, manchmal aber auch Leute, die das Neue zu sehr bejubelt haben, dann doch etwas danebenlagen. Denn in der Realität ist es häufig so: Weder ist alles Neue immer nur positiv, noch ist alles Neue gleich der Untergang der Welt.
Ein Beispiel: Vor etwa zweihundert Jahren kam in der Schweiz, aber auch in Deutschland und vielen Teilen Europas die Eisenbahn auf. Das führte dazu, dass viele Kulturskeptiker der damaligen Zeit davor warnten, die Eisenbahn zu benutzen. Sie meinten, der Mensch sei nicht dafür gemacht, mit einer wahnwitzigen Geschwindigkeit von etwa 40 Stundenkilometern durch die Landschaft zu fahren. Das würde ihm psychisch und körperlich so sehr zusetzen, dass man dadurch krank werden würde. Stattdessen solle man sich auf seine zwei Füße oder, wenn man noch wagemutiger sei, auf die Postkutsche verlassen. Das sei alles über lange Zeit hinweg bewährt gewesen.
Heute wissen wir: Wenn der Zug fährt, dann ist er meistens noch etwas schneller. Wir würden uns wahrscheinlich aufregen, wenn er nur mit 40 Stundenkilometern fahren würde. Und ich vermute, die meisten von uns sind psychisch noch relativ gesund. Wobei jetzt vielleicht der eine oder andere auf die Idee kommt und sagt: „Ah, gut, dass du das gesagt hast, Michael, jetzt weiß ich endlich, warum ich bestimmte Krankheiten habe – das liegt am Zugfahren.“ Nein, nein, nein, das stimmt so nicht.
Oder ein anderes Beispiel: Vor etwa hundert Jahren gab es erste höhere Gebäude – damals hatte man ja nicht so hohe Gebäude. Es entstanden die ersten Wolkenkratzer. Und da wollte ja niemand mehr die Treppe hochlaufen. Also wurden in diesen Gebäuden überall Fahrstühle eingeführt. Es war vollkommen klar, dass man für die Fahrstühle einen voll professionellen, ausgebildeten Fahrstuhlführer brauchte. Denn jeder Fahrstuhl hatte einen Fahrstuhlführer. Es gab einen festen Beruf dafür. Man sagte also drinnen: „Ich will jetzt da und da hin“, und der Fahrstuhlführer drückte die Knöpfe. Wie durch ein Wunder war man dann plötzlich im höheren Stockwerk.
Später wurde die Technik so weiterentwickelt, dass man den Fahrstuhlführer abschaffte. Und viele Menschen gerieten in eine totale Krise. Sie fragten sich: „Was ist, wenn der Fahrstuhl jetzt stecken bleibt? Was ist, wenn er nicht richtig funktioniert? Und wenn wir abstürzen oder so riesige Schwierigkeiten haben?“ Ich vermute, die meisten von uns haben diese Panik nicht mehr, wenn sie im Fahrstuhl sind. Manche vielleicht schon. Für diese würde ich empfehlen, lieber nicht in einem Haus zu wohnen, das mehr als drei oder vier Stockwerke hat. Sonst wird das schwierig mit dem Rauf- und Runterlaufen. Stattdessen könnte man sich vornehmen, zum Beispiel bis zum zehnten Stock zu laufen, um dann zu merken, dass man die Handtasche vergessen hat – und wieder hoch- und wieder runterlaufen. Das soll ja vielleicht der Gesundheit guttun.
An solchen Beispielen merken wir, dass manche Leute skeptisch bleiben. Sie gehen davon aus, dass das, was sich in der Vergangenheit bewährt hat, auch in Zukunft gut ist und so bleiben soll. Aber die große Katastrophe ist sowohl beim Fahrstuhl ohne Fahrstuhlführer als auch beim Zug, der schneller fährt, als der Mensch laufen kann, ausgeblieben.
Es gibt allerdings auch manche Dinge, bei denen man im Nachhinein doch etwas skeptischer ist. Ich erinnere mich an meine Schulzeit, die schon lange zurückliegt. Damals herrschte in Europa eine große Begeisterung für die Kernkraft. Vielleicht erinnern sich einige an die Siebzigerjahre. Jedes Land in Europa, das modern sein wollte, hatte damals Kernkraftwerke gebaut.
Ich erinnere mich noch gut, wie begeistert ich im Physikunterricht war. Der Physiklehrer sprach von der Atomkraft und davon, dass damit eigentlich alle Energieprobleme der Zukunft gelöst seien. Es gäbe keine schmutzigen Kraftwerke mehr, in denen Kohle, Gas oder Erdöl verbrannt werden.
Zu Hause habe ich noch eine Zeitschrift aus dieser Zeit. Darin wurde prognostiziert, dass spätestens im Jahr 2000 alle neu gebauten Häuser einen eigenen kleinen Atommeiler im Keller hätten. Damit könnte man Strom produzieren und sogar heizen – und das alles ohne Emissionen. Die Luft wäre sauber, so lautete damals die Idee.
Vielleicht erinnern sich einige noch daran, dass man damals auch kleine Atommeiler in Schiffe eingebaut hat. Einige davon sind bis heute in Betrieb, zum Beispiel Eisbrecher in Russland. Auch U-Boote werden mit Atomkraft angetrieben. Das bringt gewisse strategische Vorteile mit sich.
Doch die große Begeisterung, mit der man alle Zukunftsprobleme lösen wollte, hat sich im Nachhinein zumindest etwas relativiert. Man merkt inzwischen, dass auch nach 50 Jahren Forschung das Problem des Atommülls immer noch nicht vollständig gelöst ist.
Wir wissen spätestens seit Tschernobyl, dass die Risiken größer sind als damals angenommen. Als ich noch in der Schule war, war das vor Tschernobyl. Damals sagte der damalige bundesdeutsche Forschungsminister Riesenhuber, dass man die Risiken eines Super-GAUs geklärt habe. Die Wahrscheinlichkeit, dass so etwas passiert, liege bei etwa eins zu einer Million – also praktisch ausgeschlossen.
Das war ungefähr zehn Jahre vor dem ersten Super-GAU. Danach stellte sich heraus, dass diese Rechnung möglicherweise bestimmte Faktoren nicht berücksichtigt hatte oder dass das Ereignis schneller eintrat als erwartet. Mittlerweile wissen wir, dass die Risiken nicht so gering sind, wie man damals dachte.
Ich möchte damit nicht sagen, dass Atomkraft gut oder schlecht ist, sondern nur darauf hinweisen, dass bestimmte Defizite und Probleme dieser Technologie erst im Laufe der Zeit sichtbar wurden.
Ähnlich war es in den Siebzigerjahren, wenn sich einige daran erinnern. Damals wurden psychisch aktive Substanzen neu entdeckt, was zur Entwicklung zahlreicher Psychopharmaka führte. Man hatte den Eindruck, bald würden alle psychischen Krankheiten heilbar sein. Man bräuchte nicht mehr wie bei Sigmund Freud auf der Couch zu liegen und seine Probleme zu erzählen. Stattdessen würde man zum Arzt gehen, die richtige Pille bekommen und zack – die psychischen Probleme wären verschwunden.
Diese Euphorie teilen die meisten Fachleute heute nicht mehr. Denn viele Psychopharmaka haben schwerwiegende Nebenwirkungen, und viele Probleme lassen sich damit nicht lösen.
Dennoch gibt es in diesem Bereich durchaus positive Entwicklungen. Psychopharmaka haben ihren Platz und werden auch heute noch sinnvoll eingesetzt. Aber die damalige Euphorie war für manche eben etwas übertrieben.
Jetzt habe ich Beispiele genannt, einerseits für die Kultur- oder Technikskeptiker, um zu zeigen, dass die Skepsis manchmal vielleicht etwas übertrieben war. Andererseits habe ich Beispiele für diejenigen genannt, die begeistert waren von neuen Entwicklungen wie Psychopharmaka oder Atomkraft. Dabei zeigt sich, dass auch diese Begeisterung teilweise übertrieben war.
Es war also nicht nur ganz toll, aber auch nicht nur ganz schlecht. Ich glaube, es ist gut, im Vorfeld für jeden Einzelnen eine Art Selbstdiagnose zu machen: Bin ich eher jemand, der begeistert ist von Neuem und dann lieber sagt: „Oh, super, her damit, ich schaffe mir das gleich an“?
In diesem Fall ist es wahrscheinlich notwendig, ab und zu mal ein bisschen abzubremsen und vorsichtiger vorzugehen. Dabei sollte man auch zur Kenntnis nehmen, dass jede neue technische Entwicklung natürlich auch Defizite und Probleme mit sich bringt.
Oder bist du eher jemand, der sowieso schon alles skeptisch sieht und sofort Angst oder Bedenken hat? Zum Beispiel: „Oh, bestimmt wird KI den Weltuntergang bringen, da wird alles zusammenbrechen.“
Dann wäre es vielleicht hilfreich, das nicht ganz so schwarz zu sehen. Es ist wichtig, gewisse Bedenken bei jeder Technologie zu haben und darauf zu achten. Aber auf der anderen Seite sollte man auch einen Blick darauf werfen, wo künstliche Intelligenz sinnvoll eingesetzt werden kann und bereits eingesetzt wird.
So kann man erkennen, wie sie in vielen Bereichen unser Leben erheblich erleichtert und dass sie das auch schon tut.
Die meisten von uns haben sich wahrscheinlich inzwischen an viele Entwicklungen innerhalb der Computertechnologie gewöhnt. Künstliche Intelligenz gehört ebenfalls zu diesem Bereich. Auch hier gibt es immer wieder neue Entwicklungen, die von Jahrzehnt zu Jahrzehnt kaum vorstellbar waren.
Ich vermute, die meisten können sich heute gar nicht mehr vorstellen, dass es einmal ein Leben ohne Internet gab. Ich bin heute mit dem Zug gefahren. Wenn ich daran denke, wie das in den Achtzigerjahren war: Man musste erst einmal zum Bahnhof gehen und sich beraten lassen, welcher Zug wohin fährt. Dann wurde ein Ticket gedruckt, das man entweder direkt erhielt oder zugeschickt bekam.
Ich weiß nicht, ob das heute noch so gemacht wird. Mein Ticket habe ich jedenfalls zu Hause herausgesucht. Ich musste nicht mehr die dicken Fahrpläne wälzen. Im Internet gibt man einfach ein, wohin man fahren möchte, zu welcher Uhrzeit, und das System sucht die passende Verbindung heraus. Meistens funktioniert das in Deutschland auch gut, auch wenn die Realität manchmal noch anders aussieht als die Theorie.
Im Idealfall weiß ich jetzt, wann ich losfahre, wo ich ankomme und wo ich umsteigen muss. Das ist eine ganz positive Entwicklung. Ich frage mich, ob sich heute noch jemand danach sehnt, im Fahrtenbuch zu suchen oder zum Bahnhof zu gehen, um ein Ticket zu kaufen. Ich glaube, das ist nicht mehr nötig.
Ich vermute auch, dass fast alle, die heute Abend hier sind, ein Handy in der Tasche haben und es ab und zu benutzen. Wahrscheinlich nicht nur zum Telefonieren, sondern auch, um Bilder zu machen, Notizen zu erstellen, Musik zu hören oder für viele andere Dinge.
Wir haben uns relativ schnell an diese Geräte gewöhnt. Smartphones mit bunten, schönen Bildschirmen sind noch gar nicht so alt. Vor 20 Jahren hätten wir diesen Vortrag vermutlich nicht über Künstliche Intelligenz gehalten, sondern über ein anderes Thema. Damals hätten deutlich weniger Personen ein Smartphone dabei gehabt.
Manche erinnern sich vielleicht noch an Nokia, eine große Firma, die damals führend war. Das waren aber keine Smartphones, sondern Geräte mit monochromen Bildschirmen und Tasten. Das ist gar nicht so lange her.
Wir merken also, dass wir uns an neue Technologien gewöhnen. Diese Technologien erleichtern uns in vielen Bereichen das Leben, was durchaus positiv ist. Gleichzeitig müssen wir aber immer bedenken, dass jede neue Technologie auch gewisse Probleme mit sich bringt.
Was ist nun das Besondere an künstlicher Intelligenz? Computerprogramme können ja Dinge verarbeiten, die wir vorgeben. Normalerweise sind Computerprogramme so geschrieben, dass genau festgelegt wird: Wenn du bestimmte Parameter eingibst, dann macht das Programm etwas damit, und das Endergebnis ist vorhersehbar.
Bei künstlicher Intelligenz ist das jedoch anders. Das Besondere ist, dass künstliche Intelligenz viel mehr leisten kann als herkömmliche Computerprogramme aus der Vergangenheit. Manche Dinge, von denen man noch vor fünf Jahren dachte, dass Computer sie niemals erledigen könnten, können sie heute. Selbst bei Aufgaben, bei denen Menschen vor fünf Jahren noch stolz sagten: „Dafür braucht es mich“, ist das heute nicht mehr unbedingt so.
Vielleicht erinnern sich einige daran, als die ersten Computer entwickelt wurden. Es gab einen Wettbewerb: Wird der Computer jemals so gut Schach spielen können wie die Schachmeister? Anfangs haben die Computer versagt. Dann brachte ein japanisches Unternehmen das erste Schachprogramm heraus, das den Schachgroßmeister besiegte. Das führte bei manchen zu einer gewissen Verunsicherung. Sie fragten sich: Wofür brauchen wir Menschen uns noch? Der Computer ist besser als der beste Schachspieler.
Diese Entwicklung kann innerlich unruhig machen. Was brauchen wir Menschen dann noch? Doch dann gab es Künstler, die sagten: „Naja, Schriftsteller kann der Computer nicht ersetzen, Musik komponieren kann der Computer nicht, Bilder malen kann der Computer nicht.“ Aber jetzt merken wir, dass mit künstlicher Intelligenz auch das möglich ist.
Vielleicht hast du das sogar schon ausprobiert. Stell dir vor, du möchtest ein Liebeslied für deine Frau zum Hochzeitstag. Du bist nicht besonders musikalisch, kannst aber der künstlichen Intelligenz sagen, wie der Name deiner Frau ist und welchen Musikstil sie mag. Dann dichtet die künstliche Intelligenz dir ein Lied. Es ist vielleicht nicht Nobelpreis-würdig, aber es klingt einigermaßen gut. Wenn du, wie ich, musikalisch durchschnittlich begabt bist, ist das Ergebnis vielleicht sogar besser als das, was du selbst schaffen würdest.
So sehen wir, dass künstliche Intelligenz in gewissem Rahmen Kreativität entwickeln kann – etwas, das vor fünf Jahren noch undenkbar schien. Skeptiker sagen natürlich sofort: „Die künstliche Intelligenz wildert doch nur im Internet, sucht Informationen zusammen und rekombiniert sie.“ Und in gewisser Weise stimmt das auch. Künstliche Intelligenz greift auf bestehende Daten zu, verändert sie und setzt sie neu zusammen.
Allerdings müssen wir ehrlich sein: Das tun die meisten Komponisten auch. Die wenigsten erfinden etwas völlig Neues. Sie hören etwas, verbinden es miteinander, verändern es ein wenig, und so entsteht etwas Neues. Aber das kommt nicht aus dem luftleeren Raum. Deshalb klingt die meiste Musik einer bestimmten Zeit oft ähnlich, weil sie dem jeweiligen Zeitgeist folgt.
Genauso verhält es sich mit Bildern. Wer für einen Vortrag ein Bild sucht, kennt das Problem: Früher war es schwierig, das passende Bild zu finden und gleichzeitig die Urheberrechte zu beachten. Heute gibt es zahlreiche Programme im Internet, bei denen man einfach eingibt, was man gerne hätte. Die künstliche Intelligenz setzt dann ein Bild zusammen. Man kann sogar den Stil angeben, zum Beispiel als Clipart oder als romantisches Bild, und es entsteht etwas Passendes.
Das klappt zwar noch nicht hundertprozentig, ich habe es selbst ausprobiert. Ich hielt einen Vortrag über das Gleichnis vom verlorenen Sohn, einem Gleichnis Jesu. Ich wollte ein Bild dazu erstellen lassen und dachte, ich probiere das mal mit künstlicher Intelligenz. Das Bild kam heraus, und ich wollte es sogar verwenden. Doch ich habe ein bisschen Augenprobleme und konnte nicht alles genau erkennen.
Dann hat jemand anderes das Bild angesehen und gesagt: „Das kannst du nicht nehmen, der Vater, der den verlorenen Sohn umarmt, hat drei Hände.“ Das war natürlich nicht beabsichtigt. Solche Fehler können bei künstlicher Intelligenz passieren. Deshalb habe ich das Bild nicht verwendet, um niemanden zu irritieren oder falsche Eindrücke zu erwecken.
Solche Fehler sind möglich, aber insgesamt sind die Ergebnisse dieser Programme schon relativ gut.
Jetzt könnten wir natürlich sagen, diese Dinge sind noch relativ Spielerei. Sie können eine Erleichterung sein, müssen aber nicht unbedingt angewendet werden. Künstliche Intelligenz zielt neben dem Privatbereich jedoch noch auf ein ganz anderes Publikum ab, und zwar klar auf das professionelle Publikum. Denn damit lässt sich auch am meisten Geld verdienen.
Hier müssen wir sagen, dass künstliche Intelligenz insofern genial ist, weil sie uns sehr viel Arbeit abnehmen kann. In diesem Bereich ist sie auch sehr zuverlässig und gibt uns mehr Freiraum für andere Dinge.
Beispielsweise im Steuerwesen ist es so: Wenn jemand Sachbearbeiter ist, zum Beispiel im Finanzamt, dann hat er es mit Steuererklärungen zu tun, in denen durchgehend eigentlich immer wieder ähnliche Zahlen auftauchen. Mit der Zeit sinkt die Konzentration. In Deutschland ist es so, dass bei den meisten Finanzämtern heute Programme mit künstlicher Intelligenz arbeiten.
Die künstliche Intelligenz schaut sich jede Steuererklärung an und findet meistens relativ gut und schnell Unstimmigkeiten. Das sind zum Beispiel Zahlen, die nicht zueinander passen oder sehr unwahrscheinlich sind. Sie vergleicht das auch mit den Steuererklärungen der letzten Jahre. Wenn etwas stark abweicht, wird der Sachbearbeiter nur noch darauf aufmerksam gemacht.
Ich kenne Leute, die beim Finanzamt arbeiten, und sie sagen, dass das eine unheimliche Erleichterung ist. Denn das endlose Durchsehen der ganzen Formulare, oft dicke Packen, und dabei die Konzentration hochzuhalten, braucht viel Zeit. Meistens ist die Konzentration nach ein paar Stunden nicht mehr da. Hier wird man von der künstlichen Intelligenz direkt auf relevante Dinge aufmerksam gemacht, die man als Mensch beurteilen muss.
Das ist doch erst einmal eine ganz positive Sache, die Routinearbeit erleichtert. Bei vielen Routinearbeiten, die wir heute haben, kann künstliche Intelligenz uns also unterstützen bei dem, was wir alltäglich tun.
Es geht hier nicht darum, dass immer dieselben Prozesse genau durchlaufen werden – das gab es bisher auch schon. Aber bei einer Steuererklärung ist ja jede etwas anders. Das heißt, die künstliche Intelligenz muss erkennen, wo etwas heikel sein könnte, auch wenn nicht immer dieselben Zahlen vorkommen. Und das kann sie leisten.
Einige haben das wahrscheinlich auch schon im privaten Bereich umgesetzt. Wenn man nach Informationen sucht, war in der Vergangenheit die Suche meist über Google oder eine andere Suchmaschine. Man gibt eine Kombination verschiedener Begriffe ein. Dabei braucht man ein gewisses Handling, um die richtigen Begriffe zu wählen, damit nicht endlos viele Stichworte und Seiten herauskommen.
Am Ende geht es bei solchen Recherchen im Internet darum, eine kleinere Auswahl zu haben, die man sich dann anschaut. Anschließend fasst man die Ergebnisse für sich zusammen. So hat man das klassischerweise in der Vergangenheit gemacht.
Manchmal dauert eine Internetrecherche relativ lange, weil man nicht genau weiß, auf welcher Seite die gesuchte Information zu finden ist. Dann schaut man erst mal viele Seiten an, die gar nicht so relevant sind.
Hier kann künstliche Intelligenz helfen. Man gibt eine ganz normale Frage ein, zum Beispiel: „Wie hoch ist der durchschnittliche Mietpreis in Albisrieden?“ Nun könnte man natürlich irgendwo nach öffentlichen Statistiken suchen. Aber mit der künstlichen Intelligenz bekommt man innerhalb von Sekunden eine Antwort. Sie nennt Mietpreise, unterscheidet zum Beispiel, ob das Haus neu gebaut ist, und gibt alle möglichen Details an. Meistens stimmt die Antwort.
Wie gesagt, nicht immer. Das liegt daran, dass künstliche Intelligenz nach Informationen sucht, die in der Fragestellung genannt werden, und die Frage so „versteht“, dass sie die gewünschte Antwort geben kann. Dabei versteht sie das nicht im menschlichen Sinn, sondern ist so programmiert, dass sie eben diese Antwort liefert.
Allerdings muss man immer wieder darauf achten. Ich habe Beispiele genannt, die vor etwa zwei Jahren falsch waren, inzwischen aber korrigiert wurden.
Vor kurzem habe ich einen Artikel anlässlich des Todes von Papst Franziskus geschrieben. Dabei interessierte mich unter anderem, wie viele Leute er eigentlich heiliggesprochen hat. Also fragte ich die künstliche Intelligenz: „Wie viele Leute hat Franziskus heiliggesprochen?“ Die Antwort war ungefähr 400. Das konnte nicht stimmen.
Ich habe nachrecherchiert und die falsche Information gemeldet. Ich weiß nicht, ob die Antwort jetzt immer noch dieselbe wäre, aber zum Zeitpunkt seines Todes war sie falsch. Ich habe herausgefunden, woran die falsche Antwort lag, das ist aber nicht so wichtig.
Daran habe ich gemerkt: Ich kann die künstliche Intelligenz fragen, und sie erleichtert mir die Suche. Statt 20 Seiten vom Vatikan bis zur Frankfurter Allgemeinen Zeitung oder Neuen Zürcher Zeitung zu besuchen, stelle ich die Frage und bekomme meist die Information herausgefiltert, die ich gerade haben will.
Aber hier merken wir eben auch, dass es gewisse Schwierigkeiten gibt.
Die künstliche Intelligenz wird heute in fast jedem Lebensbereich eingesetzt. Sogar in Bereichen, in denen man normalerweise nicht damit rechnet, wie zum Beispiel bei Softwareentwicklern.
Die größte und bekannteste deutsche Softwarefirma SAP hat gleich nach dem Aufkommen der künstlichen Intelligenz angekündigt, dass sie ein Viertel der Softwareentwickler entlassen will. Warum? Weil Standardentwicklungen von Computerprogrammen auch von künstlicher Intelligenz erledigt werden können. Man muss dann nur genau beschreiben, was man haben möchte. Die künstliche Intelligenz sucht im Internet nach einzelnen Programmteilen, die es schon gibt, und setzt diese zusammen. Die Programme sind dann vielleicht etwas umfangreicher und nicht ganz so elegant, aber es geht viel schneller. So kann ein Softwareentwickler viel produktiver sein und schneller zu Ergebnissen kommen, als wenn er jede einzelne Zeile selbst schreiben müsste.
Wir müssen also davon ausgehen, dass Computerprogramme in Zukunft nicht mehr einfach so geschrieben werden, sondern mit Hilfe künstlicher Intelligenz.
Es gibt auch Bereiche, die mir etwas seltsam vorkommen. Zum Beispiel arbeiten weltweit alle großen Nachrichtendienste immer stärker mit künstlicher Intelligenz. Damit meine ich nicht Nachrichtendienste für Militär oder Geheimdienste, sondern solche, die darüber berichten, was weltweit geschieht – wie die Deutsche Presseagentur (dpa) oder andere Agenturen.
Wenn man heute auf eine Internetseite einer großen Medienagentur wie die Neue Zürcher Zeitung oder spiegel.de geht, muss man davon ausgehen, dass viele der Onlineartikel nicht mehr von Menschen, sondern von künstlicher Intelligenz geschrieben sind. Das gilt für alle Bereiche im Nachrichtenwesen, denn Zeit ist Geld, Journalisten sind teuer, und für bestimmte Berichterstattungen kann man die Arbeit auch einer künstlichen Intelligenz überlassen.
Es sollte immer noch jemand die Artikel gegenlesen. Das ist aber nicht immer der Fall, und manchmal erkennt man deutliche Fehler. Deshalb sollte man auch gegenüber Qualitätsmedien skeptisch sein, denn auch diese nutzen künstliche Intelligenz. Es ist nicht so, dass die einen es machen und die anderen nicht – es gibt das durchaus auf beiden Seiten.
Vor etwa einem halben Jahr habe ich mit jemandem gesprochen, der im christlichen Zeitschriftenbereich arbeitet. Er zeigte mir eine christliche Männerzeitschrift, die sie herausgeben, und sagte ganz stolz, dass die ganze Zeitschrift nur durch künstliche Intelligenz erzeugt wurde – ohne menschliche Autoren.
Ich habe darauf provokativ geantwortet: „Ja, da haben wir das Problem ja gelöst. In Zukunft schreibst du die Zeitschrift mit künstlicher Intelligenz, und meine künstliche Intelligenz liest sie dann. Brauchen wir keine Menschen mehr, oder?“ Das ist natürlich eine provokante Sichtweise.
Man merkt daran, dass es wichtig ist, wenn jemand eine Position bezieht und diese begründet, dass er auch Verantwortung übernimmt. Es sollte jemand dahinterstehen, der sich Gedanken gemacht hat und zur Verantwortung gezogen werden kann.
Ein Beispiel dafür ist eine große Firma in den USA, die ihr Geld damit verdient, Ernährungstipps bei bestimmten Gesundheitsfragen zu geben. Natürlich wird auch Werbung eingeblendet. Diese Firma war begeistert, als ChatGPT aufkam, und entließ daraufhin einen Großteil ihrer Sachbearbeiter, die sonst am Telefon die Probleme der Kunden anhörten oder E-Mails beantworteten. Sie sagten, die künstliche Intelligenz könne das auch.
Allerdings schlichen sich nach wenigen Monaten Fehler ein. Gerade bei Gesundheits- und Ernährungsberatung sind solche Fehler heikel. Die Firma schrieb zwar vorsichtig dazu, dass sie keine Verantwortung übernimmt, aber wenn solche Fehler öffentlich werden, ist der Ruf der Firma schnell ruiniert.
Selbst wenn kein Schadensersatz gezahlt werden muss, können Werbekunden ausbleiben, weil sie nicht mit einer Firma in Verbindung gebracht werden wollen, die möglicherweise dafür verantwortlich ist, dass jemand durch falsche Ernährung Schaden genommen hat.
Man sieht also: Künstliche Intelligenz ist gut und hilfreich, aber wer übernimmt die Verantwortung, wenn etwas schiefläuft? Menschen machen auch Fehler, aber zumindest gibt es dann jemanden, der dafür geradestehen muss.
Und das bei künstlicher Intelligenz – ihr werdet das auch sehen: Bei ChatGPT steht immer dabei, dass die Verantwortung für die Antworten bei dir liegt. ChatGPT übernimmt also nirgends für irgendeine Antwort eine Verantwortung. Das ist auch vollkommen klar, denn sonst wären sie ja völlig unvernünftig. Deshalb darfst du die Antworten auch copyrightfrei benutzen.
Andere Unternehmen oder Zeitschriften verlangen oft, dass du Copyright-Gebühren zahlst, wenn du ihre Inhalte übernimmst. Bei ChatGPT ist das nicht der Fall, du darfst alles übernehmen. Warum? Weil die Verantwortung bei dir liegt. Wenn die Anbieter sagen würden, dass sie das Copyright haben, müssten sie auch die Verantwortung übernehmen. Dann könntest du sie im Prinzip verklagen für die Informationen, die sie weitergegeben haben.
Wenn es deine Information ist, bist du verantwortlich. Das müssen wir auch bedenken, falls du die Informationen veröffentlichst und dadurch ein Schaden entsteht. Dann trägst du die Verantwortung. Hier merken wir schon: Das ist einer der heiklen Punkte.
Künstliche Intelligenz ist eine großartige Sache, weil sie viele Arbeiten erleichtert. Zum Beispiel Sachbearbeiter beim Finanzamt oder die Suchfunktion im Internet. Wir kommen schneller an Informationen, müssen nicht mehr so lange suchen. Ein großer Datenpool wird ausgewertet, Routinearbeit fällt weg. Das hat einige positive Auswirkungen.
Vermutlich wird auch das selbstfahrende Auto ohne künstliche Intelligenz nicht funktionieren. Du kannst nicht alle Eventualitäten vorher einspeichern. Deshalb muss ein gewisser Spielraum offenbleiben, in dem die künstliche Intelligenz selbständig entscheidet.
Meine Vermutung ist, dass ein gut getestetes selbstfahrendes Auto wahrscheinlich weniger Unfälle verursacht als ein von Menschen gesteuertes. Ähnliche Erfahrungen gibt es schon im Flugverkehr: Die meisten Unfälle passieren durch menschliches Versagen. Wenn man es der Technik überlässt, läuft es meistens relativ gut.
Ich vermute, dass das auch beim selbstfahrenden Auto so sein wird. Allerdings werden einige von uns erst einmal Überwindung brauchen, sich einfach ins Auto zu setzen, zu sagen „fahr da und da hin“ und sich dann zurückzulehnen.
Je nachdem, ob man das Sportprogramm aktiviert hat, fährt das Auto vielleicht mal etwas schneller um die Ecke oder bei Gelb noch durch die Ampel – da fängt man dann vielleicht an zu schwitzen. Beim Seniorenprogramm fährt es etwas langsamer, und hinter einem hupen die Leute schon.
Aber irgendwann wird es wahrscheinlich so weit kommen. Dafür ist künstliche Intelligenz notwendig, weil sie sehr viele Daten verarbeiten und auswerten kann. Sie arbeitet nicht nur mit linearen Programmen, sondern berücksichtigt auch unvorhergesehene Entwicklungen. Und das ist erst einmal gut.
Jetzt stellt sich natürlich die Frage: Wo sind die Probleme? Eines davon ist, wer für was die Verantwortung übernimmt.
Ich habe unter anderem einen Artikel von einem Journalisten gelesen, ich glaube bei der Frankfurter Allgemeinen Zeitung. Er hat versucht, ernsthaft zu diskutieren, ob man nicht vielleicht auch die Regierungen abschaffen könnte. Die Schwierigkeit dabei ist: Wie lange soll man arbeiten?
Dann sagt die künstliche Intelligenz plötzlich in der Schweiz: „Ja, mit 70 bist du dann einverstanden.“ Die künstliche Intelligenz hat es gesagt, also muss es stimmen.
Da merken wir, dass wir uns irgendwie nicht ganz wohlfühlen. Warum? Weil für uns nicht durchschaubar ist, wie Prozesse ablaufen und wie Entscheidungen getroffen werden. Wir können diese Entscheidungen nicht mehr hinterfragen. Unsere Stimme spielt dabei eigentlich keine große Rolle.
Die künstliche Intelligenz, die bei uns häufig internetbasiert genutzt wird, kann auch manipuliert werden. Das ist natürlich klar, denn künstliche Intelligenz kann nicht erkennen, ob eine Information wahr ist oder nicht. Sie sieht nur, dass sie existiert.
Man kann das Programm so einstellen, dass zum Beispiel Informationen von der Neuen Zürcher Zeitung als seriös gelten. Aber das weiß man eben auch nicht ganz genau. So können ganz schnell Leute Meinungen manipulieren, und man erkennt das später nicht mehr.
Denn künstliche Intelligenz bewertet Informationen oft nach Häufigkeit. Wenn Informationen sehr häufig vorkommen, werden sie meist als zuverlässig eingestuft. Deshalb gibt es auch manchmal Falschinformationen. Menschen, die das wissen, versuchen, ihre falschen Informationen auf vielen Plattformen und Internetseiten zu verbreiten. Dann werden diese Informationen von der künstlichen Intelligenz besonders hoch bewertet.
Künstliche Intelligenz ist zwar in gewissem Rahmen intelligent, hat aber nichts mit Wahrheit an sich zu tun. Wahrheit ist eher eine ethische, moralische, religiöse oder philosophische Frage. Und diese Komponente hat künstliche Intelligenz natürlich nicht.
Das ist vielleicht etwas, was uns die künstliche Intelligenz nicht abnehmen kann. Wir sind aber schon jetzt in Gefahr, dass Nutzer künstlicher Intelligenz das zu wenig berücksichtigen – weil es anstrengend ist.
Vor zwei Wochen habe ich einen Artikel gelesen über Untersuchungen in Deutschland. Dabei ging es um Nutzer von künstlicher Intelligenz im Internet, sowohl beruflich, universitär als auch privat.
Das Ergebnis: Vier von fünf Nutzern überprüfen die Ergebnisse der künstlichen Intelligenz nicht. Das heißt, weil es so einfach ist, übernehmen 80 Prozent die Antworten als Wahrheit. Das ist natürlich eine große Gefahr.
Wir sollten uns selbst herausfordern, auch wenn wir Informationen bekommen, diese zu überprüfen. Bei Programmen wie ChatGPT kann man zum Beispiel einstellen, dass Fußnoten gesetzt werden. So können wir selbst beurteilen, ob die Quelle glaubwürdig ist oder nicht.
Es ist problematisch, wenn ich meine Meinung bilde, ohne die Originalquellen gelesen zu haben, sondern nur eine Auswertung, deren Herkunft ich nicht nachvollziehen kann.
Ich habe hier Beispiele genannt, bei denen nicht mal böswillig falsche Informationen verbreitet werden. Sondern einfach, weil eine Meldung häufig vorkommt oder das Programm nicht perfekt funktioniert, kommen Informationen heraus, die objektiv gesehen nicht stimmen.
Das ist übrigens auch ein Punkt, an dem Christen sagen würden: Hier gibt es Prinzipien, die wir aus der Bibel anwenden können. Denn in der Bibel steht selbstverständlich nichts darüber, ob Christen künstliche Intelligenz benutzen dürfen oder nicht. Es steht auch nicht, ob Christen Auto fahren dürfen oder nicht. Da muss man sagen: Ja, klar können Christen Auto fahren, aber als Christ solltest du niemanden überfahren. Und wenn du kein Christ bist, hoffentlich auch nicht.
Es gibt also deutliche Prinzipien. Es gibt Dinge, die darfst du tun oder nicht tun, und genauso ist es bei künstlicher Intelligenz. In der Bibel wird zum Beispiel deutlicher gesagt, was die meisten wahrscheinlich zumindest aus den Zehn Geboten kennen: Du sollst nicht lügen. Das bedeutet, wenn du Informationen durch künstliche Intelligenz erzeugst, bist du dafür verantwortlich – vor Gott und natürlich auch vor Menschen. Als Christ bist du verpflichtet zu überprüfen, ob das, was du weitergibst, stimmt. Sonst musst du dafür gerade stehen.
Wenn du keine höhere moralische Instanz siehst, sagst du vielleicht: „Mir ist es egal, ob es stimmt oder nicht, Hauptsache, es kann mich keiner verklagen.“ Aber als Christ würdest du sagen: Ich habe eine moralische Instanz. Gott will von mir, dass ich Verantwortung für das übernehme, was ich sage, schreibe oder weitergebe. Dieses Kriterium macht es einem Christen natürlich schwerer. Das heißt, du kannst nicht einfach nur die schöne Information nehmen und zum Nächsten gehen, sondern als Christ bist du zur Wahrhaftigkeit verpflichtet.
Diese Wahrhaftigkeit ist eine moralische Instanz, die möglicherweise das Überleben unserer Wissenschaftsgesellschaft mit beeinflusst. Denn neben der künstlichen Intelligenz gibt es in den letzten zwanzig Jahren immer häufiger Skepsis gegenüber Irrtum und Fälschung in der Wissenschaft. Wissenschaftler stehen unter enormem Konkurrenz- und Zeitdruck. Deshalb nehmen Irrtum und Fälschung in der Wissenschaft von Jahr zu Jahr zu – und zwar auf allen Ebenen, von der Bachelorarbeit bis zur Promotion.
Das Problem ist, dass viele veröffentlichte Dinge später von anderen Wissenschaftlern übernommen werden, die sie gar nicht prüfen können, weil das zu viel Zeit kosten würde. Diese Forscher bauen ihre Forschungen darauf auf. Entscheidungen von Politikern über das Bildungssystem werden aufgrund von wissenschaftlichen Studien getroffen. Medizinische Behandlungen basieren auf medizinischen Studien. Wenn wir aber nicht annähernd hundertprozentig sicher sein können, dass diese Studien stimmen – weil ein Forscher vielleicht Abkürzungen genommen hat, um schneller an der Spitze zu sein oder weil der Geldgeber Druck macht –, kann das fatale Folgen haben.
Genau solche Dinge sind in der Vergangenheit immer wieder passiert. Man rechnet damit, dass etwa zehn Prozent aller wissenschaftlichen Arbeiten in Europa davon betroffen sind. Natürlich nicht immer in vollem Umfang. Häufig läuft es so: Jemand macht eine Untersuchung mit fünfzig Messergebnissen. Zwei oder drei Messergebnisse passen nicht. Dann macht er die Untersuchung noch einmal, lässt die zwei oder drei Ergebnisse einfach weg. Das kann tragische Folgen haben. Oder Messergebnisse werden angepasst.
Wir sollten nicht denken, in der Wissenschaft herrsche immer nur die edle Wahrheit. Auch in der Wissenschaft geht es um viel Geld, um Renommee und Aufträge. Wenn du der Zweite oder Dritte bist, interessiert das niemanden. Du musst der Erste sein. Durch künstliche Intelligenz kann dieser Druck noch steigen. Das führt dazu, dass Leute, die sowieso schon dazu neigen, Dinge zu beschleunigen, dies noch eher tun. Sie schreiben Ergebnisse, die die Leute erwarten. Die Auswirkungen können immens sein.
Das beginnt auf allen Ebenen. Ich unterrichte zum Beispiel auch, und bei uns gibt es Leute, die eine theologische Ausbildung machen. Da erlebe ich manchmal folgendes: Ein Student muss eine Ausarbeitung schreiben. Manche planen nicht gut, und plötzlich merken sie, dass der Abgabetermin schon morgen früh ist. Dann besteht die Gefahr, dass sie es nicht mehr schaffen, selbst wenn sie die ganze Nacht durcharbeiten. Also fragen sie ChatGPT: „Schreib mir zwei Seiten Ausarbeitung.“ Die geben sie ab.
Was hat der Student dabei gelernt? Vielleicht, dass Faulheit manchmal belohnt wird. Aber er hat bestimmt nicht gelernt, was er eigentlich ausarbeiten sollte. Das Problem ist: Bisher konnte man Plagiate, also das einfache Abschreiben, durch Computerprogramme erkennen, die das Internet durchsuchen. Das ist bei künstlicher Intelligenz nicht mehr so leicht möglich, weil die Texte jeweils neu generiert werden. Sie sind nicht irgendwo abgeschrieben, sondern neu kombiniert und formuliert. Deshalb kann ein Dozent das nicht mehr so einfach erkennen.
Ich bespreche deshalb Ausarbeitungen, bei denen ich Verdacht habe, oft mündlich mit den Studenten. Ich frage sie zum Beispiel: „Was meinst du mit dieser Aussage?“ Wenn sie dann herumreden, weiß ich: Entweder haben sie es nicht verstanden, oder es wurde abgeschrieben, oder künstliche Intelligenz war im Spiel. Als Lehrer muss man darauf reagieren. Ich will die Schüler dazu bringen, den mühsamen Weg zu gehen. Nicht, weil er mühsam ist, sondern weil sie nur verstehen, was sie selbst durchdacht haben.
Manche Ausarbeitungen habe ich zurückgegeben, weil der Student darin gegensätzliche Thesen vertreten hat. Da musste er sich entscheiden: Entweder diese oder jene Meinung. Das zeigt mir, dass er nicht verstanden hat, worum es eigentlich geht. Er hat Quellen angezapft, die gut klangen, schön mit Fachwörtern angereichert waren, aber er hat es nicht verstanden. Wenn wir solche Leute in der Zukunft in verschiedenen Fachbereichen haben, kann das ein echtes Problem werden.
Stell dir vor, ein Mediziner hat seinen Doktortitel mit künstlicher Intelligenz gemacht. Dann wird er auch seine Symptome so eingeben und sagen: „Was sagt mir die künstliche Intelligenz?“ Die Antwort lautet: „Sie haben diese und jene Krankheit.“ Dann brauchen wir den Arzt eigentlich nicht mehr. Du kannst dich gleich an ChatGPT wenden, deine Symptome nennen, und bekommst das Rezept und die Therapie.
Aber das kann schiefgehen. Das wird jeder bemerkt haben, der vielleicht hypochondrisch veranlagt ist. Manchmal schaue ich im Internet Symptome an und merke, dass ich viele davon auch habe. Dann denke ich: „Boah, ich bin ja noch kränker, als ich dachte.“ Künstliche Intelligenz könnte darauf auch hereinfallen. Ein versierter Arzt stellt aber auch Fragen, die ich vielleicht nicht eingeben würde, oder schließt Dinge aus, weil bestimmte Symptome fehlen.
Noch vertraue ich einem guten Arzt mehr als nur der Information aus dem Internet, obwohl ich auch immer wieder im Internet nachschaue. Ihr wahrscheinlich auch. Aber lasst euch warnen: Eine Internetrecherche zu Gesundheitsfragen ist nicht immer so zuverlässig wie ein Spezialist, der sich auskennt. Wir müssen dahin kommen, Spezialisten zu werden.
Künstliche Intelligenz kannst du erst richtig gut nutzen, wenn du dich in einem Fachbereich gut auskennst. Dann kannst du beurteilen, ob die Information, die dir gegeben wird, wahrscheinlich stimmt oder nicht. Du weißt, ob die Quellen zuverlässig sind. So habe ich zum Beispiel ChatGPT und andere KI gefragt wegen eines Theologen aus dem 19. Jahrhundert, über den ich einen Artikel schrieb. Dabei fiel mir auf, dass einige Angaben nicht stimmen.
Wenn ich diese Person nicht gut genug kenne, würde mir das nie auffallen. Es gibt nämlich zwei Theologen gleichen Namens aus dem 19. Jahrhundert. Für künstliche Intelligenz ist das schwierig, denn sie mischt die Lebensbilder. Das fällt erst auf, wenn man sich in der Kirchengeschichte auskennt. Ich vermute, manche meiner Studenten würden das nicht bemerken. Die würden eine neue Biografie schreiben, gemischt aus beiden, zusammengefasst, klingt gut, ist aber falsch.
Das ist das Problem der künstlichen Intelligenz: Für jemanden, der sich in einem Fachbereich auskennt, ist sie eine gute Sache, weil sie Routinearbeit abkürzt und Wahrscheinlichkeiten liefert, mit denen wir umgehen können. Wenn du von einem Thema wenig Ahnung hast, ist die Versuchung groß, nicht zu überprüfen, weil das Zeit kostet.
Ich erinnere mich, dass ich vor einigen jungen Leuten in der Schule einen Vortrag gehalten habe. Ich sagte ihnen: „Ihr seid viel zu viel im Internet.“ Um seriös mit Internetdaten umzugehen, schon ohne künstliche Intelligenz, müsst ihr euren Internetkonsum mindestens halbieren. Warum? Weil ihr Zeit braucht, über das nachzudenken, was ihr gesehen habt.
Wenn du nur einen Film nach dem anderen bei YouTube anschaust, prägt das deine Wahrnehmung und dein Unterbewusstsein. Aber du hast keine Möglichkeit mehr zu überprüfen, ob das, was gesagt wird, auch wahr ist. Es prägt deine Meinung. Ich habe das mit Jugendlichen gemacht: Wir haben einen Film angeschaut, und ich habe nach jedem Satz gestoppt und recherchiert, ob die Aussage stimmt. Nach anderthalb Stunden sagten sie: „Das ist ja alles falsch.“
So ist es bei vielen Informationen, auch denen, die allgemein präsentiert werden und erst einmal gut klingen. Wenn du dich nicht auskennst, kannst du nicht unterscheiden, ob sie stimmen oder nicht. Wir leben in einer Informationsgesellschaft, in der das, was wir aufnehmen, unsere Meinung, unser Verhalten, unser Leben, unsere Gesellschaft, unsere Politik und manchmal auch unseren Glauben mitbestimmt.
Umso mehr sind wir verantwortlich. Als Christen finden wir in der Bibel, dass wir verantwortlich sind zu prüfen. Wir dürfen Informationen nicht einfach so aufnehmen. Wir sind verantwortlich für das, was wir weitergeben. Sonst sagt die Bibel, dass das Lüge oder üble Nachrede ist, wenn wir etwas weitergeben, das möglicherweise gar nicht stimmt.
Das kannst du nicht einfach ignorieren. Du schadest anderen Menschen, wenn du nicht vorher überprüft hast und nicht mit relativ großer Sicherheit weißt, ob etwas stimmt oder nicht. Dieser Aspekt der Verantwortung und Wahrhaftigkeit sind ethische Prinzipien, die sehr wichtig sind. Gerade wenn uns technische Möglichkeiten neue Horizonte eröffnen, sind diese ethischen Grundprinzipien umso wichtiger.
Wenn sie nicht da sind, kommt genau das, was ich angedeutet habe: Irrtum und Fälschung in der Wissenschaft. Wenn ich keine Hemmung habe, sage ich: „Nein, ich mache das nicht, auch wenn es länger dauert, auch wenn ich dabei mehr schwitze, auch wenn das Ergebnis nicht so schön ist, wie ich es gerne hätte. Aber ich will wahrhaftig sein.“
Gott, an den ich glaube, ist wahrhaftig. Er sagt mir die Wahrheit. Ich will auch Wahrheit sagen. Ich bin anderen Menschen gegenüber verantwortlich. Es kommt nicht nur darauf an, ob ich erfolgreich bin oder viel Geld verdiene, sondern ich bin verantwortlich für die Information, die ich recherchiere und weitergebe. Ich bin verantwortlich für die Information, die ich als Prüfungsergebnis weitergebe.
Wenn ich ein Student bin und meine Ausarbeitung abgebe, dann ist die Note für mich, nicht für ChatGPT. Ich habe schon Studenten gesagt: „Deine Leistung war minimal. Ich weiß, dass du auf die richtigen Tasten drücken kannst, mehr nicht. Soll ich jetzt die ganze Arbeit durchlesen und der künstlichen Intelligenz die Note geben? Das bringt ja nichts.“ Meine Studenten dürfen künstliche Intelligenz benutzen, aber sie sollen das immer angeben.
Dann will ich sehen: Haben sie sinnvolle Fragen gestellt? Haben sie die Informationen, die sie bekommen haben, überprüft und gegenrecherchiert? Sind sie vernünftig damit umgegangen oder war es nur der Ausweg des Faulen oder Bequemen?
Das werden wir beim Allgemeingebrauch künstlicher Intelligenz in Zukunft immer mehr erleben: Menschen, die sie benutzen, aber auch missbrauchen, weil sie sie nicht sachgerecht einsetzen. Weil man es schwer überprüfen kann und weil es so verführerisch ist, schnell zu Ergebnissen zu kommen, werden viele Menschen das nutzen. Gerade diejenigen, die es am meisten bräuchten, um sich intensiver mit der Sache auseinanderzusetzen.
Man muss verstehen, worum es geht, wie man das einordnet und wie man gute Fragen formuliert. Denn künstliche Intelligenz kann nur so gute Antworten geben, wie gute Fragen gestellt werden. Gute Fragen kann man besser stellen, wenn man den Sachverhalt genau kennt und weiß, worauf es ankommt. Dann ist die Wahrscheinlichkeit größer, dass die Antwort nicht nur allgemein oder falsch bleibt, sondern zielgerichtet ist.
Wichtig ist auch die Datenbasis, auf der die künstliche Intelligenz beruht. ChatGPT hat beispielsweise zu einem bestimmten Stichtag den Großteil der im Internet zugänglichen Daten als Grundlage. Es gibt aber auch künstliche Intelligenz in kleineren Bereichen.
Ich habe eine christliche Institution beraten, die einen Pool von Zeitschriften mit Fachaufsätzen über Jahrzehnte hinweg hat. Ich habe ihnen empfohlen, auf ihrer Internetseite einen Chatbot einzubauen. Bisher gibt es meist Suchmasken, in die man Stichworte eingibt. Wenn man das falsche Stichwort eingibt, kommt man nicht weiter oder bekommt zu viele Ergebnisse.
Ein Chatbot vermittelt den Eindruck, als ob man mit einem realen Menschen spricht. Vielleicht habt ihr das schon erlebt: Auf vielen Internetseiten gibt es das heute. Da gibt es dann „Monika“, die dich anlächelt und du kannst ihr Fragen stellen. Zum Beispiel: „Ich habe meine Krankenversicherungsnummer vergessen.“ Dann antwortet Monika – hoffentlich nicht mit deiner Nummer, das wäre Datenschutzverletzung –, sondern mit einer generierten Antwort.
Das ist eine gute Sache, weil man viel zielgerichteter suchen kann. Der christlichen Institution habe ich empfohlen, genau festzulegen, auf welche Datengrundlage der Chatbot zurückgreift. Wenn er nur auf die christlichen Zeitschriften zugreift, wird er nicht plötzlich sagen: „Konvertiere zum Islam.“ Das kommt in der Datenbasis nicht vor.
Der Chatbot verarbeitet die Daten und formuliert neue Antworten. Zum Beispiel: Du hast ein kleines Kind zu Hause, fünf Jahre alt, und der Hamster ist gestorben. Das Kind fragt: „Ist der Hamster im Himmel?“ Auf der Zeitschrift findet man dazu vielleicht keinen Artikel. Aber du kannst den Chatbot fragen. Er sucht in den Aufsätzen, die eingespeichert sind, etwas zusammen und formuliert eine verständliche Antwort. Diese kannst du als Idee nutzen, was du deinem Kind antwortest.
Das ist eine tolle Möglichkeit, künstliche Intelligenz im speziellen Bereich zu nutzen. Ich habe den Leuten auch gesagt: Ihr müsst den Chatbot trainieren. Man kann versuchen, ihn mit absurden Fragen oder Provokationen an der Nase herumzuführen. Manchmal kommen falsche Antworten heraus, und darauf muss man achten.
Ein Softwareentwickler, der Christ ist, entwickelt gerade ein Computerspiel mit künstlicher Intelligenz, in dem man virtuell Jesus begegnen kann. Das Spiel beginnt so, dass man in der Wüste unterwegs ist und nichts mehr zu trinken hat. Dann sagt man etwas, nimmt das Handy, und künstliche Intelligenz formuliert eine Antwort. Irgendwo im Setting taucht Jesus auf.
Manche würden sagen: Das darf man nicht, das sei keine Theologie. Ich habe das Spiel durchgespielt, und die Antworten, die Jesus gab, waren theologisch vernünftig, nicht daneben. Aber ich habe ihm gesagt: Du musst das Spiel hundertmal durchspielen, damit nicht irgendwann komische Antworten auftauchen. Sonst kann das dein Renommee als Entwickler oder als Christ beschädigen.
Das ist eine ganz neue Idee. Bisher sind Computerspiele meist so, dass man einen Ablauf hat, verschiedene Varianten durchspielen kann. Bei diesem Spiel ist jedes Spiel anders. Jedes Mal, wenn jemand spielt, kommt etwas anderes heraus. Das wird auch für die Spieleindustrie interessant sein. Falls ihr gerne Computerspiele spielt, könnt ihr euch in Zukunft auf neue Möglichkeiten, bessere Grafiken und unvorhersehbare Entwicklungen freuen.
Ich hoffe, einige Aspekte sind jetzt deutlich geworden. Es sollte auch klar sein, dass eine generelle Euphorie nicht angebracht ist. Es ist nicht so, dass mit künstlicher Intelligenz alle Probleme gelöst sind, wir nicht mehr arbeiten müssen oder nicht mehr wählen brauchen – alles ist geklärt. Das wäre vielleicht ein bisschen zu schnell gedacht.
Ebenso ist es nicht richtig zu sagen, die Welt geht unter, bald funktioniert nichts mehr und der Dritte Weltkrieg bricht aus. Das ist auch nicht unmittelbar zu erwarten. Künstliche Intelligenz ist eine seriöse Sache, die uns das Leben in vielerlei Hinsicht deutlich erleichtern kann – und zwar in fast jedem Bereich, in dem wir tätig sind.
Deshalb wird es in den nächsten Jahren so sein, dass in nahezu jedem Arbeitsbereich künstliche Intelligenz mehr oder weniger spürbar berücksichtigt wird. Zum Beispiel gibt es in der Gegend, in der ich gerade bin, eine große Automobilzuliefererfirma, die intensiv an künstlicher Intelligenz arbeitet – und zwar zur Ersetzung von Busfahrern. Denn in Deutschland, wahrscheinlich auch in der Schweiz, gibt es zu wenige Busfahrer.
Man arbeitet daran, denn der Vorteil von Bussen ist, dass sie immer dieselbe Strecke fahren. Das ist erst einmal eine einfachere Variante. Dort sind sie schon sehr weit vorangekommen und haben mit künstlicher Intelligenz große Fortschritte erzielt.
Ich weiß nicht, ob jemand, der gerade Busfahrer werden möchte, sich davon beeinflussen lassen sollte. Ob es tatsächlich kommt oder nicht, wissen wir nicht. Und ob es dann genutzt wird, ist auch unklar. Wenn die Kunden nicht mehr einsteigen, hilft es auch nicht, wenn der Bus plötzlich ohne Fahrer fährt.
Es wird aber wahrscheinlich in den meisten Bereichen, in denen wir tätig sind, mehr oder weniger spürbar sein, dass künstliche Intelligenz berücksichtigt wird. Wir werden uns nach einer Zeit daran gewöhnen, so wie wir es beim Handy oder Internet getan haben. Wir werden die positiven Seiten nutzen, müssen aber die Gefahren im Blick behalten.
Diese Gefahren bedeuten, dass man Verantwortung übernehmen muss. Man muss sich tiefer in Sachverhalte hineindenken, um sie beurteilen zu können. Man ist verantwortlich für Ergebnisse, für die Wahrhaftigkeit und dafür, was diese bei anderen Menschen auslösen.
Das heißt, wir müssen uns – und hier ist die ethische und technische Diskussion noch in vollem Gang – Gedanken darüber machen, wie wir künstliche Intelligenz sinnvoll einsetzen können. Die Frage, ob wir diese Diskussion führen wollen oder nicht, ist meiner Meinung nach unsinnig. Sie wird kommen, und künstliche Intelligenz wird in vielen Bereichen unseres Lebens präsent sein.
Wichtiger ist die Frage: Wie wird sie kommen? Worauf müssen wir achten, um mögliche Fehler möglichst früh zu erkennen? Und wie gehen wir damit um – im privaten oder im beruflichen Bereich? Neigen wir dazu, sie für Betrug zu nutzen, indem wir Informationen als eigene Recherche oder Arbeit ausgeben, obwohl sie es nicht sind? Oder geben wir Informationen weiter, ohne sie geprüft zu haben?
Das sind ethische Kriterien, die uns interessanterweise schon in der Bibel benannt werden. Obwohl die Bibel vor zweitausend Jahren geschrieben wurde, sind solche grundsätzlichen ethischen Fragen nach wie vor relevant – und zwar auch bei neuen technischen Anwendungen, mit denen wir heute zu tun haben.
Es gäbe zwar hier und dort noch einiges zu erzählen, trotzdem hoffe ich, dass einige Aspekte aufgegriffen wurden. Vielleicht sind Erwartungen erfüllt worden, die manche mitgebracht haben. Es ging ja nicht darum, einen Fachvortrag für jemanden zu halten, der in Software, Automobiltechnologie oder einem ähnlichen Bereich studiert.
Vielmehr ging es darum, eine größere Bandbreite vor Augen zu führen und eine gewisse Vielfalt deutlich zu machen – ohne pauschale Urteile zu fällen, sondern um Sensibilisierung für den richtigen Umgang. Jeder, der aufmerksam ist, wird merken, wie viele Bereiche des Alltagslebens von künstlicher Intelligenz betroffen sind. Und hoffentlich geht er oder sie mit einer gewissen Sensibilität und vor allem mit Verantwortlichkeit damit um.
Das ist eine ganz deutliche Sache, die wir auch in der Bibel finden: Gott hat dem Menschen Verantwortung für sein Handeln, sein Reden und sein Denken gegeben. Verantwortung können wir nicht delegieren. Du bist verantwortlich für das, was du tust, und für das, was daraus entsteht. Das sollten wir uns bewusst machen.
Gerade künstliche Intelligenz kann dazu verführen, diese Verantwortung zu delegieren oder zu anonymisieren. Das dürfen wir nicht zulassen. Und diejenigen, die sich als Christen verstehen, wissen: Gott hat seine Hand auch darüber. Wir dürfen zu ihm kommen, wenn wir Angst haben und uns fragen, wie es mit der Welt weitergeht. Dann können wir ihn darum bitten.
„Vater im Himmel, du hast die Ahnung darüber, du weißt, wie es weitergeht. Ich vertraue dir.“ Das heißt nicht, dass jemand in Depressionen verfällt und alle Türen abschließt, damit keine künstliche Intelligenz hereinkommt.
Mit Gott können wir solche Herausforderungen auch positiv nutzen – auch als Christen. Dieses grundsätzliche Vertrauen, dass Gott offen ist für die Zukunft und uns helfen will, Missbräuche einzuschränken, ist wichtig.
An dieser Stelle mache ich Schluss, einfach deshalb, weil die Zeit abgelaufen ist, die wir uns dafür genommen haben.