KI: Wenn der Computer Aufsätze schreibt

KI: Wenn der Computer Aufsätze schreibt

Was macht es mit den Menschen, wenn Computer durch KI automatisch Zeitungsartikel, Kurzgeschichten, Gedichte oder gar wissenschaftliche Abhandlungen schreiben? Für Doris Weßels wirft das Fragen auf, die dringend Antworten brauchen.

Ein paar Daten ins Laptop eintippen, einen Button anklicken und ein druckreifer Aufsatz füllt den Bildschirm. Was wie Science-Fiction klingt, ist in den Medien schon angekommen. Der so genannte „Robo-Journalismus“ funktioniert bereits hervorragend bei Texten, die auf reinen Zahlen und Daten basieren, wozu Umwelt-, Sport- oder Wirtschaftsnachrichten gehören. In Deutschland tauchten die ersten computergenerierten Artikel durch eine KI 2017 in der Stuttgarter Zeitung auf. Es waren tägliche Berichte zur Feinstaubbelastung, ein besonders gravierendes Problem für die Stadt im Talkessel. In Schweden gewinnt das Medienunternehmen MittMedia für seine Lokalzeitungen zahlreiche neue Online-Abonnenten, seitdem ein sogenannter „Homeowners Bot“ lokale Informationen zum Immobilienmarkt sammelt und daraus gut lesbare journalistische Analysen schreibt. Und die großen, internationalen Nachrichtenagenturen Bloomberg und Reuters experimentieren mit Bots, mit selbständigen Computerprogrammen, die Artikel über Quartalsbilanzen von Unternehmen schreiben.

Solche Text-Generatoren funktionieren ein wenig so, wie die Auto-Complete-Funktion auf dem Handy. Tippt man ein Wort ein, so wird einem bereits das nächste Wort vorgeschlagen. Der dahinter liegende Algorithmus, die digitale Verarbeitungsvorschrift, nutzt die rein statistische Wahrscheinlichkeit, dass nach einem Wort ein bestimmtes nächstes gewählt wird. Doch echte künstliche Intelligenz (KI) kann weit mehr und ist fast unbemerkt in der Gesellschaft angekommen. Bereits Schüler basteln im Unterricht an KI-Programmen, an Hochschulen lernen zunehmend mehr Studenten künstliche Intelligenzen zu programmieren, und Forscher suchen und finden immer neue Anwendungen dafür. Doch wie sich Unterricht und Lehre selbst an Schulen und Hochschulen durch die automatische Verarbeitung natürlicher Sprache verändert, darüber machen sich nur wenige Lehrer und Hochschullehrer Gedanken.

Eine von ihnen ist Doris Weßels. Die Professorin lehrt Wirtschaftsinformatik mit dem Schwerpunkt Projektmanagement an der Fachhochschule Kiel und ist die stellvertretende Vorstandsvorsitzende der Digitalen Wirtschaft Schleswig-Holstein e.V. Einst studierte sie Mathematik mit dem Nebenfach Betriebswirtschaftslehre. Sie weiß, wozu künstliche Sprachintelligenzen bereits heute in der Lage sind und wundert sich, dass diese Werkzeuge in der Bildungslandschaft bisher kaum eine Rolle spielen.

„Ich bin mir nicht sicher, ob die Verarbeitung natürlicher Sprache wissenschaftliche Texte überflüssig macht oder nicht. Es könnte sein, da Computer die Informationen, die sie erhalten, schneller analysieren und interpretieren können als Menschen. Allerdings ist es wichtig, dass menschliche Wissenschaftler verstehen, was ein Computer für sie analysiert hat, sonst könnten wir unsere Fähigkeit verlieren, kritisch über Probleme nachzudenken.“

„Ich denke, Allgemeinwissenstexte werden eher überflüssig als wissenschaftliche Texte. Einen langen Text so zu lesen und zu interpretieren, wie der Autor es beabsichtigt, ist eine schwierige Kunst, die der Mensch seit Jahrtausenden perfektioniert hat.“

Nein, diese Worte, so weise sie klingen, hat nicht Doris Weßels gesagt! Das schrieb eine englischsprachige künstliche Intelligenz namens „Philosopher AI“ auf die Frage nach der Zukunft von Sprache in der Wissenschaft. Ins Deutsche übertragen wurde der Text mit „DeepL“, der derzeit wohl besten KI-basierten Übersetzungssoftware. Doris Weßels selbst hatte mit „Philosopher AI“ experimentiert und einen Text generieren lassen, von dem selbst ihre Wissenschaftlerkollegen zunächst nicht glaubten, dass er von einem Computer geschrieben wurde. Sogar eine Plagiat-Erkennungssoftware, wie sie Hochschulen zur Analyse von Examensarbeiten nutzen, attestierte ihm seine Einmaligkeit. „Ein automatisch generierter Text ist tatsächlich ein Unikat. Man kann ihn auch als Kunstwerk interpretieren,“ meint Weßels. „Er kann nicht noch einmal genauso generiert werden.“

Das wirft Fragen auf.

Das Interesse an künstlichen Sprachintelligenzen erwachte bei der Hochschullehrerin, als vor drei, vier Jahren das Problem der Plagiate an den Hochschulen hochkochte. Weil nämlich immer mehr wissenschaftliche Veröffentlichungen und akademische Debattentexte offen im Internet zur Verfügung standen, wurde es immer einfacher, sich mittels Copy und Paste mit fremden Federn zu schmücken. Schüler und Studenten schienen das Gefühl für Respekt vor Urheberrechten zu verlieren und zu vergessen, wie wichtig es war, richtig zu zitieren. Gleichzeitig gab es in den USA Bestrebungen, Schulaufsätze KI-gestützt zu analysieren. Schüler bekamen automatisch eine Rückmeldung über die Qualität ihrer Texte und Lehrern half die KI bei der Bewertung der Aufsätzen.

„Was ist, wenn die KI jetzt noch Texte schreibt? Was ist, wenn Studierende und auch wir Lehrende eines Tages solche Werkzeuge genauso selbstverständlich nutzen, wie wir heute die Google-Suche nutzen, also Such-Algorithmen?“

Für Weßels türmt sich ein Berg von Fragen auf. Es gibt inzwischen eine ganz Reihe von Schreib-Bots, die auf unterschiedlichste Fragen lange und über weite Strecken sogar recht sinnvolle Texte schreiben können. „Kann man da noch die Frage nach der Urheberschaft stellen? Wer ist Autor oder Autorin?“, fragt Weßels. Mehr noch: „Wie fühlt sich das eigentlich an? Was bedeutet das automatische Texteschreiben für die Bildungsstruktur bei uns an den Hochschulen?“ Sie ist sich sicher, dass das eine echte Disruption ist, eine Erschütterung des Bildungssystems, ja, der gesamten Gesellschaft.

In Deutschland werden an Hochschulen bisher noch nicht einmal KI-gestützte Textanalysen von Haus- und Prüfungsarbeiten durchgeführt. Ein Grund könnte die Sprache sein, denn die meisten der verfügbaren Systeme schreiben auf Englisch. „Doch eigentlich haben wir keine Sprachbarrieren mehr. Auch da haben wir inzwischen extrem leistungsfähige Werkzeuge, mit denen man wirklich mit einem Klick von einer Sprache in die nächste springen kann.“ Da sticht das Online-Übersetzungswerkzeug des Kölner Startups DeepL heraus, das die bisherigen Übersetzungs-Platzhirsche inzwischen weit in den Schatten stellt.

Aber was macht das Jungunternehmen anders?

Während Google Translate und der Microsoft Translator wahrscheinlich sogar umfangreichere Sprachen- und Textdaten aus ihren eigenen Internetservices zum Training der neuronalen Übersetzungsnetze besitzen, haben die DeepL-Macher sich auf Neuerungen in der grundlegenden Mathematik konzentriert und die Art und Weise verbessert, wie künstliche neuronale Netze funktionieren, die biologischen Nervennetze nachempfunden sind. Allerdings kann DeepL auch auf Erfahrungen des Vorgängerunternehmens Linguee zurückgreifen, dessen eher klassischer Übersetzungsdienst auf Millionen von übersetzten Satzpaaren aus dem Internet und aus Dokumenten der EU-Kommission zurückgreifen konnte.

„Im Hintergrund der Textgeneratoren liegen bestimmte Sprachmodelle, die auf eine gigantische Datenbasis zugreifen können“, erklärt Sprach-KI-Expertin Weßels.

„Ein aktuelles Modell nennt sich ‚GPT 3‘, das auf eine Billion Wörter zurückgreifen kann.“ Das entspricht einer Speichergröße von 570 Gigabyte an Texten. Die Wörter stammen aus Literaturdatenbanken, aus der englischsprachigen Wikipedia und aus einem digitalen Archiv namens „Common Crawl“, das seit 2011 Beiträge aus Internetforen, Blogs und Online-Artikeln zusammenträgt. GPT 3, der Generative Pretrained Transformer (produktiv-vortrainierter Umwandler), erstellt Tweets, die auf vorhergehende Texte sinnvoll eingehen, schreibt aber auch verstehbare Gebrauchsanleitungen, Gedichte und Kurzgeschichten. Sogar komplizierte juristische Paragrafen kann er in wenigen klaren Sätzen zusammenfassen. Diese Art der Texterstellung ist so disruptiv, so irritierend einschneidend, dass Weßels sich fragt: „Was macht das mit uns Menschen? Was bedeutet das für den Bildungsbereich? Müssen wir Schreiben noch wirklich lernen?“

Weßels erinnert sich an einen Zeitungsartikel, den sie vor Jahren gelesen hatte und der sich ihr einbrannte. „Es ging darin darum, ob die Menschheit die Text-Sprache überhaupt noch braucht. Die Jugendlichen kommunizieren heute bevorzugt über gesprochene Sprachnachrichten. Aber die Fähigkeit, mit Texten zu arbeiten und Texte zu schreiben, Texte zu lesen, ob wir das als Menschheit perspektivisch wirklich noch brauchen, das wurde in Frage gestellt. Das hat mich richtig geschockt.“ Für die Professorin ist es nur schwer vorstellbar, sich von Sprache, von Texten zu trennen. Dabei ist die Umwandlung von Sprache in Text und umgekehrt schon in allen möglichen digitalen Werkzeugen verankert und nur einen Klick entfernt. Mit Alexa oder Siri wird ja auch geredet.

Illustration KI

„Gesprochene Sprache dominiert also immer mehr den Text“, stellt Weßels fest. „Die Youngster lesen ja auch keine Zeitung mehr. Ihnen ist Qualitätsjournalismus aus meiner Sicht ein fremder Begriff. Deshalb sind sie auch leicht zu manipulieren. Auch das hat eine ganz große Bedeutung in diesem Zusammenhang.“ So fragt sich die Lehrende:

„Müssen wir Schreibkompetenz fördern? Müssen wir Gesprächskompetenz fördern? Und: Was macht das mit unserem Gehirn?“

Weßels berichtet über eine eigene Arbeitsgruppe, die sich mit den ethischen Fragestellungen beschäftigt, die künstliche Intelligenz für die Forschung und die wissenschaftliche Praxis aufwirft. „Bei der guten wissenschaftlichen Praxis haben wir Qualitätsmerkmale, die man jetzt in das neue Zeitalter übertragen muss. Manche dieser Merkmale lassen sich aber gar nicht so eins zu eins übertragen.“ Dazu gehören die Nachvollziehbarkeit von Argumenten, Erkenntnissen, Gedankengängen und Zitaten. „Wenn ich mit KI-Algorithmen arbeite, sind das in der Regel Blackbox-Algorithmen. Ich weiß was ich eingegeben habe und ich weiß was rausgekommen ist. Was aber dazwischen passiert ist, kann ich gar nicht mehr nachvollziehen.“ Und das führt sie auch schon zur nächsten Frage: „Müssen wir also notgedrungen mit bestehenden Qualitätsmerkmalen brechen, weil sie einfach nicht mehr in die neue Zeit passen?“

Einige der von KIs erzeugten Texte muten zwar wissenschaftlich an, hinterlassen aber selbst bei studierten Lesern Fragezeichen.

„Es gibt Arbeiten, die wissenschaftlich anmuten, wo ich mich als Leserin aber dennoch frage: Was will mir der Text sagen? Ist das Blubberkram, den ich nicht fassen kann? Oder liegt es an meinem begrenzten Intellekt, an meinem Textverständnis?“, fragt sich Weßels manchmal. „Natürlich gibt es künstlich erzeugte Texte die deutliche qualitative Mängel haben. Aber es gibt eben auch Texte, mit denen man hadert und sich sagt, die muss ich nochmal lesen. Vielleicht habe ich sie nicht verstanden oder fehlinterpretiert. Es ist eben oft nicht einfach, Textqualität schnell und eindeutig zu bewerten.“

KI-erzeugte Texte scheinen offenbar vor allem ein Problem für Arbeiten zu sein, die auf Literaturanalysen oder historischen Gedankengängen aufbauen. Das passiert häufiger in den Geistes- und Sozialwissenschaften. An Weßels Fachhochschule ist das nicht so sehr ein Problem. „Hier sind wir im technischen Umfeld unterwegs und haben in der Regel Abschlussarbeiten, in denen sich ein Student oder eine Studentin mit einer praktischen Aufgabenstellung in einem Unternehmen beschäftigt“, erklärt Weßels. „Hier habe ich einen sehr, sehr hohen Eigenanteil, den ich nicht durch Kopieren, Plagiieren oder KI-Texte ersetzen kann.“

Bildungs- und Forschungspolitiker indes scheinen den dramatischen Wandel zu ignorieren.

Denn nicht einmal die Enquete-Kommission des Bundestages „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ wollte die aufkommende Wirkmacht von KI und Sprachgeneratoren für Bildung und Gesellschaft wahrnehmen. Sie legte Anfang November 2020 einen fast 800-seitigen Abschlussbericht vor. Doch die 38 Mitglieder der Kommission, je zur Hälfte Politiker und Experten, gingen auf die wichtigen Fragen nicht ein, die Doris Weßels umtreiben. Für das Gremium ging es in erster Linie um wirtschaftliche Verwertungsmöglichkeiten und technische Kompetenzentwicklung. Deshalb ruft Weßels dazu auf, sich den neuen Techniken zu stellen und deren Möglichkeiten und Potenziale auszuloten:

„Die größte Gefahr ist die Vogel-Strauß-Politik. Stattdessen brauchen wir ein digitales Mindset. Das heißt, sich proaktiv mit diesen Techniken auseinanderzusetzen und sie mit ihren Möglichkeiten auch wirklich in die Lehre zu integrieren.“

Das bedeutet allerdings auch, dass sich Lehrer und Dozenten in immer kürzeren Zyklen an veränderte Rahmenbedingungen anpassen müssen. Denn die Entwicklungen der KI bei der Verarbeitung natürlicher Sprache (Natural Language Processing) sind sehr schnelllebig; neue Techniken haben keine große Vorlaufzeit. Kommt ein neues Sprachmodell, ein neues Werkzeug, dann hilft es nichts, man muss sich halt schnellstmöglich selber darin fit machen“, betont Weßels. „Das macht es wirklich anstrengend, da wir strukturell im Bildungsbereich noch nicht gut mit dieser Schnelllebigkeit klarkommen. Wir müssten also viel, viel mehr in die Ausbildung und Qualifizierung der Lehrenden investieren.“

Im Moment setzt das Bildungssystem vor allem darauf, dass sich Lehrer autodidaktisch weiterbilden – und darin fühlen sie sich sehr alleingelassen.

Gewiss, Schreiben ist immer noch eine gesellschaftliche Schlüsselkompetenz. Aber es gibt viele Routine-, Behörden- und Nachrichtentexte, die sich mit Computerhilfe vielleicht verständlicher, deutlicher und einfacher formulieren lassen. Bei umfangreicheren Werken können künstliche Sprachintelligenzen dabei helfen, stilistisch unglückliche Formulierungen auszumerzen. Und warum sollte auch ein erfahrener Autor nicht einmal probieren, eine Schreibblockade mit dem Stubser einer KI aufzulösen? Ein paar Daten, ein Frage, einen Gedanke in die Tastatur tippen, sich überraschen lassen und dem Aufsatz vielleicht eine neue Richtung geben. Das könnte die Zukunft auch des kreativen Schreibens sein.

TEXT Hanns-J. Neubert
ILLUSTRATION Ibou Gueye
FOTO Fachhochschule Kiel