„KI ist ein Werkzeug, und die Gesellschaft muss entscheiden, wie sie es nutzt.“

„KI ist ein Werkzeug, und die Gesellschaft muss entscheiden, wie sie es nutzt.“

Large Language Models, internationaler Wettbewerb und Schule im Zeitalter von KI – unsere Gesellschaft muss Entscheidungen treffen, wie die Mensch-Maschine-Interaktion in Zukunft aussehen soll. Seit dem 1. Juli 2023 ist Dirk Johannßen als Professor für künstliche Intelligenz in der Mensch-Maschine-Interaktion an der FH Westküste in Heide tätig. Mit ME2BE sprach der 33-Jährige über seinen atypischen Werdegang, Potenziale und Gefahren von KI und Auswirkungen auf die Arbeitswelt von morgen.

Herr Prof. Johannßen, Sie nennen Ihren Werdegang atypisch. Wie gestaltete er sich bislang?

Ursprünglich besuchte ich eine Realschule und mein Plan war, Landwirt zu werden. Damals zeigte sich das Bild in der Ausbildungslandschaft umgekehrt, und es war schwierig, einen Ausbildungsplatz zu finden. Aus der Frustration heraus schloss ich ein Abkommen mit meinem Vater, das vorsah, eine High School in den USA zu besuchen und das Abitur abzulegen. Zurück in Deutschland zog es mich an die TU München, doch die Lebenshaltungskosten und die Entfernung schreckten meine Familie ab, da ich einer der ersten aus der Familie war, der sich für ein Studium entschied. Daraus entstand der Gedanke, ein duales Studium zu absolvieren.

Brachten Sie die berühmte gute Mathematiknote zu Ihrem Informatikstudium mit?

Meine schulischen und akademischen Leistungen waren in Ordnung, aber nie herausragend. Ich halte das Notensystem für problematisch, um eine Eignung attestieren zu können. Denn die Begeisterungsfähigkeit junger Menschen wird nicht immer durch Noten belohnt. Im dualen Studium galt es beispielsweise, kompakt zu lernen, da sich Theorie- und Praxisphasen abwechselten. Zu Beginn habe ich einige Klausuren in den Sand gesetzt und dachte darüber nach, das Studium zu beenden. Grund dafür war, dass, wenn mich Studienthemen faszinierten, ich mich in diese vertiefte und lieber programmierte, statt in der Zeit das breite geforderte Wissen zu konsumieren.

Wie sah Ihr Weg vom Bachelor zur Professur aus?

Ich begann den dualen Bachelor in Wirtschaftsinformatik an der privaten Fachhochschule FH Nordakademie in Elmshorn und bei einer Aktiengesellschaft. Den Master schloss ich berufsbegleitend an der Nordakademie an. Dieses Mal suchte ich eine echte Forschungslücke, die mich zur Verknüpfung von Maschinellem Lernen und Psychologie brachte. Und so kam es, dass sich mir zu diesem neuen Themenfeld eine Promotion anbot. Dazu brauchte es zusätzlich einen Doktorvater oder eine Doktormutter an einer Universität mit Promotionsrecht. Auch dieses Mal ging ich berufsbegleitend vor. Dieser Weg brachte mich darauf, Dozent zu werden, und um mehr Autonomie zu erhalten, strebte ich die Professur an. Das Gute lag in der Seltenheit des Themas rund um künstliche Intelligenz, natürliche Sprachverarbeitung und Psychologie. Zufällig gab es zu der Zeit eine Ausschreibung zur KI-Professur, die auf eine Strategie der Landesregierung zurückgeht, zwölf Professuren im KI-Bereich auszuschreiben, um KI in Schleswig-Holstein nach vorne zu bringen. So habe ich mich schließlich erfolgreich beworben.

Worin sehen Sie die Vor- und Nachteile eines dualen Studiums?

Den Vorteil sehe ich vor allem darin, dass man den praktischen Bezug zum Erlernten stets omnipräsent hat. Man lernt Konzepte, die an der Fachhochschule fest mit der Realität verknüpft sind und hat die Möglichkeit, das Erlernte unmittelbar im Unternehmen anzuwenden. Auch die während des Studiums bestehenden Verbindungen zur Wirtschaft sind von Vorteil, um später eine Stelle zu finden. Die Unternehmen stehen in der Regel als Partner im dualen Studium bereit, weil sie die jungen Absolventinnen und Absolventen an sich binden möchten. Zusätzlich erhält man eine Ausbildungsvergütung. Ich bin ein Verfechter gegen Disparitäten – das ist mein großes sozialpolitisches Leitthema. Heutzutage entscheidet viel zu sehr die familiäre Situation darüber, ob man sich ein Vollzeitstudium leisten kann.

Mann vor Whiteboard

Nach seiner Promotion durfte Johannßen im Jahr 2023 die Professur für künstliche Intelligenz in der Mensch-Maschine-Interaktion annehmen.

Warum ist Ihre Professur am Fachbereich Wirtschaft angesiedelt?

Zukünftig ist zusätzlich eine Professur im Bereich Data Science geplant, die im Fachbereich Technik angesiedelt sein wird. Da wir eine Wechselwirkung erzeugen wollen und möchten, dass die Fachbereiche Wirtschaft und Technik enger zusammenarbeiten und sich austauschen, gibt es diese Zuordnung. Beispielsweise gebe ich aktuell eine relativ große Vorlesung für den Bereich Technik. Es hat aber auch damit zu tun, dass mein Promotionsthema die natürliche Sprachverarbeitung diagnostisch-psychologischer Texte war, dabei ging es darum, KI auf psychologische Texte anzuwenden. Dieser Anwendungsbereich birgt viele Implikationen für die Wirtschaft. Stichwort: Wie können Teams besser zusammenarbeiten, wie kann man junges Potenzial identifizieren, wo gibt es eventuell Konflikte im sozialen Miteinander.

Wie lässt sich das Thema Ihrer Promotionsarbeit zusammenfassen?

Meine Abschlussarbeit drehte sich darum, Persönlichkeitsmerkmale von Menschen herauszufinden. Viele psychische Bereiche sind unbewusste Prozesse und lassen sich nur durch gewisse Reaktionen, durch Behaviorismus, beobachten. Diese ermöglichen Rückschlüsse, wie man Probleme löst oder wie Charaktereigenschaften aussehen. Geachtet wurde auf gemeinsame Persönlichkeitsmerkmale von Menschen, die in mehrdeutigen Bildern ähnliche Projektionen sahen. Beispielsweise gab es Merkmalskategorien wie leistungsorientiert, anbindungsorientiert oder kooperativ. Daraus folgten weitere Implikationen. Beispielsweise, dass zehn machtorientierte Menschen schlechter als Team funktionieren als eine heterogene Gruppe aus wenigen machtorientierten Typen, anbindungsorientierten Typen als Brücke zu Kunden und leistungsorientierten Typen, die ein innovatives Produkt ausarbeiten. Die Grundlagenforschung untersucht, wie man diese Persönlichkeitsmerkmale maschinell aus Texten herauslesen kann. Durch diese Methoden können neben Teamzusammensetzungen auch Aussagen über volkswirtschaftliche Effekte getroffen werden. Beispielsweise haben wir anhand von Tweets Aggressionspotenzial vor und während der Coronapandemie untersucht. So war ein leicht gesteigertes Aggressionspotenzial zu erkennen, aber nicht so stark wie vermutet.

Wie schätzen Sie die Gefahr von KI-Methoden als Katalysator von Stereotypen ein – beispielsweise im Hinblick auf die Bewerberauswahl im HR-Bereich?

Das ist ein zweischneidiges Schwert. Doch speziell Projektivverfahren haben sich als sehr neutral herausgestellt. Parameter wie Geschlecht, Herkunft oder Orientierung spielen keine Rolle, weshalb solche Verfahren sogar als geeigneter erachtet werden, um Fairness zu schaffen, als beispielsweise Schulnoten. Denn gerade in diesem Bereich herrscht eine ausgeprägte Subjektivität vor. Da gibt es zum Beispiel den Halo-Effekt, der zeigt, dass gut aussehende Menschen bessere Noten erhalten oder große Genderunterschiede bei gleicher Leistung. Aber auch bei Auswahlverfahren von Personalverantwortlichen dominiert der subjektive Eindruck. Hier könnten Projektivverfahren helfen. Aber auch wenn ich aus wissenschaftlicher Sicht sagen könnte, dass Eignungsdiagnostik durch Projektivverfahren sinnvoll sei, weil diese neutraler sind, würde ich vor dem Einsatz von KI in der Eignungsdiagnostik generell warnen.

Worin liegt das Gefahrenpotenzial?

Die KI repliziert, was sie in den Daten findet. Wenn man sie mit früheren Personalentscheidungen füttern würde und Daten wie Lebenslauf und Anschreiben eingibt, sucht die KI die deutlichsten Muster, um das eingegebene Ziel zu erreichen und ihre eigene Performance zu verbessern. KI ist häufig eine Echokammer, die Ressentiments und Vorurteile auch verstärken kann. Würde man also ungefiltert Bewerbungsunterlagen in eine KI geben und eingeben: ‚Wurde eingestellt, wurde nicht eingestellt’, könnte sie obskure Schlüsse daraus ziehen – beispielsweise dass eine Postleitzahl dazu führt, ob jemand angestellt wird oder nicht. Selbst wenn in der Vergangenheit vermehrt Menschen aus einem Postleitzahlbereich angestellt wurden, womöglich weil sie dort einen besseren Bildungsstand haben, heißt das natürlich nicht, dass wir das für die Zukunft wollen.

Könnte man derlei Variablen nicht ausschalten?

Das Gefährliche ist, dass die häufigsten KI-Systeme heutzutage aus neuronalen Netzen bestehen, die schwer erklärbar sind. Sie lassen oft eine faszinierende Performance erkennen, und wenn man hinterfragt, wonach sie entscheiden, wird mit den Schultern gezuckt. In neuronale Netze hineinzuschauen, ist aktuell noch nicht möglich. Die Strukturen sind zu komplex und die Zusammenhänge zu schwer nachvollziehbar. Man kann versuchen, Vorurteile im Vorhinein zu prädizieren, das nennt man Bias, nur erfordert das extrem viel Wissen und Vorsicht und manchmal auch die Bereitschaft, das eigene System in der Performance schlechter werden zu lassen. Leider gibt es etliche Unternehmen, die an der reinen Performance interessiert sind.

Spätestens seit dem Aufkommen von Chat GPT hat KI auch den letzten Unwissenden erreicht. Finden Sie, dass Tools wie ChatGPT bereits in einem solchen Stadium in Schulen Einzug halten sollte?

Das Thema Chat GPT oder generell Large Language Models an Schulen ist vielschichtig. Auf der einen Seite bin ich der Ansicht, dass Schulen in Deutschland grundlegend reformbedürftig sind. Noch immer verfolgen sie das Humboldtsche Bildungsideal, das seinerzeit auch sehr positive Implikationen besaß. Heutzutage steht unsere Gesellschaft jedoch vor anderen Herausforderungen. Das Thema Disparitäten liegt mir am Herzen, und der Niedriglohnsektor war noch nie so groß in Deutschland und ein Sechstel ist in Deutschland vom Armutsrisiko betroffen. Auch die Sozialversicherungssysteme stehen aufgrund des demographischen Wandels auf der Kippe. Das sind Zeiten, in denen ich mir wünsche, dass Schule etwas realpraktischer arbeitet und beispielsweise flächendeckend Steuer- und Investitionslehre sowie Informatik unterrichtet. Denn wir können derzeit schwer abschätzen, welche Fähigkeiten wir in Zukunft auf dem Arbeitsmarkt benötigen. Informatik zu entwickeln, ist etwas anderes, als sie zu benutzen. Das Entwickeln birgt jedoch hohe Einstiegshürden.

Wie sollten wir Schülerinnen und Schüler am besten auf die Arbeitswelt von morgen vorbereiten?

Ich glaube, dass die sprachlichen Implikationen von Sprachmodellen bereits jetzt derart groß sind, dass später kaum noch ein Beruf und kaum ein Unternehmen ohne die Unterstützung von solchen System auskommen werden. Daher denke ich, dass die Fähigkeit, sinnvoll Prompts zu verwenden, in zehn bis zwanzig Jahren auf einer ähnlichen Stufe stehen wird wie allgemeine EDV-Kenntnisse heute und Schule dieses Wissen integrieren sollte. In der Praxis muss man wiederum beachten, dass die Lehrkräfte stellenweise erschöpft sind, Leistung auf diesem Gebiet abzufragen und gerecht zu bewerten. Zusätzlich stellt sich die Frage: Wollen wir Schülerinnen und Schüler dazu bringen, weiterhin etwas quasi im Vakuum ohne das Internet zu erschaffen, oder sagen wir, wenn sie in der Lage sind, mit dem Input einer Maschine oder einem Tool hervorragende Ergebnisse zu erreichen, dann ist das ausreichend. Diese Frage sollte zunächst grundlegend beantwortet werden.

Mann und Roboter

Johannßen mit dem Roboter Pepper.

Wie bewerten Sie die Zukunft von Sprachmodellen in Bezug auf den Arbeitsmarkt?

Ich glaube zum Beispiel nicht, dass wir komplett auf die Kreativjobs verzichten können oder sollten. Sprachmodelle implizieren, dass wir nicht unabhängig arbeiten können, denn aktuell sind sie ein Monopol von sehr mächtigen Unternehmen. Die Einzigartigkeit von Texten würde verloren gehen – liest man beispielsweise einen Text von Kafka, ohne zu wissen, dass er von Kafka stammt, beschleicht einen dennoch das Gefühl, er ist kafkaesk.
Im Journalismus spielt zudem die Fähigkeit des kritischen Denkvermögens eine große Rolle. Sprachmodelle erscheinen aktuell gewissermaßen wie der uninformierte, aber eloquente Mensch uns gegenüber, der hübsch verpacktes Seemannsgarn spinnt. Der Journalismus hingegen prüft, selektiert, hinterfragt Quellen kritisch und bringt seinem Rezipienten komplizierte Sachverhalte in verständlicher Manier näher. Ich zweifle daran, ob Sprachmodelle das können oder tun sollten. Sprachmodelle sind probabilistische Modelle (Anm. d. Red.: Probabilistische Modelle sind mathematische Modelle, die Zufallsvariablen und Wahrscheinlichkeitsverteilungen mit einschließen und mit Hilfe derer Wahrscheinlichkeitsaussagen getroffen werden können), die irren, Fehleinschätzungen machen und bei gleichem Input unterschiedlichen Output liefern können. Daher müsste Skeptizismus stärker gelehrt werden.

Warum glauben Menschen so oft, was sie sehen und fallen auf Fake News rein?

Fake News von richtigen Nachrichten zu unterscheiden, kostet Mühe. Wir müssen dazu aus der Komfortzone heraustreten. KI umgibt uns und fast alle Informationen, die uns umgeben, sind selektiert durch Recommendation Systeme (Anm. d. Red.: Recommendation Systeme meint Empfehlungsdienste, die gezielt die individuellen Interessen einzelner Konsumenten ansprechen.), die uns zeigen, was wir gerne lesen oder sehen möchten, denn Menschen suchen in der Regel Bestätigung.

Wie bewerten Sie den Umgang anderer Länder mit KI im Vergleich zu Deutschland?

Die Grundattitüde der USA und fernöstlicher Länder wie China ist KI gegenüber sehr aufgeschlossen. KI wird dort als grundlegendes Werkzeug verstanden, das in der Lage ist, Probleme zu lösen. Im Allgemeinen sagt man dort, dass die Erforschung und Erweiterung dieses Werkzeugs frei sind und KI unterstützt werden sollte. In Europa ist es aktuell so, dass man KI weniger als grundlegendes Werkzeug versteht, sondern vorher überlegt, wie verhindert werden kann, dass KI Gefährliches erzeugt. So hat Europa sich vor Kurzem eine Strategie überlegt, KI einzuteilen in ‚unakzeptable Risiken’, ‚Hochrisiken’, ‚hohe Risiken’ und ‚wenige Risiken’. Die generative KI, damit auch ChatGPT oder KI, die automatische Zusammenfassungen erzeugen kann, steht im ‚Hochrisikobereich’. Das bedeutet für diesen Bereich, dass er Probleme hat, Mittel zur Erforschung zu erhalten. Was es wiederum schwierig macht, KI als Werkzeug und hilfreiches Tool in die Wirtschaft zu bringen. Ich würde befürworten, bestimmte Anwendungen gesetzlich zu reglementieren. Beispielsweise, dass ein Dozent sagt: ‚ChatGPT, fass mir diese Abschlussarbeit zusammen und benote sie für mich.’ Aber grundlegende Zusammenfassungen als Risiko anzusehen, halte ich für problematisch. Denn der akademische Mittelbau ist hochgradig abhängig von Drittmitteln, sodass in Europa nur das erforscht wird, was sich monetarisieren und in die Wirtschaft bringen lässt. Ein Computer ist auch zunächst ein neutrales Werkzeug. Ich kann mit ihm Gutes erschaffen, könnte aber auch hacken. Die Anwendung, also das Hacken, wird unter Strafe gestellt, aber nicht der Computer als solcher. So hege ich die Sorge, dass Deutschland und Europa, die KI-forschungstechnisch ohnehin bereits hinterherhinken, den Anschluss verlieren. Würde das geschehen, wären wir irgendwann nicht mehr in der Lage, die Regeln zu definieren, so wie ChatGPT als Produkt der USA nach den US-Regeln spielt.

Was wünschen Sie sich für die Zukunft der KI?

Ich wünsche mir, dass die Menschen lernen, die Angst vor KI ein Stück weit hinter sich zu lassen. Das KI-Portfolio ist gigantisch groß und birgt viele hilfreiche Anwendungen. Zudem würde ich mir wünschen, dass KI in der Bildung fest verankert wird und die Menschen so in die Lage versetzt werden, sie einzuschätzen und von ihr zu profitieren. Wir stehen großen Herausforderungen gegenüber, unter anderem dem Klimawandel und dem demographischen Wandel, und KI hat das Potenzial, für viele unserer Fragen Lösungen bereitzustellen. Mein Traum wäre, dass KI so transparent wird, dass wir ihren Einsatz zur Gänze verstehen, die Kontrolle behalten und erkennen, wenn sie falsch eingesetzt wird. Außerdem wünsche ich mir eine gesellschaftliche Diskussion über soziale Risiken wie Disparitäten und darüber, dass Unternehmen KI nicht dafür einsetzen sollten, um Menschen zu ersetzen, sondern beispielsweise Modelle anzudenken wie gleichbleibenden Lohn bei reduzierter Arbeitszeit. Denn das könnten wir uns in Bezug auf unsere Wertschöpfung leisten. Leider ist es oft so, dass KI effizienzsteigernd eingesetzt wird und aus 50 Mitarbeitern in Zukunft 25 werden, statt die 50 an der Effizienzsteigerung zu beteiligen. Die 25 übrigen werden dann womöglich noch schlechter bezahlt, weil die höhere Arbeitslosigkeit Lohndumping ermöglicht. KI ist ein Werkzeug und die Gesellschaft muss entscheiden, wie sie es nutzt.

TEXT Kristina Krijom
FOTO privat, FH Westküste