Jeden Tag sprechen wir mit Computern. Sie heißen Siri oder Alexa, navigieren uns durch Onlineshops, helfen bei der Flugbuchung oder wollen uns von der Pay-TV-Kündigung abhalten. In maritimen Berufen könnten sogar bald Bewerbungsgespräche mit Computern stattfinden – und die Bots entscheiden dann, ob sich die Bewerber für eine Führungsposition an Bord eignen. Die Technik dahinter wird aktuell an der Hochschule Flensburg weiterentwickelt.
Initiiert wurde das Projekt mit dem Namen AudioCAT vom Unternehmen Safebridge, das E-Learning-Angebote für maritime Berufe entwickelt. Beteiligt ist zudem die Hör-, Sprech- und Audiotechnologie des Fraunhofer Instituts für Digitale Medientechnologie (IDMT) im niedersächsischen Oldenburg. „Safebridge hat einen psychometrischen Test entwickelt, mit dem Reedereien die Softskills von Seeleuten ermitteln können“, sagt Peter John. Er ist Professor am Fachbereich Information und Kommunikation der Hochschule Flensburg und leitet das Projekt. „An diesen Test schließt sich ein Interview an – und das wollen wir automatisieren“, ergänzt er.
„Da gibt es 23-Jährige, die plötzlich ein Schiff verantworten, das 200 Millionen Euro kostet und eine halbe Milliarde Euro an Ladung transportiert“ – Peter John
Dabei geht es um nautische Offiziere, also um Führungskräfte an Bord. Es sind maritime Berufe mit einem besonders hohen Anforderungsprofil. „Da gibt es 23-Jährige, die plötzlich ein Schiff verantworten, das 200 Millionen Euro kostet und eine halbe Milliarde Euro an Ladung transportiert“, erklärt Professor John. „Hinzu kommt vom ersten Tag an die Personalverantwortung.“ Kein Wunder, dass Redereien möglichst qualifizierte Bewerber für solche Positionen suchen.
Zum Berufsprofil gehören dabei nicht nur Fachkenntnisse, sondern eben auch sogenannte Softskills wie Teamfähigkeit, Empathie oder Kommunikationsfähigkeit. Denn an Bord treffen auch Kulturen aufeinander: Allein auf deutschen Handelsschiffen ist laut der Knappschaft Bahn und See jeder Dritte Ausländer. Die Ausbildungen in den maritimen Berufen sind unterschiedlich, überall werden andere Schwerpunkte gesetzt. „Es gibt viele Seeleute aus Indonesien, von den Philippinen und aus anderen asiatischen Regionen. Es gibt aber auch viele aus Russland oder der Ukraine“, sagt John. Dementsprechend ist Fingerspitzengefühl gefragt. Und das soll künftig Künstliche Intelligenz ganz objektiv erkennen können.
Die KI muss nicht nur Sprache verstehen, sondern auch unterschiedliche Akzente
Dazu wurde zuerst ein sogenannter Spracherkenner genutzt, im Grunde also das, was auch Unternehmen im Kundenservice oder Apple, Google und Amazon für ihre Sprachassistenten verwenden. Allerdings stoßen bestehende Systeme in diesem Fall an ihre Grenzen. „Wir brauchten einen Spracherkenner, der die maritimen Fachausdrücke kennt. Und der auch in der Lage ist, verschiedene Akzente zu verstehen“, sagt John. „Es ist ein großer Unterschied, ob ein Russe Englisch spricht, ein Deutscher oder ein Filipino.“ Dabei griffen die Wissenschaftler auf ein bestehendes System zurück und entwickelten es in Versuchen mit ihren Probanden weiter. Allerdings musste der Spracherkenner trainiert werden. „Wir konnten nichts aus der Schublade nehmen“, ergänzt der Professor. „Wir müssen den Erkenner immer weiter verändern.“ Dabei waren auch Studierende maßgeblich beteiligt, betont John, der das Projekt noch an der Jade Hochschule in Elsfleth an der Weser gestartet hat. Dort testeten angehende Kapitäne den virtuellen Gesprächspartner und gaben Feedback. „So haben wir das System Stück für Stück verbessert“, stellt der Professor fest.
Flensburger Studierende tauchen tief in die KI ein
Inzwischen kann das Dialogsystem nicht nur alles verstehen, es kann auch auf das Gesagte eingehen. „Es soll besonders natürlich sein“, sagt John, der das Projekt inzwischen von Elsfleth mit nach Flensburg gebracht hat. Hier kann er zwar weniger auf die Unterstützung künftiger Seeleute setzen, dafür aber auf angehende Experten für Fachsprachen. „In Flensburg ist die Situation noch besser, weil die Studierenden ja selbst Redakteure oder Übersetzer für Fachsprache werden“, hebt John hervor. Künftig will er die Studierenden auch eigene Dialogsysteme entwickeln lassen – nicht zwingend nur in maritimen Berufen. Wichtig ist ihm auch: „Sie sollen einfach mal ein Verständnis dafür bekommen, was die Technik heute zu leisten in der Lage ist“ , so der Wissenschaftler. Und vielleicht einen Wegweiser für die eigene Zukunft bekommen. Denn einige Studenten fänden in solchen Projekten ihr späteres Spezialgebiet. Das sei immer ein anderes Lernen als der klassische Frontalunterricht“.
Was die Technik leisten kann, will auch der Wissenschaftler mit dem Projekt AudioCAT herausfinden. „Ziel ist es nicht, ein fertiges Produkt zu entwickeln; wir wollen sehen, wie weit wir kommen“, erklärt Professor John. Denn mit dem reinen Gespräch ist der Computer noch längst nicht fertig. Er soll eben nicht nur mit den Bewerbern sprechen, er soll das Gesagte auch bewerten – oder besser: den Subtext des Gesagten. „Wir sind nicht an den simplen Informationen interessiert. Die fragen wir nur ab, damit der Bewerber locker wird“, sagt John. Stattdessen geht es darum, wie die Fragen beantwortet werden: Spricht der Bewerber in der Wir-Form oder nur von sich selbst? Beschreibt er Situationen positiv oder negativ? Wie spricht er über andere Menschen?
„Das automatisierte Gespräch bekommen wir in jedem Fall hin, das funktioniert schon“, betont der Wissenschaftler. „Nur wie zuverlässig die automatische Bewertung ist, das ist die Frage.“ Damit sich das verbessert, wird es auch künftig Gespräche zwischen AudioCAT und Studierenden geben. Und vielleicht kommt das System später auch bei Reedereien zum Einsatz. Er wäre froh, wenn der Algorithmus irgendwann in der Lage ist, das am wenigsten geeignete Drittel der Bewerber zu identifizieren, resümiert John. „Das würde den Reedereien schon helfen.“
TEXT Robert Otto-Moog
FOTO pexels