Künstliche Intelligenz und die Frage der Moral

Künstliche Intelligenz und die Frage der Moral

Keine Frage: Künstliche Intelligenz wird unsere Gesellschaft auf Dauer nachhaltig verändern: In unseren Alltag hält sie schon jetzt Einzug, in Autos wird sie bald das Steuer übernehmen, und Roboter werden in Fabriken langfristig die Produktionsabläufe bestimmen. Angesichts wachsender Einsatzmöglichkeiten drängt sich daher unweigerlich die Frage nach den Grenzen auf.

Warum? Das habe ich zwei Experten gefragt. Christian Herzog ist nicht nur promovierter Ingenieur und Ethiker, sondern leitet an der Universität zu Lübeck auch den im Jahr 2020 ins Leben gerufenen Ethical Innovation Hub (EIH). Es geht in diesem universitären Projekt darum, Methoden der verantwortungsvollen Forschung und Innovation zu entwickeln – institutsübergreifend und in Zusammenarbeit mit universitären und nicht-akademischen Partnern. Physik-Professor Mathias Beyerlein ist Präsidiumsbeauftragter für Wissenschaftsethik und Technikfolgenabschätzung an der Technischen Hochschule Lübeck. Ihre gemeinsame Aufgabe: Sie sprechen mit ihren Kolleginnen und Kollegen über die moralischen Dimensionen technischer Forschung, haben aber auch zu diesem Zweck im Rahmen des Projekts „Lübeck hoch drei – LH3“ eine öffentliche Veranstaltungsreihe beider Hochschulen mit dem Titel „Maschinen und Moral“ konzipiert, die ebenso Bürgerinnen und Bürger für das Thema einer verantwortungsvollen Technikgestaltung sensibilisieren soll.

Christian Herzog, promovierter Ingenieur und Ethiker

Brauchen Maschinen eine moralische Steuerung?

Christian Herzog: Ich glaube, die Annahme, dass Technik neutral sei, ist falsch. Wir müssen uns sehr wohl Gedanken machen, welche gesellschaftlichen Folgen neue Technologien mit sich bringen und ob das gesellschaftlich gewollt ist. Das bedeutet nicht, Fortschritt zu verhindern, ganz im Gegenteil. Eher geht es um einen bewussteren Umgang und ein schärferes Nachdenken darüber, was eigentlich mit neuen Technologien erreicht werden soll.

Mathias Beyerlein: Technik sollte unser Leben erleichtern, im Idealfall Leben retten, aber auch Umweltprobleme lösen oder Menschen zusammenbringen. Dabei spielt das Nachdenken über Moral und Ethik eine zentrale Rolle. Natürlich auch, weil sich viele Anwendungen ‚missbrauchen lassen oder plötzlich ganz ‚ungeahnte Folgen haben. Ein aktuelles Beispiel ist die digitale Kryptowährung Bitcoin. Sie wird nicht nur für kriminelle Geschäfte im DarkNet genutzt, sondern ist durch ihren gewaltigen Energieverbrauch auch eine Belastung für die Umwelt.

Warum ist die Moral-Frage bei Künstlicher Intelligenz besonders wichtig?

Mathias Beyerlein: Neue technologische Entwicklungen haben heute eine erhebliche Tragweite, weil sie in der Regel weltweit im Einsatz sind und damit das Leben von sehr vielen Menschen beeinflussen – positiv und negativ. Umso wichtiger ist es, differenziert, nicht nur über Vorteile, sondern eben auch über mögliche Risiken und Gefahren zu sprechen. Das gilt in besonderem Maße für die Künstliche Intelligenz, die nicht nur global verfügbar ist, sondern eben das Potential hat, unser Leben und die Arbeitswelt sehr grundlegend zu verändern – auf ganz vielen Ebenen.

Christian Herzog: Völlig richtig. Durch die Auswirkungen auf unser aller Leben entstehen schneller Debatten. Ein Beispiel ist das autonome Fahren. Die Menschen interessieren sich sehr stark für die Frage, wie sie in Zukunft mobil sein werden, und entsprechend intensiv werden Fragen der Sicherheit von Fahrerassistenzsystemen oder des persönlichen Besitzes von Autos überhaupt in Zukunft diskutiert.

Praxisbeispiel: Ethik und autonomes Fahren

Ein häufig zitiertes Dilemma des Autonomen Fahrens ist das WeichenstellerProblem. Bei einem unvermeidbaren Unfall entsteht dabei die Wahl zwischen zwei Übeln. Eine Person wird überfahren oder gleich drei, manchmal soll auch die Wahl zwischen einer Seniorin und einer Mutter mit Kind getroffen werden. Die Suche nach Antworten ist immer gleich unangenehm. Welches Leben ist denn nun schützenswerter? Gleichzeitig stellt ein WeichenstellerProblem nicht das gesamte autonome Fahren in Frage. Ganz im Gegenteil: Denn es gibt auch große Vorteile. Zum Beispiel könnte die Zahl der Unfälle deutlich sinken. Trotzdem muss es eine Debatte über mögliche Schattenseiten dieser Entwicklung geben. Zum Beispiel erkennt die heutige Sensorik in selbstfahrenden Autos noch dunkelhäutige Menschen schlechter und macht sie damit zu einer im Vergleich stärker gefährdeten Gruppe. Also braucht es bessere Sensortechnik, um einen ‚technischen Rassismus im Straßenverkehr zu verhindern. Ebenfalls heftig diskutiert wird die Frage nach der Haftung bei einem Unfall.  Sind  Fahrzeugentwickler für Schäden verantwortlich oder doch die Menschen, die im selbstfahrenden Auto sitzen? Auch hier gibt bisher keine abschließenden Antworten.

Hemmen moralische Bedenken technischen Fortschritt oder beflügeln sie ihn?

Christian Herzog: Beides ist wichtig! Moralische Überlegungen können bewirken, dass Technologie, und zwar immer dann, wenn es darum geht, große Probleme durch neue Ideen zu lösen. Gleichzeitig müssen ethische Bedenken auch Technik bremsen dürfen, um innezuhalten, das Problem neu zu betrachten und vielleicht nach einer nachhaltigeren Lösung zu suchen. Im Zweifel entstehen durch dieses vermeintliche Ausbremsen wieder neue Innovationen.

Mathias Beyerlein: Mich erinnert diese Frage an das Thema Umweltschutz. Lange wurde Umweltschutz eher als ‚Spaßbremse‘ gesehen, gerade wenn angeblich innovative Bauprojekte wegen Naturschutzgebieten oder bedrohter Tierarten neu geplant werden mussten. Inzwischen zeigt sich aber deutlich, dass Schäden durch das Ignorieren von Einwänden aus ökologischer Sicht nur schwer zu beheben sind und eine bessere Vorausplanung deutlich weniger aufwendig ist. Übrigens sollten all diese moralischen Überlegungen nicht nur im Vorfeld von Entwicklungen angestellt werden, sondern fortlaufend. Technologie sollte immer anpassungsfähig sein – auf neue Vorstellungen, auf veränderte Situationen in der Welt.

Mathias Beyerlein, Präsidiumsbeauftragter für Wissenschaftsethik und Technikfolgenabschätzung

Praxisbeispiel KI und Jobs

Der IT-Verband Bitkom rechnet mit dem Verlust von drei bis vier Millionen Arbeitsplätzen in Deutschland in den nächsten fünf Jahren – vor allem getrieben durch Künstliche Intelligenz. Neue Arbeitsplätze dürften diesen Verlust langfristig nicht ausgleichen. Es stellt sich also die Frage, wie eine Gesellschaft mit diesem Verlust umgeht. Bieten wir Menschen, deren Jobs wegfallen, frühzeitig Umschulungsmöglichkeiten und neue Arbeitsplätze? Erhalten wir vielleicht sogar Jobs, um Menschen in Arbeit zu halten und ihre Existenz zu sichern? Oder werden sogar radikalere Lösungen notwendig sein, wie die Schaffung eines bedingungslosen Grundeinkommens, die mehr Freiheit in der Gestaltung des Alltags ermöglicht? Vielleicht bleibt so mehr Zeit für ehrenamtliches und soziales Engagement? Über diese gesellschaftlichen Fragen müsste dringend und intensiv diskutiert werden!

Wer legt die Grenzen von Technologie fest?

Christian Herzog: Das ist ein längerer Prozess. Am Anfang steht immer ein eher akademisch-technischer Diskurs über die Entwicklung. Doch der allein reicht nicht aus. Es dürfen nicht Einzelne über den Einsatz einer Technologie entscheiden. Ein großes Thema wie autonomes Fahren sollte in allen seinen Dimensionen auch in die breite Öffentlichkeit getragen werden. So können in einem ersten Schritt Debatten geführt werden, so dass danach vielleicht ein gesellschaftlicher Konsens entsteht, den die Politik umsetzen kann. Am Ende braucht es nämlich auch verbindliche Regelungen durch eine nationale oder internationale Gesetzgebung. Ein aktuelles Beispiel dafür ist die Europäische Union, die gerade gesetzliche Rahmenbedingungen für den Einsatz von Künstlicher Intelligenz schaffen will.

Mathias Beyerlein: Bildung ist für mich dabei ein ganz wichtiger Aspekt. Die breite Bevölkerung muss in die Lage versetzt werden, sich selbst ein differenziertes Bild von Chancen und Risiken einer neuen Technologie zu machen. Deshalb müssen Wissenschaftler überzeugend kommunizieren, Medien sachlich informieren und Schulen das Wissen pädagogisch sinnvoll vermitteln. Gelingt das nicht, wird eine möglichst objektive Meinungsbildung schwer. Im Moment sehe ich da noch großen Nachholbedarf in der verständlichen Kommunikation von wissenschaftlichen Erkenntnissen der Forschung und Technik.

Können wir denn überhaupt so weit in die Zukunft schauen, um die Folgen von Technik richtig abzuschätzen? Die Erfinder des Automobils konnten sich bestimmt kaum vorstellen, dass einmal so viele Autos auf den Straßen unterwegs sein würden.

Christian Herzog: Wir sind beim vermeintlichen Blick in die Glaskugel deutlich besser geworden und haben inzwischen viele wissenschaftliche Institutionen, die dabei helfen, die Folgen und Risiken von Technologien abzuschätzen. Außerdem hat sich der Entwicklungsprozess deutlich verändert. Technologien entwickeln sich ständig weiter und diesen Prozess sollten wir stärker begleiten. Das heißt, wir fragen nur nicht am Anfang nach Folgen und Risiken, sondern eigentlich immer wieder. Deshalb sehe ich es als eine wichtige Zukunftsaufgabe, langfristig die ethische Perspektive in den technischen Entwicklungsprozess zu integrieren.

Mathias Beyerlein: Die ständige Beobachtung ist immens wichtig, und gleichzeitig darf ich mich als Wissenschaftler auch nicht darauf verlassen, dass alle Probleme vom Markt und durch die technische Anwendung gelöst werden. Deshalb sehe ich eine immense ethische Verantwortung für die Wissenschaft in der fortwährenden Debatte.

Praxisbeispiel: KI in der Medizin und Roboter in der Pflege

In Senioreneinrichtungen und Krankenhäusern der Zukunft werden intelligente Systeme und Roboter zum Alltag gehören. Sie könnten vor allem schwere oder eintönige Arbeiten übernehmen – zum Beispiel wenn diese Patienten aus dem Bett in den Rollstuhl heben und zu Therapien bringen oder das Essen liefern. Die Hoffnung: Der Arbeitsalltag der Pflegekräfte wird so wesentlich erleichtert, so dass mehr Zeit für die persönliche Betreuung und Behandlung bleibt. Doch auch hier gibt es natürlich Bedenken: Wie viel zwischenmenschliche Tätigkeit darf überhaupt an Maschinen ausgegliedert werden?  Übernehmen am Ende Roboter gar Teile der Pflege? Vor einer ähnlichen Revolution steht auch der Operationsaal. Roboter-Systeme könnten bald Hand in Hand mit den Chirurgen arbeiten. Und Künstliche Intelligenz könnte bei der Auswertung von Röntgen- oder CT-Aufnahmen helfen. Aber wer haftet für medizinische Fehler? Und wie verhindert man, dass die sensiblen und digitalen Patienten-Daten in falsche Hände geraten?

Wie ist diese ‚Moralinstanz‘ bei Ihnen in der Hochschule verankert?

Mathias Beyerlein: Wir stehen an der Technischen Hochschule Lübeck noch relativ am Anfang. Wir haben wie fast alle Hochschulen eine Ethikkommission, bestehend aus Fachleuten der Medizin, Technik und Geisteswissenschaften. Diese berät zum Beispiel bei Studien mit Menschen oder bei Versuchen mit Tieren. Wir geben dann eine klare Empfehlung zur Gestaltung der Studien ab. Meist sind ethischen Fragen auch schon ein wichtiger Teil von Anträgen für Forschungsgelder und Stipendien.

Christian Herzog: Mit unserem Ethical Innovation Hub sind wir wahrscheinlich schon einen Schritt weiter – als Ansprechpartner für die Forschenden und ihre Fragen, gerade am Anfang von Forschungsprojekten. Das liegt auch daran, dass die gesellschaftlichen Dimensionen von Wissenschaft immer wichtiger werden, zum Beispiel bei der Beantragung von Forschungsgeldern. Das ist ein positiver Trend. Was wir nicht leisten können, ist eine enge Begleitung von allen Forschungsprojekten an der Hochschule. Umso wichtiger ist es, alle Forschenden für ethische Fragen zu sensibilisieren. Neben der Beratung versuchen wir auch, neue Bildungsformate zu schaffen. Zum Beispiel haben wir neben Vorlesungen und Seminaren auch eine öffentliche Veranstaltungsreihe, in der internationale Wissenschaftler:innen über ihre Projekte zu Technik und Ethik berichten.

Auch unter dem Dach von Lübeck hoch drei (LH³) wird sich es zukünftig mehr Austausch mit interessierten Bürger:innen zu technisch-ethischen Fragen geben. Forschende sollen dabei in regelmäßigen Abständen öffentlich und digital über „Verantwortungsvolle Technikgestaltung in Forschung, Entwicklung und Lehre“ berichten und dabei auch mit interessierten Bürger:innen ins Gespräch kommen. Auftakt machte dabei eine Veranstaltung unter dem Titel „Maschinen und Moral“ mit dem bekannten Physiker und Philosoph Armin Grunwald. Er ist Direktor des Instituts für Technikfolgenabschätzung und Systemanalyse am Karlsruher Institut für Technologie. Weitere Veranstaltungsformate sind geplant. Eine Aufzeichnung seines spannenden Vortrags gibt es hier https://www.eih.uni-luebeck.de/home/machines-morals/previous-events/maschinen-und-moral-2021-mit-armin-grunwald.html.

 

TEXT Birk Grüling
FOTOS Shutterstock, Thomas Berg, Luca-Förster