Wissenschaft erklärt im Interview mit der Philosophin und Medienethikerin Jessica Heesen. Sie leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften der Universität Tübingen und die Arbeitsgruppe „IT-Sicherheit und Privacy, Recht und Ethik“ der Plattform Lernende Systeme. Im Interview erläutert sie, mit welchem Ziel wir Künstliche Intelligenz, die auch bei Modellen für Klimaprognosen zum Einsatz kommt, nutzen sollten.
Frau Heesen, wie lässt sich Künstliche Intelligenz zielgerichtet zum Wohl der Menschen einsetzen?
Das lässt sich erst einmal gar nicht so einfach sagen, solange wir nicht übereinstimmen, was denn das Wohl des Menschen ist. Verbreitet ist etwa das Menschenbild des homo oeconomicus, in dem der Mensch seine Handlungen zum Zweck des persönlichen und finanziellen Profits ausrichtet. Möchte man KI entsprechend dieses Menschenbildes einsetzen, würde genau das passieren, was wir derzeit beobachten können: Unternehmen nutzen Künstliche Intelligenz zur Profitmaximierung, unter anderem, indem sie Überkonsum erzeugen. Das gelingt ihnen im Online-Handel beispielsweise durch personalisierte Werbung oder automatisierte Empfehlungen.
Ich glaube jedoch nicht, dass der Mensch grundlegend nur auf Profite aus ist. Vielmehr ist er ein soziales Wesen, das in einer Gemeinschaft leben will und bestimmte Werte anstrebt – etwa soziale Anerkennung. Möchte man Künstliche Intelligenz im Sinne dieses Menschenbildes nutzen, treten soziale und ökologische Themen in den Vordergrund. Der Anreiz des Einzelnen, KI-Systeme für sozialökologische Nachhaltigkeit hervorzubringen, könnte hier also die soziale Anerkennung anstelle des Profits sein. Was wir benötigen, ist also zunächst ein Anreizsystem, auf dessen Grundlage KI genutzt wird. Der Staat hat dafür zahlreiche Instrumente zur Verfügung, beispielsweise die Förderung von Ehrenamt oder sogenannte Civic Technologies mit Wettbewerbsausschreibungen.
Wie gelingt es, die breite Gesellschaft in eine Zukunft mit KI zu führen?
Zuallererst muss man dafür natürlich anmerken: KI-Systeme werden schon heute in den verschiedensten Bereichen angewendet, es ist also keineswegs eine Frage für die Zukunft. Dennoch haben viele Menschen Vorbehalte gegen Künstliche Intelligenz. Oftmals wird gesagt, dass man vertrauen müsse – als ob die Bürgerinnen und Bürger dabei in der Pflicht seien.
Dabei ist es doch so: Um begründetes Vertrauen zu schaffen, muss zunächst das Misstrauen akzeptiert werden, denn nur so können sich die Nutzerinnen und Nutzer ein eigenes Bild von den Chancen und Risiken der Anwendungen machen. Es geht also um Transparenz. Aber Transparenz darf auch nicht als Selbstzweck verstanden werden. Nur wenn Einzelpersonen auch eine tatsächliche Wahl haben, sich gegen die Nutzung der Anwendung zu entscheiden, ist Transparenz eine vertrauensbildende Maßnahme.
Eine weitere Maßnahme ist die Zertifizierung von Künstliche Intelligenz. Für die Nutzerinnen und Nutzer ist der Datenschutz ein wichtiges Thema, doch auch für ökologische Nachhaltigkeit sind Zertifikate ein gutes Steuerungselement, beispielsweise durch eine Selbstverpflichtung in der Industrie. Allerdings gestaltet es sich sehr schwierig, sich auf gemeinsame Kriterien für eine Zertifizierung von KI zu einigen, zumal immer wieder gemahnt wird, dass eine zu scharfe Regulierung die Wirtschaft und Innovationen bremst.
Hier klingt an, dass Interessen der Wirtschaft und Gemeinwohl nicht immer übereinstimmen. Brauchen wir mehr Eingriffe in die freie Marktwirtschaft in Sachen Künstliche Intelligenz?
Eine wirklich freie Marktwirtschaft haben wir in dieser Sache ja gar nicht, denn es bestehen starke Monopole auf dem Markt, wenn es um KI geht. Google ist dafür nur ein Beispiel. Und ja, hier können Eingriffe ein Teil der Lösung sein. Wie eine nachhaltige und gerechte Entwicklung in der Digitalisierung aussehen soll, sollten wir nicht Konzernen überlassen. Stattdessen sollten wir eine plurale Wirtschaft anstreben, in der sich auch einzelne wohlwollende Entwicklerinnen und Entwickler durchsetzen können. Das ist momentan nicht der Fall.
Natürlich muss auch darüber gesprochen werden, was mit den mit Künstlicher Iintelligenz erwirtschafteten Gewinnen passiert. Die High Level Expert Group on Artificial Intelligence spricht sich in ihren Ethik-Guidelines etwa dafür aus, dass Gewinne gerecht in der Gesellschaft verteilt werden. Man sollte betonen, dass KI nicht nur Unternehmen und wohlhabenden Einzelpersonen nutzt, sondern auch die soziale Wohlfahrt stärken und einen Vorteil für alle erbringen kann. Dann wird auch die Zustimmung für KI in der Bevölkerung wachsen.
Quelle und Foto: Plattform Lernende Systeme