Wann darf man Künstlicher Intelligenz vertrauen? Öffentliche Diskussion nach mehrtägigem Workshop

Bild der Pressemitteilung


Künstliche Intelligenz bietet enormes Potenzial: Selbstfahrende Autos, vollautomatisierte Bewerbervorauswahl, OP-Roboter und so weiter; die vorstellbaren Einsatzgebiete sind grenzenlos. Aber fast ebenso grenzenlos ist die Skepsis den intelligenten Computersystemen gegenüber: Warum trifft das selbstfahrende Auto jene Entscheidungen und nicht diese? Wenn der OP-Roboter einen Fehler macht, wieso? Diskriminiert der Algorithmus Minderheiten? „Erklärbare KI“ ist ein großes Forschungsfeld, das sich um Fragen des Verständnisses, des Vertrauens und der Verantwortung dreht. An der Universität des Saarlandes diskutieren vom 30. September bis 2. Oktober Expertinnen und Experten aus Philosophie, Informatik, Rechtswissenschaft und Psychologie über das Thema. Zum Abschluss laden die Initiatoren die interessierte Öffentlichkeit zu einer Podiumsdiskussion ein.

Man stelle sich den öffentlichen Aufschrei vor: Ein Roboter soll Mediziner im Alltag unterstützen, indem er Standardoperationen eigenständig durchführt. Der Chirurg muss sich also nicht mehr mit lästigen Blinddarm-OPs herumschlagen, sondern kann sich besser auf schwierige Tumoroperationen konzentrieren. Nun macht der OP-Roboter aber einen folgenschweren Fehler, und ein Patient stirbt bei der üblicherweise risikoarmen OP. Das Vertrauen in die „intelligente“ Maschine wäre dahin, und fürs Erste würde sich kein Patient mehr dafür entscheiden, vom Roboter operiert zu werden, egal wieviel besser er statistisch im Vergleich zu Menschen operieren mag.

„Klar, Künstliche Intelligenz kann die Welt ein Stück besser machen“, erklärt Kevin Baum, Philosoph und Informatiker an der Universität des Saarlandes. „Aber wir müssen dem System auch vertrauen können, verstehen, warum es wie handelt und warum es womöglich gar versagt.“ Sonst ist das Vertrauen schnell dahin. „Verstehen wir nicht, warum ein Algorithmus dieses und nicht jenes empfiehlt, hilft auch der Mensch am Ende der Entscheidungskette nicht. Wir würden schnell zu willfährigen Knöpfchendrückern degradiert und Verantwortung ginge verloren.“ Wenn dann noch Daten ins Innere von KI verschwinden und wir das Zusammenspiel der Systeme nicht mehr durchschauen, wird aus dem nützlichen Helfer schnell ein dystopischer Alptraum: Maschinen, die außer Kontrolle geraten, Menschen, die keinen Job mehr bekommen, und Algorithmen, die unsere Daten miteinander verknüpfen und uns so zum gläsernen Bürger werden lassen – Nachrichten um die Kameraüberwachung im öffentlichen Raum und das Social-Scoring-System in China, das staatlich definiertes Wohlverhalten belohnt, geben einen Vorgeschmack darauf, wie komplex Abhängigkeiten werden können.

Wie wichtig daher Regeln im Umgang mit und vor allem für den Bau von intelligenten Computersystemen sind, wird immer offenkundiger, je mehr Anwendungsfelder sich für Künstliche Intelligenz auftun. Dabei ist die Regulierung alles andere als ein trivialer Selbstläufer, und selbst die Voraussetzungen für eine solche stellen uns vor Herausforderungen. Informatiker alleine können die Fragen, die sich aus den technischen Möglichkeiten ergeben, nicht beantworten. Dazu müssen viele Gruppen zusammenkommen, um sich über Voraussetzungen für einen regelbaren und geregelten Umgang mit den „intelligenten“ Computersystemen zu verständigen.

In Saarbrücken diskutieren nun Philosophen, Informatiker, Juristen und Psychologen gemeinsam in einem dreitägigen Workshop über „Erklärbare Intelligente Systeme“ und den Umgang mit ihnen in rechtlicher, ethischer und psychologischer Dimension. An der Universität des Saarlandes gibt es seit einigen Jahren einen dynamischen Austausch an der Schnittstelle zwischen Philosophie und Informatik, der sich um die ethischen Fragen des technisch Machbaren kümmert. Unter anderem die Vorlesungsreihe „Ethics for Nerds“, in welcher angehende Informatiker das moralische Rüstzeug für ihr technisches Wirken erhalten, hat sich inzwischen fest im Lehrplan etabliert und erfreut sich großer Beliebtheit.

Der jetzige Workshop geht aus dem Forschungsprojekt „Explainable Intelligent Systems“ hervor, welches derzeit von der Volkswagen-Stiftung im Rahmen ihres Förderprogramms „Artificial Intelligence and the Society of the Future“ finanziert wird. Die Akteure wollen an der interdisziplinären Schnittstelle den Umgang mit Künstlicher Intelligenz in einem Umfang diskutieren, der der gesellschaftlichen Bedeutung des Themas Rechnung trägt. Weitere Veranstaltungen gemeinsam mit internationalen Kooperationspartnern unter anderem in Cambridge und Delft sind bereits geplant.

Angesichts der hohen Relevanz des Themas für unseren zukünftigen Alltag laden die Organisatoren alle Interessierten zu einer öffentlichen Podiumsdiskussion im Saarbrücker Rathaus St. Johann am 2. Oktober als Abschluss des Workshops ein. Der Eintritt ist frei. Beginn ist um 18 Uhr mit einer Begrüßung durch Universitätspräsident Prof. Manfred Schmitt sowie einer Festrede der Juristin Prof. Silja Vöneky (Juristin) von der Universität Freiburg. Im Anschluss diskutieren: Juniorprofessorin Lena Kästner (Philosophin, Universität des Saarlandes), Dr. Steffen-Werner Meyer (Stellvertretender Landesdatenschutzbeauftragter), Dr. Clemens Stachl (Psychologe, LMU München) und Prof. Silja Vöneky. Moderiert wird die Diskussion von Kevin Baum (Informatiker und Philosoph, Universität des Saarlandes).

Weitere Informationen zum Projekt unter https://explainable-intelligent.systems/.
Weitere Informationen zum Workshop unter https://explainable-intelligent.systems/workshop/.
Weitere Informationen zur Podiumsdiskussion unter https://explainable-intelligent.systems/offentliche-veranstaltungen/.

Fragen beantworten:
Kevin Baum
Tel.: (0681) 302-2351
E-Mail: kevin.baum(at)uni-saarland.de

Timo Speith
Tel.: (0681) 302-3651
E-Mail: timo.speith(at)uni-saarland.de