Künst­li­che In­tel­li­genz ver­steh­bar ma­chen – Er­kl?r­pro­zes­se ge­stal­ten

 |  Forschung

Wissenschaftler*innen der Universit?ten Paderborn und Bielefeld erforschen neue Form der Mensch-Maschine-Interaktion

Bewerbungen aussortieren, R?ntgenbilder begutachten, eine neue Songliste vorschlagen – die Mensch-Maschine-Interaktion ist inzwischen fester Bestandteil des modernen Lebens. Grundlage für solche Prozesse künstlicher Intelligenz (KI) sind algorithmische Entscheidungsfindungen. Da diese in der Regel aber schwer nachzuvollziehen sind, bringen sie h?ufig nicht den erhofften Nutzen mit sich. Um das zu ?ndern, diskutieren Wissenschaftler*innen der Universit?ten Paderborn und Bielefeld, wie die Erkl?rbarkeit künstlicher Intelligenz verbessert und an die Bedürfnisse der Menschen angepasst werden kann. Der Ansatz wurde jetzt in dem renommierten Journal ?IEEE Transactions on Cognitive and Developmental Systems“ ver?ffentlicht. Die Forscher*innen stellen Erkl?ren dabei als eine soziale Praktik vor, bei der beide Seiten den Prozess des Verstehens gemeinsam konstruieren.

Erkl?rbarkeitsforschung

?Künstliche Systeme sind komplex geworden. Das ist ein ernsthaftes Problem – insbesondere dann, wenn Menschen für computerbasierte Entscheidungen verantwortlich gemacht werden", betont Prof. Dr. Philipp Cimiano, Informatiker der Universit?t Bielefeld. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nachzuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ans?tze, die eine Erkl?rbarkeit entsprechender Systeme zum Gegenstand h?tten, ausreichend sei das aber noch lange nicht. Auch Prof. Dr. Katharina Rohlfing von der Universit?t Paderborn best?tigt den dringenden Handlungsbedarf: ?Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden. Das Anliegen ist nicht ohne Grund Gegenstand der General Data Protection-Verordnung der Europ?ischen Union.“ Das Ziel, Algorithmen zug?nglich zu machen, ist Kern der sogenannten ?eXplainable Artificial Intelligence (XAI)“: ?Bei der Erkl?rbarkeitsforschung stehen Transparenz und Interpretierbarkeit aktuell als gewünschte Ergebnisse im Mittelpunkt“, so Rohlfing über den Stand der Forschung.

Entscheidungsfindung nachvollziehen

Die an der Ver?ffentlichung beteiligten Wissenschaftler*innen gehen einen Schritt weiter und untersuchen computerbasierte Erkl?rungen aus unterschiedlichen Blickwinkeln. Dabei sehen sie es als gesetzt an, dass Erkl?rungen nur dann für die Anwender*innen nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen: ?Wir wissen aus vielen Alltagssituationen, dass eine gute Erkl?rung für sich nichts bringt, wenn die Erfahrungen der anderen Seite unberücksichtigt bleiben. Wer sich wundert, warum seine Bewerbung durch den Algorithmus aussortiert wurde, m?chte normalerweise nichts über die Technologie des maschinellen Lernens erfahren, sondern fragt nach der Datenverarbeitung in Bezug auf die eigenen Qualifikationen“, erkl?rt Rohlfing.

?Wenn Menschen miteinander interagieren, sorgt der Austausch zwischen den Beteiligten dafür, dass eine Erkl?rung an das Verst?ndnis des Gegenübers angepasst wird. Der Gespr?chspartner stellt vertiefende Fragen oder kann Unverst?ndnis ?u?ern, das anschlie?end aufgel?st wird. Im Fall von künstlicher Intelligenz ist das aufgrund mangelnder Interaktionsf?higkeit mit Einschr?nkungen verbunden“, so Rohlfing weiter. Um das zu ?ndern, arbeiten Linguist*innen, Psycholog*innen, Medienforscher*innen, Soziolog*innen, ?konom*innen und Informatiker*innen in einem interdisziplin?ren Team eng zusammen. Die Expert*innen untersuchen Computermodelle und komplexe KI-Systeme sowie Rollen des kommunikativen Handelns.

Erkl?ren als soziale Praktik

Die Paderborner und Bielefelder Wissenschaftler*innen haben einen konzeptionellen Rahmen für das Design von erkl?rbaren KI-Systemen entwickelt. Rohlfing: ?Mit unserem Ansatz k?nnen KI-Systeme ausgew?hlte Fragen so beantworten, dass der Prozess interaktiv gestaltet werden kann. Auf diese Weise wird eine Erkl?rung auf den Gespr?chspartner zugeschnitten und soziale Aspekte in die Entscheidungsfindung miteinbezogen.“ Das Forscher*innenteam versteht Erkl?rungen dabei als Abfolge von Handlungen, die von den Parteien im Sinne einer sozialen Praktik zusammengebracht werden.

Konkret soll das durch das sogenannte Scaffolding und Monitoring gesteuert werden. Die Konzepte stammen aus dem Bereich der Entwicklungsforschung: ?Vereinfacht ausgedrückt beschreibt Scaffolding – aus dem Englischen für ?Gerüst‘ – eine Methode, bei der Lernprozesse durch Denkanst??e und Hilfestellungen unterstützt und in Teilschritte zerlegt werden. Beim Monitoring geht es um das Beobachten und Einsch?tzen der Reaktionen des Gegenübers“, so Rohlfing. Ziel der Wissenschaftler*innen ist es, diese Prinzipien auf KI-Systeme anzuwenden.

Neue Assistenzformen

Der Ansatz soll die aktuelle Forschung erweitern und neue Antworten auf gesellschaftliche Herausforderungen im Zusammenhang mit künstlicher Intelligenz geben. Die zugrundeliegende Annahme ist, dass es nur dann gelingen kann, aus einer Erkl?rung Wissen und weiteres Handeln abzuleiten, wenn der Gespr?chspartner in den Erkl?rprozess miteinbezogen wird. Im Kern geht es dabei um die Teilnahme der Menschen an soziotechnischen Systemen. ?Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erkl?rbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu erm?glichen“, fasst Rohlfing zusammen.

Zum Paper: Explanation as a social practice: Toward a conceptual framework for the social design of AI systems - IEEE Journals & Magazine

Nina Reckendorf, Stabsstelle Presse, Kommunikation und Marketing

Foto (Universit?t Paderborn): Die Mensch-Maschine-Interaktion ist komplex. Um computerbasierte Entscheidungen nachvollziehen zu k?nnen, bedarf es Erkl?rungen.

Kontakt