Künstliche Intelligenz verständlich machen

Künstliche Intelligenz (KI) soll Entscheidungen erleichtern oder sie im besten Fall sogar ganz abnehmen. Besonders im Finanzbereich entstehen so spannende Möglichkeiten. Wie verovis versucht, Kunden die Künstliche Intelligenz verständlich zu machen.

Künstliche Intelligenz verstehen? Nicht nur eine Frage der Abwägung

Derzeit beliebte Beispiele für prädiktive Verfahren im Finanzbereich stellen die Vorhersagen von Cashflow oder EBIT dar. Doch liegt es in der Natur des Menschen, diese Vorhersagen nachvollziehen zu wollen. Das gilt vor allem für die Verantwortungsträger der Kennzahlen.

Dem steht entgegen, dass gerade die Ergebnisse der performantesten (im Hinblick auf Modellgüte, nicht Geschwindigkeit) Algorithmen und Modelle, wenn überhaupt, nur schwer nachvollzogen werden können. Hier gilt es zwischen Leistung des Modells und Verständlichkeit für den Nutzer abzuwägen.

  • Und dennoch gibt es Mittel und Wege, das Vertrauen in die Künstliche Intelligenz zu bestärken.
  • Ein besonders wichtiger Faktor in diesem Zusammenhang ist ein kompetenter Partner,
  • der nicht nur die technische und theoretische Seite versteht und umsetzen kann,
  • sondern auch in der Lage ist, sie einem Fachbereich verständlich zu erklären.

Was ist erklärbare künstliche Intelligenz?

Die Forschungsbehörde des US-amerikanischen Verteidigungsministeriums DARPA (Defense Advanced Research Projects Agency) hat 2017 bekanntgegeben, sich verstärkt dem Ziel zu widmen, die Entscheidungen von Machine Learning und anderen KI-Algorithmen erklärbar zu machen. Das in diesem Atemzug veröffentlichte Dokument prägte den Namen für einen neuen Zweig der Forschung: Explainable Artififcial Intelligence. Kurz: XAI.

  1. Obwohl bereits vor der Veröffentlichung des Berichts versucht wurde,
  2. die Ergebnisse von neuronalen Netzen, Random Forests
  3. und anderen Bereichen der Künstlichen Intelligenz besser interpretierbar zu machen,
  4. brachte diese Absichtserklärung doch neuen Schwung und vor allem mehr Aufmerksamkeit mit sich.

Dennoch sind und bleiben Modelle Künstlicher Intelligenz nicht einfach zu verstehen.

Warum Modelle Künstlicher Intelligenz so komplex sind

Obwohl die Koeffizienten z.B. einer linearen Regression Rückschlüsse auf die Wichtigkeit und Wirkungsrichtung eines Inputfaktors zulassen, ist dies bei anderen, komplexeren Modellen nicht der Fall. Ein Beispiel dafür liefert der Blick unter die Haube zweier historisch wichtiger künstlicher Intelligenzen und deren Entwicklung. Nur auf den ersten Anschein sind sich beide Modelle sehr ähnlich.

Die erste dieser beiden KI ist bekannter unter dem Namen Deep Blue. Es handelt sich dabei um einen Schachcomputer von IBM, dem es im Jahr 1997 gelang, den damaligen Schachweltmeister Garry Kasparov zu schlagen.

Bei der zweiten KI handelt es sich um Alphabets (Google) AlphaGo. Ein Programm, welches das asiatische Brettspiel Go meistern lernte und 2015 als erste künstliche Intelligenz einen professionellen Spieler schlug – was zuvor als für eine Maschine unmöglich galt.

Um sein Ziel (menschlichen Schachspieler schlagen) zu erreichen, wurden Deep Blue die Regeln und Prinzipien von Schach beigebracht, die notwendig waren, um eine Situation zu erkennen und dementsprechend zu handeln. Eines dieser Prinzipien was zum Beispiel, dass es stets wichtig ist, die Mitte des Bretts zu sichern.

Basierend auf dieser und vielen weiteren Regeln, versuchte Deep Blue eine Funktion zu maximieren, die zum einen versuchte den potentiellen Schaden durch Kasparov zu minimieren und die eigenen Aussichten zu maximieren. Zu diesem Zweck verglich Deep Blue eine Vielzahl an möglichen Optionen auf Basis der ihm einprogrammierten Regeln.

AlphaGo hingegen waren keine Regeln vorgegeben worden. Das Programm war allein durch die Anwendung neuronaler Netze in der Lage sein Ziel zu erreichen.

Der Weg dorthin wurde über eine Unzahl von selbstständigen Trainingspartien, oder, wie es im Fachjargon heißt, durch reinforcement learning erlernt. Einzig das Ziel, der Sieg über den Gegner, gab dabei die Richtung an.

Von all dem Gelernten lassen sich jedoch keine transparenten Regeln oder Prinzipien ableiten, obgleich wir den Output – Züge im Spiel – beobachten können. Denn obwohl AlphaGo in den zahllosen Iterationen ein Modell entwickelt hat, ist dieses so komplex und vielschichtig, dass es aufgrund der schieren Datenmenge für einen Menschen nicht zu begreifen ist.

Künstliche Intelligenz verstehen mit verovis

Doch bedeutet das nicht, dass wir uns damit abfinden müssen, dass wir fortan das Ruder aus der Hand geben, während AlphaGo und Co. die Entscheidungen allein in einer Black Box treffen. Es gibt Methoden, die über Umwege z.B. den Output eines Random Forest besser erklärbar machen, indem sie zeigen, welches Gewicht die verschiedenen Faktoren auf die Performance des Modells haben. Um Ergebnisse so verständlich wie möglich zu machen, nutzt verovis Werkzeuge der Statistik wie feature contribution oder permutation feature importance.

Durch diese Herangehensweise werden Faktoren, ähnlich der Koeffizienten einer Regression, einfacher zu bewerten und machen Rückschlüsse auf das Funktionieren des Modells möglich. Am wichtigsten ist jedoch, dass sich so ein Verständnis und Akzeptanz für das Vorhergesagte unter den Beteiligten aufbauen lässt.

Verständnis und Akzeptanz treibt verovis in Projekten auch aktiv dadurch voran, dass wir unseren Partnern in den gemeinsamen Workshops die Zusammenhänge der Advanced Analytics Modelle, Algorithmen und Vorgehensweisen erklären. So stellen wir sicher, dass unsere Ergebnisse für Kunden keiner Black Box entspringen, sondern sie ein Verständnis dafür entwickeln, wie die Ergebnisse entstanden sind.

Dieser essentielle Service ist stets Teil des Vorgehens von verovis und aus unserer Sicht Voraussetzung für den erfolgreichen Abschluss eines Projekts.