Scroll Top

Bei Künstlicher Intelligenz ist mehr Transparenz gefragt

Agnostische Methoden

Oft haben Maschinelles Lernen und Künstliche Intelligenz (KI) den Ruf der Black-Box, weil sich Entscheidungen und Vorhersagen aufgrund von Modellen häufig keineswegs bis zu deren Begründung zurückverfolgt werden können. Durch eine erklärbare KI besteht die Möglichkeit, dass jedoch neue Methoden und Algorithmen die Glaskugel transparent machen.

Eine Künstliche Intelligenz, welche einer Familie einen Bausparvertrag wegen ihrer Abstammung verweigert. Ein neuronales Netzwerk, welches für eine Kundenempfehlung zahlreiche persönliche Daten benötigt sowie ein Tool, das Erkrankungen vorhersagt und Therapien empfiehlt, ohne seine Wahl darlegen zu können.

Diese Szenarien sind für viele Menschen Gründe, um der KI skeptisch gegenüberzustehen. Deshalb wird sie oft Black-Box genannt, bei welcher unbekannt ist, auf welcher Basis entschieden wird. Demnach kommen die Vorhersagen aus einer intransparenten Glaskugel. Ein solches System kann nicht auf ethische Standards überprüft werden.

Wie Transparenz bei KI Zuverlässigkeit bewirkt

Die Europäische Union weiß um die beschriebenen Problematiken. Mithilfe der Datenschutz-Grundverordnung (DSGVO) hat sie ein Fundament für KI und Ethik geschaffen. Selbst Kunden, welche mit KI-Anwendungen in Kontakt kommen, erwarten immer mehr, dass KI-Systeme sich darstellen und transparent sind. Im Jahr 2019 hatten sich 60 Prozent der Firmen, welche KI-Systeme einsetzten, in Hinblick auf Datenschutzverletzungen zu verantworten; davon erlitten 22 Prozent einen Kundenrückgang.

Solche Gründe rechtfertigen Maschinelles Lernen (ML), welches fair, erklärbar, transparent und unter menschlicher Aufsicht erfolgt. Ein entscheidender Höhepunkt auf dem Weg zu derartigen Systemen ist eine definierbare Künstliche Intelligenz (XAI für eXplainable AI), welche seit den vergangenen Jahren ein Thema von zahlreichen wissenschaftlichen Diskussionen ist.

Aufgrund der Auswertung der wichtigsten Aspekten, die eine Vorhersage ausmachen, lassen sich neue Fragestellungen beantworten. XAI findet so neben ihrer wirtschaftlichen, rechtlichen und ethischen Bedeutung zahlreiche Anwendungen in der Industrie und Forschung. Hierzu zählen beispielsweise die Erforschung der Risikoaspekte bei Arzneimitteln und die Optimierung der Benutzer-/Kundenerfahrung.

Siehe auch  KI in Apotheken: Medikamenten-Empfehlungen aus dem Computer

Agnostische Methoden versus interpretierbare Modelle

Zwei Ansätze führen zu einer erklärenden KI: Auf der einen Seite das Anwenden der interpretierbaren Modelle, welche intrinsisch erklärt werden können. Auf der anderen Seite das Nutzen von agnostischen Verfahren auf Modelle in Unabhängigkeit vom gewählten Algorithmus. Dadurch ist es möglich, jedes Black-Box-Modell zu erklären.

Die Koeffizienten der logistischen und linearen Modelle lassen sich visualisieren und zur Erklärung der Vorhersagen analysieren. Sie stellen Beispiele für interpretierbare Modelle dar, weil kein Trainieren der Black-Box erfolgt. Bei den Machine-Learning-Methoden genügt ein moderates Verständnis für eine intuitive Interpretation von Koeffizienten, was für eine bessere Akzeptanz bei den Nutzern sorgen kann. Zum anderen wird sich auf eine kleinere Kategorie von Algorithmen beschränkt, was möglicherweise zu einer geringen Modellperformance führt. Radin und Rudin (2019) argumentieren allerdings, dass intrinsisch interpretierbare Ausführungen unterschätzt werden und in den meisten Fällen intransparente und komplexe Varianten ersetzen und übertreffen können.

Generell verbreitete ML-Algorithmen wie Neuronale Netzwerke, Support Vector Machine und Random Forst kommen oft in den KI-Systemen der Industrie zum Einsatz. Häufig zeichnen sie sich aufgrund ihrer hohen Genauigkeit bei Vorhersagen aus, sind jedoch zuerst nicht interpretierbar. Agnostische Verfahren analysieren, wie ein Modell eine Wahl trifft, indem Daten als Einschätzung dienen. Dadurch besteht zwar die Möglichkeit, jedes ML-Modell auszuwerten. Allerdings richtet sich die Genauigkeit der Interpretation nach dem Wert der Referenz.

Evaluierung der Interpretationen

Neben der Aussagekraft ist auch der Nutzen einer Modellinterpretation mithilfe von XAI zu analysieren und zu bewerten. Bei einer KI, welche bei Patienten Erkrankungen vorhersagt, genügt es nicht, ein Interpretationsverfahren ohne Kontrolle anzuwenden. Die Risikoaspekte für die Erkrankungen, welche die XAI findet, sind von medizinischen Experten zu überprüfen. Aufgrund der multidisziplinären Kooperation besteht die Möglichkeit, Qualitätssicherung zu gewährleisten. In weiteren Fällen lässt sich solch eine Validierung automatisieren. Die Sprache stellt eine andere bewertbare Eigenschaft der XAI dar, also die Unmissverständlichkeit für den Anwender.

Siehe auch  SMAIY APP: Künstliche Intelligenz zur Ermittlung von ElectroSmog Belastung

Eine Künstliche Intelligenz sollte nicht nur zur sozialen Akzeptanz, jedoch ebenso aus wirtschaftlicher und rechtlicher Sicht ethisch entwickelt werden. Die Erklärbarkeit der KI stellt eine Komponente für ein derartiges Design dar. Weil den Nutzern und Entwicklern oft nicht bekannt ist, was für Eigenschaften das Machine-Learning-Modell gelernt hat und wie es eine Wahl trifft, werden neuartige Interpretierverfahren angewendet. Mehrere AL Algorithmen können durch ihren Aufbau erklärt werden. Für komplexere lassen sich agnostische Verfahren verwenden, welche als modellunspezifisch gelten.

5/5 - (1 vote)

Verwandte Beiträge

Hinterlasse einen Kommentar