Softwaretests erfordern eine Erklärung der KI

Das Testen von Anwendungen, die maschinelles Lernen und künstliche Intelligenz nutzen, stellt eine besondere Herausforderung dar. Diese Systeme sind größtenteils Black Boxes, die mehrere Algorithmen – manchmal Hunderte – verwenden, um Daten in einer Reihe von Schichten zu verarbeiten und ein Ergebnis zu liefern.

Obwohl das Testen für jede Anwendung komplex sein kann, geht es im Grunde darum, sicherzustellen, dass die zurückgegebenen Ergebnisse mit dem übereinstimmen, was für eine gegebene Eingabe erwartet wurde. mit KI/ML-Systemen ist ein Problem. Obwohl die Software eine Antwort zurückgibt, können die Tester nicht feststellen, ob sie korrekt ist. Da die Tester nicht immer in der Lage sind, die richtige Antwort für eine gegebene Eingabe zu ermitteln, ist sie manchmal nicht offensichtlich.

Einige Anwendungsergebnisse können ziemlich lächerlich sein. Einige Anwendungsergebnisse können lächerlich sein. Woher wissen Sie, ob Ihre ML-Anwendung vor der Bereitstellung erfolgreich ist?

Die Definition der richtigen Antwort hängt nicht nur von der Anwendung ab, sondern auch davon, wie präzise sie sein muss. Es ist einfach zu sagen, dass die Antwort genau sein muss. Aber wie nahe kann sie kommen? Sie wird nie genau genug sein.

Dies ist das letzte schwarze Loch für Tester. Man kann nicht objektiv feststellen, ob ein Ergebnis korrekt ist, wenn man keine genaue statistische Definition der Genauigkeit hat.

Es wird nur noch schlimmer. Es ist möglich, dass die Tester nicht wissen, ob eine Antwort richtig oder falsch ist, selbst wenn es sich um eine binäre Antwort handelt. In bestimmten Fällen kann es möglich sein, auf die Trainingsdaten zurückzugreifen, um einen anderen Fall zu finden. In vielen Situationen gibt es jedoch noch keine eindeutige Möglichkeit, die Ergebnisse zu validieren.

Ist das wichtig? Es ist wichtig, wahrscheinlich wichtiger als bei traditionellen Geschäftsanwendungen. Die meisten Ergebnisse einer herkömmlichen Geschäftsanwendung lassen sich leicht als richtig/falsch klassifizieren. Obwohl die Tester die Funktionsweise der Algorithmen nicht verstehen müssen, wäre es hilfreich, wenn sie es täten.

ML-Anwendungen scheinen nicht immer offensichtlich zu sein. Auch wenn ein Ergebnis richtig zu sein scheint, können Verzerrungen und falsch dargestellte Trainingsdaten es falsch machen. Ein falsches ML-Modell kann weniger als optimale Ergebnisse liefern oder zu falschen Antworten führen. Erklärbare KI (XAI) kann helfen.

KI erklärt

Mit XAI kann ein KI- oder ML-Programm erklären, wie es zu einem bestimmten Ergebnis gekommen ist. XAI ermöglicht es einem Prüfer, den Fluss von Eingaben und Ausgaben zu sehen, der schwer zu verstehen sein kann.

XAI ist ein neues Feld. Die meisten kommerziellen KI/ML-Anwendungen haben es noch nicht übernommen. Der Begriff ist nicht klar definiert. Obwohl sich die Benutzer von Anwendungen sicherer fühlen, wenn es einen Grund für das Ergebnis gibt, können Entwickler und Testteams die Trainingsdaten und die Algorithmen validieren, um sicherzustellen, dass die Ergebnisse korrekt sind.

Pepper ist ein SoftBank-Roboter, der taktil auf Stimulationen reagiert. Dieser Roboter ist ein faszinierendes Beispiel für frühe XAI-Bemühungen. Pepper kann durch seine Anweisungen sprechen, während er sie ausführt. Die Anweisungen des Roboters können als XAI bezeichnet werden. So können die Benutzer sehen, warum er bestimmte Handlungsabläufe ausführt. Pepper kann auch Widersprüche und Zweideutigkeiten in den Anweisungen erkennen und weiß, wann er um eine Erklärung bitten muss.

Überlegen Sie, wie eine solche Funktion den Testern helfen könnte. Der Tester kann Testdaten verwenden, um ein Ergebnis zu erhalten. Er kann dann die Anwendung fragen, wie sie zu diesem Ergebnis gekommen ist. Schließlich können sie den Prozess der Manipulation der Eingabedaten durcharbeiten, damit der Tester den Grund für die Gültigkeit des Ergebnisses dokumentieren kann.

XAI muss vielen Konstituenten dienen. Sie kann verwendet werden, um den technischen Ansatz und die Algorithmen zu validieren. Sie hilft dabei, die Qualität und Korrektheit des Codes zu bestätigen. Sie ist eine Möglichkeit, Vertrauen in die Anwendung zu schaffen.

Die drei Beine des Schemels sind der XAI-Schemel

Wie funktioniert XAI? Obwohl es noch viel zu tun gibt, gibt es einige vielversprechende Techniken. XAI basiert auf den Prinzipien der Transparenz und der Interpretierbarkeit.

Die Transparenz ermöglicht es, die Algorithmen zu sehen und klar zu erkennen, wie sie die Eingabedaten verarbeiten. Auch wenn man dadurch nicht erfährt, wie die Algorithmen trainiert wurden, kann man doch einen Einblick in den Prozess gewinnen und den Design- und Entwicklungsteams die Möglichkeit zur Interpretation geben.
Die Interpretierbarkeit beschreibt, wie die Ergebnisse dem Menschen zum Verständnis präsentiert werden. Das bedeutet, dass Sie, wenn Sie eine Anwendung verwenden, um ein Ergebnis zu erhalten, in der Lage sein sollten zu verstehen, wie es auf der Grundlage der Eingabedaten und der Verarbeitungsalgorithmen erzielt wurde. Es sollte möglich sein, den logischen Pfad zwischen Dateneingaben und -ausgaben zu erkennen.
Erklärbarkeit ist immer noch ein vages Konzept, während die Forscher versuchen, seine Funktionsweise zu verstehen. Es ist möglich, Fragen zu unseren Ergebnissen zu beantworten oder genauere Erklärungen zu bestimmten Verarbeitungsphasen zu erhalten. Dieses Merkmal ist noch eine Grauzone, bis ein besserer Konsens erreicht ist.

XIA-Techniken

Es gibt viele Techniken, die eingesetzt werden können, um KI/ML-Anwendungen erklärbar zu machen. Diese Techniken beruhen in der Regel auf qualitativen Annahmen darüber, wie ein bestimmtes Ergebnis zu erklären ist.

Zwei häufig verwendete Techniken sind der Shapley-Wert und die integrierten Gradienten.

Leave a Reply

Your email address will not be published. Required fields are marked *