Die Absicherung und Zertifizierung von Künstlicher Intelligenz (KI) sind essenziell, um das Vertrauen in die Leistungsfähigkeit von KI-basierten Produkten und Services zu gewährleisten. Eine vielversprechende Methode dafür bietet die erklärbare Künstliche Intelligenz oder XAI. Durch XAI können tiefere Einblicke in die Funktionsweise von KI-Systemen gewonnen werden. Denn Methoden der XAI können die Logiken, auf deren Basis Entscheidungen und Datenverknüpfungen in KI-Modellen erfolgen, nachvollziehbar machen.
XAI ist jedoch ein junges Forschungsfeld, dessen Potenziale und Herausforderungen noch nicht vollständig erschlossen sind. Forschende an den Fraunhofer-Instituten für Arbeitswirtschaft und Organisation IAO und für Produktionstechnik und Automatisierung IPA haben deshalb den aktuellen Stand sowie die Potenziale von XAI im Kontext der Absicherung und Zertifizierung von KI analysiert. Ihre Ergebnisse haben sie in einem neuen Whitepaper veröffentlicht.