Vertrauenskrise treibt KPMG zu KI-Prüfstandards

blog main image
October 15, 2025
15.10.2025
2 Minuten Lesezeit

Nur 32 Prozent deutscher Befragter trauen algorithmischen Systemen – Big Four reagiert mit dreistufigem Compliance-Framework und Microsoft-Partnerschaft für Agenten-Technologie.

Dramatisches Vertrauensdefizit als Ausgangspunkt

Eine globale KPMG International-Erhebung offenbart erschreckendes Misstrauen: Über die Hälfte der Befragten zweifelt an KI-Verlässlichkeit. Deutschland zeigt noch drastischere Werte – lediglich 32 Prozent akzeptieren von Algorithmen generierte Informationen als vertrauenswürdig. Hauptgründe: intransparente Entscheidungswege, Datenschutzbedenken und Bias-Risiken.

Dirk Distelrath, Partner für Audit, Regulatory Advisory und Digital Process Compliance, formuliert das Kernproblem: „KI darf keine Black Box bleiben. Nur wenn wir nachvollziehen können, wie Entscheidungen zustande kommen, schaffen wir Vertrauen – und das ist die Währung der digitalen Wirtschaft."

Parallel verschärfen regulatorische Anforderungen wie der EU AI Act den Handlungsdruck. KPMG reagiert mit Erweiterung seines Trusted-AI-Portfolios um spezialisierte Compliance-Dienstleistungen.

Dreistufige Servicestruktur für Regelkonformität

Die Wirtschaftsprüfungsgesellschaft strukturiert ihr Angebot in drei Module: Assurance-Prüfungen validieren Entscheidungslogiken und Fairness algorithmischer Systeme durch Modellvalidierungen, Bias-Analysen und Explainability-Verfahren. Referenzrahmen bilden ISO/IEC 42001 und IDW PS 861 neben dem proprietären Trusted AI Framework.

Governance-Services adressieren organisatorische Implementierung über den gesamten Systemlebenszyklus. Das Trusted AI Framework verknüpft regulatorische, ethische und operative Dimensionen. Operative Umsetzung erfolgt via KPMG AI Cockpit, das Freigabeworkflows automatisiert, Verantwortlichkeiten transparent macht und zentrale KI-Inventarisierung ermöglicht. "Model Fact Sheets" dokumentieren Trainingsdaten und Entscheidungsmechanismen.

Assessment-Leistungen identifizieren Schwachstellen in Bestandssystemen – von Sicherheitslücken bis Bias-Expositionen. Die Analysen kombinieren technische Validierung mit Governance-Evaluation und fokussieren Datenqualität, Modellrobustheit sowie EU AI Act-Konformität. Visualisierung im AI Cockpit unterstützt priorisierte Maßnahmenplanung.

Sebastian Stöckle, Global Head of Innovation and AI, Audit, KPMG International and Audit CTO, KPMG Germany, beschreibt die Zielsetzung: „Unternehmen stehen zunehmend im Spannungsfeld zwischen Innovation und Verantwortung. Mit unseren neuen Prüfungs- und Beratungsleistungen schaffen wir die Grundlage, um beim Einsatz von KI Vertrauen aufzubauen, gesetzliche Vorgaben einzuhalten und gleichzeitig Chancen für Wachstum zu nutzen."