Skip to main content

Der Demonstrator »uncertAInty explorer« veranschaulicht das Prinzip der Unsicherheitsschätzung am Beispiel von Verkehrssituationen im Autonomen Fahren.
© KI.NRW

Blick in die Blackbox

Maßnahmen für vertrauenswürdige Künstliche Intelligenz

Künstliche Intelligenz (KI) durchleuchten: Damit KI-Anwendungen künftig z. B. beim Autonomen Fahren oder in der Industrie 4.0 zum Einsatz kommen können, müssen ihre Funktionsweisen transparent und nachvollziehbar sein. Erste konkrete Absicherungsmethoden für die Gestaltung zuverlässiger KI-Systeme sowie Prüfverfahren »made in Germany« stellte das Projekt ZERTIFIZIERTE KI der Kompetenzplattform KI.NRW auf der Hannover Messe vor.

Der Demonstrator »uncertAInty explorer« zeigt Interessierten, wie die Bewertung von Unsicherheiten einer KI-Prognose zu mehr Sicherheit beitragen kann. Vor Ort informierte das Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS gemeinsam mit dem Projektpartner Deutsches Institut für Normung (DIN) darüber, wie Unternehmen KI-Risiken künftig gut einschätzen können. Das Exponat ist vom 30. Mai bis 2. Juni 2022 am Stand des Landes Nordrhein-Westfalen in Halle 11, B13 zu finden. Ein begleitender Vortrag wird online übertragen.

Beim Autonomen Fahren oder in der Industrie 4.0 – Künstliche Intelligenz (KI) übernimmt künftig wichtige Aufgaben und muss insbesondere in sicherheitskritischen Anwendungen zuverlässig arbeiten. Damit die Funktionsweise und Entscheidungsfindung von KI-Systemen transparent und nachvollziehbar ist und Unternehmen KI-Anwendungen auch im Hinblick bevorstehender Standards und Gesetze wie dem europäischen AI ACT nachweislich zuverlässig gestalten können, arbeitet das Flagship-Projekt ZERTIFIZIERTE KI der Kompetenzplattform KI.NRW an konkreten Lösungen. So entwickeln im Projekt die Wissenschaftler*innen des Fraunhofer IAIS gemeinsam mit Partnern, unter anderem dem Deutschen Institut für Normung (DIN) und dem Bundesamt für Sicherheit in der Informationstechnik (BSI), standardisierbare Prüfverfahren »made in Germany«.

Auf der Hannover Messe 2022 erhielten Unternehmen am Stand des Landes Nordrhein-Westfalen konkrete Einblicke in das Projekt ZERTIFIZIERTE KI. So veranschaulichte der Demonstrator »uncertAInty explorer« das Prinzip der Unsicherheitsschätzung, mit welcher die Lücken einer KI-Analyse sichtbar werden, etwa bei der Einschätzung von Verkehrssituationen im Autonomen Fahren. »Bei hoch-automatisierten KI-Entscheidungen ist es wichtig beurteilen zu können, wie sicher sich eine KI mit ihrem Ergebnis ist. Konkret muss ein autonomes Fahrzeug zum Beispiel Objekte und Menschen in seiner Umgebung zuverlässig erkennen können, damit es angemessen darauf reagieren kann. Die Unsicherheitsbewertung hilft hierbei zu messen, wie stark man der Entscheidung des Systems vertrauen kann oder ob bestimmte Fallback-Mechanismen aktiviert werden müssen«, erklärt Dr. Maximilian Poretschkin, Leiter KI-Absicherung und -Zertifizierung am Fraunhofer IAIS und Konsortialleiter des Projekts. Daneben könne das Verfahren auch in vielen anderen Anwendungsbereichen sinnvoll sein, beispielsweise in einer Fertigungsstraße zur Qualitätssicherung von Produkten, um dort Ausschuss zu verringern und Qualitätseinbußen zu reduzieren.

Neben der technischen Umsetzung von Transparenz und Nachvollziehbarkeit in KI-Technologien kommt es auch zunehmend darauf an, die Qualität, Sicherheit und Zuverlässigkeit von KI-Systemen nachweisen zu können. Hierfür entwickelt das Projekt ZERTIFIZIERTE KI entsprechende Prüfverfahren, die Unternehmen bei der Entwicklung oder KI-Prüfer*innen bei der Evaluation von KI-Anwendungen unterstützen. »Ein wesentlicher Fokus unserer Forschung ist die Entwicklung von Prüfmethoden und -Werkzeugen, um die Qualität von KI-Systemen unabhängig begutachten zu können. Eine KI-Prüfung kann die korrekte und sichere Funktionsweise sicherstellen und gleichzeitig das Vertrauen in und die Akzeptanz von KI-Anwendungen fördern«, sagt Poretschkin. Das belege auch eine Studie des Fraunhofer IAIS zum Einfluss von KI-Managementsystemen auf die Vertrauenswürdigkeit Künstlicher Intelligenz, die im Oktober 2021 veröffentlicht wurde.

-PM Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS-