Klassifizierung von KI-Systemen: Klare Kriterien für bessere Risikobewertung

0

Europa hat durch die Verabschiedung des AI Acts die Möglichkeit, weltweit an der Spitze der sicheren und vertrauenswürdigen Nutzung von künstlicher Intelligenz zu stehen. Das Ziel besteht darin, die Vorteile von KI-Systemen zu nutzen und gleichzeitig die Risiken zu kontrollieren. Allerdings müssen noch einige Herausforderungen in den laufenden Verhandlungen angegangen werden, um eine effektive Umsetzung sicherzustellen.

AI Act: Sicherheitsanforderungen für KI-Verbraucherprodukte müssen geschlossen werden

Der AI Act stellt Europa vor die Herausforderung, hochriskante KI-Systeme nur dann als solche einzustufen, wenn die physischen Produkte, in die sie integriert werden, einer verpflichtenden Prüfung unterliegen. Dies führt dazu, dass Verbraucherprodukte wie Spielzeug oder Smart-Home-Geräte nicht in diese Kategorie fallen. Um die Sicherheitsanforderungen für KI-basierte Verbraucherprodukte zu gewährleisten, muss diese Regelungslücke geschlossen werden.

Fehleinschätzungen bei Risikobewertung von KI-Systemen verhindern

Bei der Klassifizierung von eigenständigen KI-Systemen, die auf den Markt gebracht werden, liegt ein Problem darin, dass die Anbieter selbst die Risikobewertung vornehmen und dadurch Fehleinschätzungen entstehen können. Um eine effektive Umsetzung der verpflichtenden Anforderungen zu gewährleisten, ist es wichtig, eindeutige Klassifizierungskriterien festzulegen.

Verpflichtende Zertifizierung für hochriskante KI-Systeme sichert Qualität

Bei der Überprüfung von hochriskanten KI-Systemen sollten unabhängige Prüfungen eine zentrale Rolle spielen, um das Vertrauen der Menschen in die Technologie zu stärken. Durch eine verpflichtende Zertifizierung durch benannte Stellen wird sichergestellt, dass die KI-Systeme den notwendigen Sicherheitsstandards entsprechen. Dies trägt nicht nur dazu bei, potenzielle Gefahren für Nutzer und Umwelt zu minimieren, sondern positioniert Europa auch als Vorreiter in der vertrauenswürdigen und sicheren Nutzung künstlicher Intelligenz.

Der TÜV-Verband engagiert sich für Prüfstandards in sicherheitskritischen KI-Anwendungen

Um die Entwicklung und Nutzung von Reallaboren sicherer zu gestalten, ist es wichtig, unabhängige Prüforganisationen als Partner einzubeziehen. Der TÜV-Verband spielt eine aktive Rolle bei der Identifizierung technischer und regulatorischer Anforderungen an Künstliche Intelligenz sowie bei der Entwicklung von Prüfstandards für sicherheitskritische KI-Anwendungen. Um eine ganzheitliche Überprüfung zu gewährleisten, sollten interdisziplinäre „AI Quality & Testing Hubs“ sowohl auf Landes- als auch auf Bundesebene eingerichtet werden.

Regulierung von Basismodellen und generativen KI-Systemen im AI Act

In den letzten Monaten haben Basismodelle und generative KI-Systeme gezeigt, dass sie über ein beeindruckendes Potenzial verfügen. Gleichzeitig ist es wichtig, die Risiken, die mit ihrer Nutzung einhergehen können, angemessen anzugehen. Aus diesem Grund ist es erfreulich, dass das EU-Parlament plant, diese Technologie direkt im AI Act zu regulieren. Es ist jedoch von großer Bedeutung, die Basismodelle sorgfältig zu bewerten, um festzustellen, welche als besonders kritisch einzustufen sind und den strengen Anforderungen des AI Acts, einschließlich unabhängiger Drittprüfungen, unterliegen sollten.

Vertrauen durch Prüfung: Europa als Vorreiter bei KI

Durch den AI Act eröffnen sich für Europa neue Möglichkeiten, eine führende Rolle in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz einzunehmen. Die verpflichtende Prüfung von hochriskanten KI-Systemen durch unabhängige Stellen trägt dazu bei, das Vertrauen der Menschen zu stärken und „AI Made in Europe“ zu einem echten Qualitätsstandard und einem globalen Wettbewerbsvorteil zu machen. Es besteht jedoch noch Bedarf an Verbesserungen, insbesondere hinsichtlich der Einbeziehung von Verbraucherprodukten, der Klassifizierung von KI-Systemen und der Durchführung unabhängiger Prüfungen. Nur durch diese Maßnahmen kann Europa sein volles Potenzial im Bereich der künstlichen Intelligenz ausschöpfen.

Lassen Sie eine Antwort hier