Mit dem am 21. Mai 2024 verabschiedeten AI Act wird erstmalig ein umfassendes Gesetz für die Entwicklung und den Einsatz von Künstlicher Intelligenz (KI) geschaffen. Ziel der Verordnung ist es EU-Bürger vor möglichen negativen Auswirkungen von KI-Anwendungen zu schützen und einen vertrauenswürdigen Einsatz von KI-Modellen zu gewährleisten. Ab dem 1. August 2024 tritt das Gesetz in Kraft. Bereits im Februar 2025 werden erste Bestimmungen für Unternehmen verpflichtend.
Der AI Act teilt KI-Anwendungen in vier Risikokategorien ein. Unternehmen, die KI-Systeme bereits einsetzen oder einsetzen wollen, müssen eine entsprechende Einordnung vornehmen und die daraus schlussfolgernden Anforderungen umsetzen. So gehört bspw. der Einsatz von KI-basierten Spamfiltern und Chatbots der Kategorie zwei an, für die lediglich Transparenz- und Informationsanforderungen gelten, da sie ein überschaubares Risiko darstellen. Hingegen unterliegen KI-Systeme mit einem hohen Risiko für EU-Bürger, wie z.B. bei ihrem Einsatz für Biometrik, Strafverfolgung oder im Bereich der Kritischen Infrastruktur, verschiedenen Anforderungen, die sich an ihrem Einsatzzweck orientieren.
Unternehmen sollten daher den Einsatz neuer KI-Systeme, aber auch den Fortbestand bereits integrierter KI-Anwendungen, einer strukturierten Risikoanalyse unterziehen und daran beteiligte Mitarbeiter schulen, denn neben den Anforderungen des AI Acts gelten nach wie vor jene des Datenschutzrechts.