EU AI Act – Ein Guide aus Agenturperspektive

„AI recruiting tools leverage artificial intelligence to automate […] various aspects of the hiring process, making it faster, more efficient, and potentially more effective.“

Das sagt Googles AI Gemini zu der Suchanfrage ai recruiting tools“.
Was es nicht dazu sagt, ist dass solche Tools nicht nur Entscheidungen beschleunigen, sondern auch bestehende Vorurteile aus der Vergangenheit verstärken können – oft ohne, dass es jemand merkt.
Ein KI-System, das aus alten Bewerbungsdaten lernt, kann auch alte Muster reproduzieren: bevorzugte Ausbildungswege, bestimmte Namen, Lücken im Lebenslauf – all das kann zum Ausschluss führen, ohne dass je ein Mensch die Bewerbung gesehen hat. Was nach Diskriminierung klingt, ist es potenziell auch.
Der am 1. August 2024 verabschiedete EU AI Act soll diese und weitere Risiken, die mit dem Einsatz von KI verbunden sind, minimieren, ohne dabei Innovation zu blockieren. 
Was bedeutet das neue Gesetz konkret für Unternehmen und insbesondere für Agenturen, die KI in ihren Arbeitsalltag integrieren? Unser KI-Team hat sich mit dem Gesetz befasst und erklärt, worauf es jetzt ankommt und wie unsere eigenen ersten Schritte bei Wächter aussehen. 

AI Act Logo

Was ist der EU AI Act – und wie betrifft er Unternehmen?

Der AI Act stuft KI-Systeme nach ihrem Risikopotenzial ein – je größer das Risiko für die Gesellschaft oder einzelne Personen, desto umfassender die regulatorischen Anforderungen. Die EU möchte damit sicherstellen, dass die Grundrechte der EU-Bürger*innen nicht durch voreingenommene Datensätze, Nutzer*innenmanipulation oder Überwachung gefährdet werden.

Die Risikostufen im Überblick

Das Gesetz unterscheidet vier Risikokategorien, hier mit Beispielen, die im Arbeitsalltag vieler Unternehmen vorkommen könnten.

Risiko-Level Bedeutung Beispiel Regulierung
Unannehmbares Risiko KI-Anwendungen, die gegen Grundrechte verstoßen. Emotionserkennung am Arbeitsplatz Müssen bis zum 2. Februar 2025 vom EU-Binnenmarkt genommen werden
Hochrisiko KI-Systeme, die in sensiblen Bereichen eingesetzt werden und bei Fehlfunktionen oder Missbrauch ernsthafte Konsequenzen haben können HR-Software und andere KI-Systeme, die Einfluss auf Einstellung oder beruflichen Aufstieg haben Starke Regulierung & Zulassungspflicht
Begrenztes Risiko KI-Systeme, die mit Personen interagieren und nur ein geringes Risiko für die Benutzer*innen darstellen Chatbots und KI-generierte Inhalte Transparenz-und Kennzeichnungspflichten
Minimales Risiko Systeme, die kein nennenswertes Risiko bergen KI-gestützte Rechtschreibprüfung, Spamfilter Keine Pflichten, freiwilliges Umsetzen eines KI-Verhaltenskodex

Welche Anforderungen entsprechend den Risikoklassen gelten, hängt davon ab, wie und wofür KI tatsächlich eingesetzt wird. Wir haben begonnen, diese Fragen systematisch zu klären und erste Schritte unternommen, um den rechtlichen Anforderungen gerecht zu werden.

Wie müssen Unternehmen jetzt vorgehen? 
Unsere ersten Schritte bei Wächter

Schritt 1 Bestandsaufnahme:

Um die Bedeutung der Risikoklassen besser einordnen zu können, ist es wichtig zwischen KI-Anbietern und KI-Betreibern zu unterscheiden. Ein KI-Anbieter entwickelt ein eigenes KI-System, welches unter der eigenen Handelsmarke in der EU vertrieben wird. Ein solches Unternehmen muss sein Produkt gemäß der Risikoklassen einstufen und entsprechende Regularien einhalten.
 KI-Betreiber – dazu zählen auch wir bei Wächter – sind Unternehmen, welche andere KI-Systeme gewerblich verwenden (z.B. ChatGPT zur Unterstützung bei der Textarbeit für Artikel wie diesen). In diesem Fall muss für jedes verwendete KI-Tool und für jede Art der Nutzung einzeln die Risikoklasse ermittelt werden.
Unser KI-Team bei Wächter hat im ersten Schritt eine interne Bestandsaufnahme aller verwendeten Tools und Nutzungsweisen aufgestellt.

Schritt 2 Risikoanalyse:

Die Einordnung in die genannten vier Risikoklassen ist oft gar nicht so einfach. Daher stellt die EU einen Online-Test zu Verfügung, indem überprüft werden kann, welche Pflichten für die eigene Organisation oder Systeme gelten:
Zum AI Act Compliance-Test
Wichtig: Der Test muss für jede Art der KI-Nutzung einzeln durchgeführt werden. Daher ist eine vorherige Bestandsaufnahme besonders hilfreich.
Wir haben den Test für Wächter gemacht – und das hier kam für unsere Agentur dabei heraus:

  1. Transparenzpflicht bei synthetischen Inhalten (Art. 50 Abs. 2)
    Inhalte, die durch KI erzeugt oder stark verändert wurden, müssen für Menschen und Maschinen klar als solche erkennbar sein (z.  Metadaten, Wasserzeichen, Hinweise im Text).
  2. Pflicht zur Förderung von AI Literacy (Art. 4)
    Wir müssen sicherstellen, dass unsere Mitarbeitenden die verwendeten KI-Systeme verstehen und verantwortungsvoll damit umgehen können.

Schritt 3 Umsetzung der Anforderungen:

Wie bei den meisten Agenturen fällt unsere Nutzung von KI, beispielsweise Rechtschreibprüfung mit ChatGPT oder Bildgenerierung mit Midjourney, unter die Kategorien Minimales und Begrenztes Risiko. Für uns bei Wächter bedeutet das konkret:

  1. Wir kennzeichnen konsequent alle künstlich erzeugten oder bearbeiteten Inhalte (z. in unseren Präsentationen, auf unserer Webseite, auf LinkedIn etc.) und legen damit unsere KI-Nutzung offen.
  2. Wir fördern die KI-Kompetenzen unserer Mitarbeitenden und nutzen Qualifizierungs- und Bildungsangebote.
  3.  

Dem Anspruch der AI Literacy gemäß Artikel 4 gerecht zu werden, ist bei dem rasanten Fortschritt der Technologien gar nicht so einfach. Eine klare Verantwortungs- und Aufgabenverteilung ist dabei besonders wichtig. Wir haben daher bei Wächter ein eigenes KI-Team gegründet – ein interdisziplinärer Zusammenschluss aus Kolleg*innen aus den Bereichen PR, Kreation, Digital und Media – mit dem Ziel, Wissen und Kompetenzen zu teilen, Unsicherheiten abzubauen und einen offenen, kontinuierlichen Austausch über den Einsatz von Künstlicher Intelligenz im Agenturalltag zu ermöglichen. Die Verantwortung der Aufstellung und Kommunikation von Richtlinien zur KI-Nutzung ist damit klar zugeteilt. Unser KI-Team ist dafür verantwortlich, dass allen Mitarbeitenden klare Richtlinien und Guidelines vermittelt werden, dass diese angepasst und aktualisiert werden und dass KI-Kompetenzen vertieft und intern geteilt werden. Das schafft Klarheit und Vertrauen im Unternehmen.

Technologie-Expertise suchen, wenn wir sie brauchen

Wir verwenden Künstliche Intelligenz, um Prozesse effizienter zu gestalten und für unsere Kunden wertschöpfend einzusetzen. Deshalb sind wir gefordert, unsere Haltung dazu immer wieder zu überdenken und weiterzuentwickeln. Unterstützt werden wir dabei von Sest-Digital, die als KI-Vordenker und -Entwickler die Lücke zwischen Kommunikation und Technologie schließen. Zusammen können wir KI zielgenau und sinnvoll für Unternehmen einsetzen.

Viele Vorgaben des EU AI Acts betreffen Agenturen wie uns nur teilweise. Trotzdem sehen wir uns in der Verantwortung, den Einsatz von KI bewusst, nachvollziehbar und fair zu gestalten und unsere Haltung zu KI aus technischer, rechtlicher und ethischer Perspektive regelmäßig zu hinterfragen.

Dabei ist es uns wichtig unseren Prozess transparent zu machen und andere an unseren Überlegungen teilhaben zu lassen. Im Sinne eines offenen Austauschs – und weil wir glauben, dass kollektives Lernen in dieser Entwicklung zentral ist.

Was als nächstes kommt

Derzeit befasst sich das KI-Team bei Wächter mit ersten Testläufen sogenannter KI-Agenten – Systeme, die in der Lage sind, Aufgaben eigenständig zu planen und auszuführen. Ziel ist es, das Potenzial solcher Modelle im Agenturkontext besser zu verstehen. Über unsere Erfahrungen werden wir demnächst berichten.

Autorin

Louisa Terbrack

Louisa ist Digital Consultant bei Wächter und Teil des KI-Teams der Agentur. Sie entwickelt digitale Lösungen an der Schnittstelle von Nutzerfreundlichkeit, Nachhaltigkeit und Technologie – und beschäftigt sich aktuell besonders mit dem verantwortungsvollen Einsatz von Künstlicher Intelligenz im Agenturalltag.