
KW 2: Der Lavendelduft verfliegt
Es ist Mittwochabend, kurz vor zehn. Der sanfte Duft von Lavendel aus meiner Yoga-Stunde vorhin hängt noch ganz schwach im Wohnzimmer, aber er schafft es kaum noch gegen das grelle Licht meines Laptops anzukommen. Ich starre auf Anhang III der KI-Verordnung. Ein Wort springt mir immer wieder entgegen: 'Hochrisiko'.
Seit ich im Herbst 2024 zur internen AI-Act-Beauftragten ernannt wurde – also zu der Person, die die Scherben aufkehrt, wenn die Technik-Euphorie der Geschäftsführung auf die Realität der EU-Gesetze prallt – fühle ich mich manchmal wie eine Hochseilartisten ohne Netz. Wir sind ein mittelständischer Maschinenbau-Zulieferer mit 78 Mitarbeitenden in Düsseldorf. Wir haben keine Rechtsabteilung mit zehn Juristen. Wir haben nur mich, mein BWL-Studium und die bange Frage: Wie zur Hölle nutzen wir ChatGPT im Recruiting, ohne dass uns die Aufsichtsbehörde den Laden dichtmacht?
Du kennst das vielleicht. Der Druck, 'modern' zu sein, ist riesig. Aber während die IT-Leute von Effizienz träumen, sehe ich nur die Schatten der 20-Millionen-Euro-Bußgelder am Horizont. Ich bin keine Expertin, ich lerne das gerade alles selbst, während ich versuche, unsere Recruiting-Prozesse ins Jahr 2026 zu retten.
KW 6: Der Moment, in dem mein Kiefer knackte
Heute Morgen im Meeting passierte es wieder. Unser Chef lehnte sich zurück, sichtlich stolz auf seine neueste Idee: 'Frau Müller, wir müssen schneller werden bei den Ingenieursstellen. Laden Sie doch einfach mal die 50 Lebensläufe aus dem Stapel in die Cloud hoch, ChatGPT soll uns die Top 5 sortieren.'
In diesem Moment spürte ich diese plötzliche, scharfe Spannung in meinem Kiefer. Ein richtiges Knacken. Ich glaube, ich habe die Zähne so fest zusammengebissen, dass es der ITler Tobias am anderen Ende des Tisches gehört haben muss. Er starrte mich mitleidig an. Er weiß genauso gut wie ich, dass das der direkte Weg ins Verderben ist. Allein die Vorstellung, ungefilterte Bewerberdaten in ein Tool zu werfen, bei dem wir nicht einmal genau wissen, wo die Server stehen, lässt jeden Datenschützer nachts schreiend aufwachen.
Ich musste ihm erklären – mal wieder –, dass Systeme zur Bewertung von Bewerbern unter dem AI Act fast immer als Hochrisiko-KI eingestuft werden. Wir sind hier nicht mehr im Bereich der 'netten Spielereien'. Wenn wir KI nutzen, um Menschen zu bewerten, gelten Regeln, die so streng sind, dass man sie nicht mal eben zwischen zwei Telefonaten umsetzt. Ich habe mir danach die 400 Seiten PDF des AI Acts vorgenommen. Das Summen des Büro-Kühlschranks war das einzige Geräusch im Raum, während ich 'High-Risk' mit neongelbem Textmarker markierte, bis das Papier fast durchweichte.
KW 11: Das Experiment mit der Fräskopf-Stelle
Mitte März. Wir suchen händeringend einen CNC-Fräser. Normalerweise sitze ich eine Stunde an so einer Ausschreibung, bis sie wirklich sitzt. Ich dachte mir: 'Komm, probier es aus. ChatGPT soll den Entwurf machen.' Ich habe angefangen zu tippen, war kurz davor, das Profil eines ehemaligen Bewerbers als Vorlage reinzukopieren, um den Stil zu kopieren – und habe im letzten Moment panisch die Löschtaste gedrückt. Fast hätte ich Klardaten übertragen.
Das war mein erster großer Lerneffekt: ChatGPT ist im Recruiting ein fantastischer Ghostwriter, aber ein miserabler Archivar. Ich habe die Zeit gestoppt. Für den Entwurf brauchte die KI keine zwei Minuten. Mit meinen Korrekturen war ich nach 15 Minuten fertig. Wenn ich das gegen die üblichen 60 Minuten rechne, spare ich pro Stellenausschreibung 45 Minuten. Bei unseren durchschnittlich 3 offenen Stellen pro Monat ist das fast ein ganzer Vormittag, den ich mehr für echte Gespräche habe.
Aber – und das ist das große Aber – man muss wissen, was man füttert. Ich habe gelernt, dass ich niemals Personenbezug herstellen darf. Ich nutze jetzt die 'Prompt-Sandwich'-Methode: Erst füttere ich die KI mit unseren allgemeinen Unternehmenswerten, dann mit den rein fachlichen Anforderungen der Stelle (ohne Namen!) und am Ende sage ich ihr genau, welchen Tonfall ich will. In meinem Bericht über die Einteilung von Risikoklassen habe ich schon mal aufgeschrieben, warum diese Trennung so wichtig ist. Es ist der Unterschied zwischen einem nützlichen Werkzeug und einer tickenden Zeitbombe.
KW 16: Die Anonymisierungs-Falle
Gestern Abend beim Yoga (wir haben die Kobra gemacht, mein Rücken dankt es mir) musste ich über etwas nachdenken, das mir Frau Krüger, unsere Fertigungsleiterin, neulich gesagt hat. Sie meinte: 'Anonymisieren Sie doch einfach alles, dann ist es doch egal.' Aber so einfach ist das nicht.
Ich habe für mich 5 Anonymisierungs-Schritte festgelegt, die absolut zwingend sind: Name, Adresse, Geburtsdatum, Foto und der aktuelle Arbeitgeber müssen raus, bevor irgendetwas analysiert wird. Aber hier kommt mein ganz persönlicher 'Aha-Moment' – und ich bin mir sicher, das steht so in keinem Lehrbuch: Wenn wir zu viel löschen, zerstören wir den Kontext. Wenn ich einer KI einen Lebenslauf gebe, bei dem alles weggestrichen ist, was auf das Geschlecht oder die Herkunft hindeuten könnte, fängt die KI manchmal an zu halluzinieren oder zieht Schlüsse aus Hobbys oder Lücken im Lebenslauf, die erst recht diskriminierend sind.
Das manuelle Entfernen von Klardaten birgt oft ein höheres Risiko für Kontext-Fehler, die unbemerkt zu diskriminierenden KI-Entscheidungen führen können, als wir uns eingestehen wollen. Ich habe das schmerzhaft gelernt, als die KI einen Kandidaten aussortierte, weil sie die 'Lücke' im Lebenslauf falsch interpretierte – dabei war es nur eine Elternzeit, die ich beim Anonymisieren unglücklich formuliert hatte. Man muss also nicht nur anonymisieren, man muss den Kontext schützen. Das ist ein schmaler Grat, und ich gebe offen zu: Manchmal rutsche ich da auch noch aus.
KW 17: Der Drei-Seiten-Kodex
Wir haben es geschafft. Ich habe diese Woche unseren internen 'Recruiting-AI-Codex' fertiggestellt. Er ist nur drei Seiten lang, weil ihn sonst eh niemand liest (schon gar nicht Tobias aus der IT). Darin steht klipp und klar: ChatGPT darf Texte schreiben, Stellenanzeigen optimieren und Absagen vorformulieren – aber es darf niemals entscheiden, wer zum Gespräch eingeladen wird. Die letzte Entscheidung muss immer ein Mensch treffen. Das ist nicht nur eine Frage der Ethik, sondern laut DSGVO Artikel 22 sogar Pflicht.
Was ich meinen Kollegen dabei immer wieder sage: KI-Kompetenz bedeutet auch zu wissen, wann man das Tool besser ausschaltet. Wir haben deshalb eine kleine Schulung gemacht. Ich habe gemerkt, wie wichtig es ist, dass alle verstehen, warum wir diese Regeln haben. Falls du dich fragst, wie man so was angeht: Ich habe neulich darüber geschrieben, warum eine KI-Schulung laut AI Act jetzt für alle Pflicht ist – sogar für uns im Mittelstand.
Ich bin keine Juristin. Ich bin eine HR-Managerin, die versucht, in einer Welt aus Algorithmen menschlich zu bleiben. Wir sind 78 Leute hier in Düsseldorf, und ich habe jetzt das Gefühl, dass ich eine Brücke gebaut habe. Sie ist vielleicht noch ein bisschen wackelig, und vielleicht müssen wir hier und da noch eine Schraube nachziehen, aber sie trägt. Und heute Abend? Heute Abend bleibt der Laptop zu. Der Lavendelduft soll diesmal länger halten als nur bis zum ersten Paragrafen.