
KW 03: Der Moment, in dem aus einem Trend ein Gesetz wurde
Es ist Dienstagabend, kurz nach 18:00 Uhr. Das Büro ist fast leer, nur das monotone Summen des Kopierers im Flur leistet mir Gesellschaft. Ich starre auf meinen Monitor, auf dem der Text der EU-KI-Verordnung (AI Act) flimmert. Genauer gesagt: Artikel 4. Plötzlich spüre ich diesen stechenden Schmerz in meinem Nacken, ein Ziehen, das sich bis in die Schläfen hochzieht. Kennst du das, wenn dein Körper dir sagt, dass du gerade ein riesiges Problem entdeckt hast, bevor dein Gehirn es ganz begriffen hat? Die Bußgelder, die dort für mangelnde Compliance angedroht werden, sind keine Kleinigkeit. Sie fühlen sich an wie eine Drohung, die direkt an meinen Schreibtisch adressiert ist.
In Artikel 4 steht etwas von 'AI Literacy' — auf Deutsch: KI-Kompetenz. Da steht schwarz auf weiß, dass wir als Unternehmen sicherstellen müssen, dass unsere Leute genug über KI wissen, wenn sie damit arbeiten. Das ist kein 'Nice-to-have' mehr, kein freiwilliger Workshop für die IT-Abteilung. Es ist eine gesetzliche Pflicht für uns alle 78 Leute hier im Betrieb. Ich habe mir den Text ausgedruckt und bin damit in unser Archiv geflüchtet, weil ich dort endlich mal 20 Minuten Ruhe vor Telefonaten hatte. Der trocken-staubige Geruch der alten Aktenordner dort drin hat mich seltsamerweise beruhigt, während ich mich durch die über 100 Seiten juristisches Kauderwelsch gekämpft habe.
Ich bin keine Juristin. Ich habe BWL studiert und mache seit vier Jahren HR. Aber ich verstehe genug, um zu wissen: Wenn wir nichts tun, stehen wir mit einem Bein im Off. Ich habe mich gefragt, wie ich das der Geschäftsführung verkaufe. Die denken bei KI immer noch an Roboter, die Kaffee kochen, oder an ChatGPT-Gedichte für die Weihnachtsfeier. Aber Artikel 4 meint es ernst. Es geht um Risikoerkennung. Und das betrifft jeden.
KW 06: Frau Krüger und die Frage nach dem Warum
Heute Morgen stand ich bei Frau Krüger, unserer Fertigungsleiterin. Sie ist seit 25 Jahren dabei und hat eine natürliche Skepsis gegenüber allem, was 'digital' im Namen trägt. Ich habe ihr erklärt, dass wir einen 'KI-Führerschein' brauchen. Auch für ihre Leute an den CNC-Maschinen. Sie hat mich angeschaut, als hätte ich vorgeschlagen, dass wir ab jetzt alle in Alufolie gewickelt zur Arbeit kommen sollen. 'Warum müssen meine Leute wissen, wie ein Algorithmus funktioniert?', fragte sie. 'Die sollen Frästeile prüfen, keine Software programmieren.'
Ich musste tief durchatmen. Ich habe ihr erklärt, dass wir gerade das neue KI-gestützte Wartungstool testen. Wenn das System sagt: 'Lager tauschen', und der Mitarbeiter macht es blind, ohne zu verstehen, dass die KI auch halluzinieren kann, dann haben wir ein Haftungsproblem. Der AI Act verlangt, dass die Leute die Risiken verstehen. Ich habe ihr vorgerechnet, was ich mir überlegt habe: 4 Module pro Person. Grundlagen, Recht & Ethik, Prompting und Datensicherheit. Jedes Modul etwa 45 Minuten fokussiertes Micro-Learning. Das sind 3 Stunden pro Mitarbeiter. Bei 78 Leuten sind das 234 Stunden Arbeitszeit, die wir 'verlieren'.
Frau Krüger hat nur die Augen verdreht, aber ich habe gemerkt, dass sie nachdenkt. Das Problem ist ja: Wir haben kein Budget für teure externe Berater. Ich muss das Ganze irgendwie intern stemmen. Ich habe schon angefangen, unsere Schatten-KI-Inventur zu nutzen, um zu sehen, wo die Leute überhaupt schon Tools einsetzen. Da sind Sachen dabei, von denen die Geschäftsführung keine Ahnung hat. Wenn ich denen jetzt sage, dass wir eine Schulungspflicht haben, muss ich auch erklären, warum wir erst jetzt damit um die Ecke kommen.
KW 15: Wenn aus Theorie nackte Angst wird
Mitte April hätte es fast geknallt. Und genau das war der Moment, in dem mir klar wurde, dass Artikel 4 nicht nur ein Paragraf ist, sondern eine Lebensversicherung für die Firma. Einer der jüngeren Kollegen aus der Konstruktion hat versucht, eine komplexe CAD-Zeichnung eines neuen Getriebegehäuses in ein öffentliches KI-Tool hochzuladen. Er wollte nur wissen, ob die KI Schwachstellen in der Geometrie findet. Ein 'schneller Check', wie er sagte.
Hätte er auf 'Senden' gedrückt, wären unsere Firmengeheimnisse auf den Servern eines US-Konzerns gelandet, bereit, in das nächste Trainingsmodell einzufließen. Ich habe es zufällig mitbekommen, weil ich wegen einer Urlaubsabstimmung an seinem Platz stand. Mir ist das Herz in die Hose gerutscht. Das ist genau das, was der AI Act mit 'Risikokompetenz' meint. Die Leute wissen, wie man die Tools bedient (sie können prompten), aber sie haben keine Ahnung von den rechtlichen Leitplanken.
Ich habe das zum Anlass genommen, in meinem nächsten Bericht an die Chefetage nicht mehr von 'Weiterbildung' zu sprechen, sondern von 'Risikomanagement'. Ich habe ihnen erklärt, dass wir unsere Systeme erst einmal richtig in Risikoklassen einteilen müssen, bevor wir überhaupt wissen, worauf wir schulen. Ohne diese Basis ist jede Schulung nur Makulatur. Aber der Vorfall mit der CAD-Zeichnung hat mir geholfen, das nötige Zeitbudget für den KI-Führerschein freizubekommen. Plötzlich waren die 234 Stunden kein Problem mehr, verglichen mit dem Verlust unserer Patente.
KW 16: Die Gefahr der falschen Sicherheit
Heute haben die ersten 20 Kollegen ihre Zertifikate für den KI-Führerschein bekommen. Ich saß am Abend in meiner Yoga-Stunde und habe zum ersten Mal seit Wochen gemerkt, wie sich die Anspannung in meinen Schultern löste. Aber während ich da so auf meiner Matte lag, kam mir ein beunruhigender Gedanke. Wir erfüllen jetzt das Gesetz. Wir haben die Häkchen bei Artikel 4 gemacht. Aber macht uns das wirklich sicher?
Ich habe die Befürchtung, dass diese Pflicht-Schulungen eine gefährliche falsche Sicherheit erzeugen. Die Leute haben jetzt ein Zertifikat in der Hand und denken: 'Ich weiß jetzt, wie KI geht.' Aber echte technologische Risikokompetenz lernt man nicht in 45 Minuten Datensicherheits-Training. Ich habe Angst, dass wir durch diese Formalisierung das kritische Mitdenken eher verhindern. Die Leute verlassen sich darauf, dass 'die da oben' (also ich, die HR-Tante ohne IT-Ahnung) ihnen schon gesagt haben, was sie dürfen und was nicht. Aber die KI entwickelt sich so schnell, dass meine Schulungsinhalte von heute in drei Monaten vielleicht schon wieder veraltet sind.
Was meine Kollegen tatsächlich gelernt haben, ist oft sehr pragmatisch. Tobias aus der IT meinte neulich zu mir: 'Jetzt weiß ich wenigstens, dass ich nicht alles glauben darf, was das Ding ausspuckt.' Das ist ein Anfang. Aber Frau Krüger fragt immer noch, wann die KI endlich die Urlaubsplanung übernimmt, damit sie weniger Arbeit hat. Dass die KI dabei diskriminieren könnte, wenn sie nur mit Daten aus der Vergangenheit gefüttert wird, ist ein Konzept, das noch nicht ganz angekommen ist.
Wir stehen erst am Anfang. Der AI Act zwingt uns, uns zu bewegen, und das ist gut so. Ohne den gesetzlichen Druck säßen wir wahrscheinlich 2028 noch da und würden überlegen, ob wir dieses 'ChatGPT' mal ausprobieren sollten. Aber wir dürfen nicht glauben, dass wir mit ein paar Folien und einem Multiple-Choice-Test am Ende unsere Hausaufgaben erledigt haben. Wahre Literacy bedeutet, dass man jeden Tag aufs Neue hinterfragt, was die Maschine da eigentlich macht. Und das ist verdammt anstrengend.
Wenn du mich fragst: Fang einfach an. Warte nicht auf das perfekte Curriculum. Die rechtlichen Anforderungen sind da, und die Bußgelder schlafen nicht. Aber bleib ehrlich zu deinen Leuten — sag ihnen, dass du auch nicht alle Antworten hast. Ich sage auch immer dazu: Wenn ihr es rechtlich ganz genau wissen wollt, müsst ihr eine Anwältin für IT-Recht fragen. Ich bin nur diejenige, die versucht, das Schiff irgendwie durch den Nebel zu steuern, ohne gegen den Eisberg namens Non-Compliance zu krachen.
Es ist jetzt 21:30 Uhr am Mittwochabend. Die Yoga-Stunde ist vorbei, mein Nacken ist okay. Morgen früh geht es weiter mit der nächsten Gruppe. 78 Leute sind viel Holz für eine One-Woman-Show im Bereich KI-Compliance. Aber wir schaffen das. Schritt für Schritt. Oder Modul für Modul.