Die Entwicklung Künstlicher Intelligenz ist ebenso rasant wie ihre Nutzung. Obwohl ChatGPT erst Ende 2022 veröffentlicht wurde, gehört die Technologie längst zum Unternehmensalltag. So hat etwa ein Großteil der Senior-HR-Profis bereits damit begonnen, KI und Automatisierung in ihre HR-Prozesse zu integrieren. Einer Ende vergangenen Jahres vom HR-Softwareanbieter Aconso durchgeführten und im Januar 2025 veröffentlichten Umfrage unter 650 Führungskräften weltweit zufolge sind es 99 Prozent. Doch wo im Personalbereich kann KI überhaupt angewendet werden? Für Dr. Simon Grosse-Brockhoff, Rechtsanwalt und Partner bei Orka Law in Düsseldorf, sollten sich Unternehmen auf der Suche nach geeigneten Use Cases im Personalbereich zuerst die Frage stehen, was in der jeweiligen Organisation derzeit die meisten Ressourcen bindet. „Besonders attraktiv sind für unsere Mandanten wiederkehrende Tätigkeiten“, berichtet er. Dazu zählten etwa die Dokumentenerstellung, Entscheidungshilfen, Datenanalyse und Knowledgemanagement, aber auch Recruiting, Talent- und Ressourcenmanagement, Personalstrategie, neue Arbeitsmethoden, Performance Management sowie Compliance. Bei KI-gestützten Recruiting liege beispielsweise das Hauptziel der Nutzung der Technologie in der Reduktion repetitiver manueller Arbeiten, etwa beim Screening und der Auswertung großer Datenmengen, dem Abgleich mit der aktuellen Belegschaftsstruktur und der Identifizierung von Bewerbenden mit passenden Skills. Trotz dieser Effizienzgewinne gebe es allerdings erhebliche Herausforderungen. Ein zentrales Problem sind diskriminierende Algorithmen: „Wenn die Trainingsdaten der KI nicht ausreichend divers sind, kann dies bestehende Strukturen verstärken, sodass die KI automatisch bestimmte Kandidaten als „ideal“ wahrnimmt und andere ausschließt“, erläutert Grosse Brockhoff. „Diese Verzerrung entsteht durch mangelnde Kontrolle und das fehlende Verständnis über die sich kontinuierlich entwickelnden Algorithmen. In der Praxis führe dies unbewusst zu systematischer Diskriminierung.“ Ein Gegenbeweis gemäß § 22 AGG (Allgemeine Gleichbehandlungsgesetz) sei in solchen Fällen schwer zu führen, da nur bei ausreichenden Indizien für eine Diskriminierung eine Überprüfung möglich wäre. Zudem könnte der Einsatz solcher Algorithmen einen Verstoß gegen das Verbot von Profiling und automatisierten Entscheidungen gemäß Datenschutzrecht darstellen. „Rechtliche Komplexität ist hingegen nicht mehr das Bottleneck“, unterstreicht der Rechtsanwalt. Außerdem gelte: „Prompten war gestern: KI, die für einen bestimmten Use Case gebaut und trainiert wird, kann diese Aufgabe – zum Beispiel als Word-Plugin – mit erstaunlicher Verlässlichkeit und Transparenz übernehmen und belastbare Ergebnisse (re)produzieren“, unterstreicht Grosse-Brockhoff. „Werden ChatGPT & Co. nur als Schnittstelle für das Erkennen, Verstehen und Generieren von Texten eingesetzt, die Ergebnisse aber aus vektorisierten Datenbanken, zuvor festgelegten Entscheidungsbäumen und vordefinierten Playbooks gespeist, sinkt das Risiko von Fehlern, die durch unsachgemäße Prompts oder Halluzinationen entstehen können, signifikant, so der Rechtsanwalt.“

„Der Einsatz von KI für die Erstellung von Zwischenzeugnissen ist denkbar, etwa um aus einer Stellenbeschreibung und Bewertung automatisch einen Text zu generieren.“
Dr. Stefan Brügmann
Bereichsleiter Personal und Recht,
Helaba
Tools können personenbezogene Daten herausfiltern
Zu den größten Herausforderungen im HR-Bereich zählten die Rechtmäßigkeit der Datenverarbeitung, Datensicherheit und der Schutz von Know-how und Geschäftsgeheimnissen. Aber auch dafür sind Lösungen verfügbar: „Es gibt Tools, die sämtliche personenbezogenen Daten herausfiltern und dennoch Sachzusammenhänge aufrechterhalten“, so Grosse-Brockhoff. Mit dem Inkrafttreten der europäischen KI-Verordnung, dem AI Act, hat auch für Personalabteilungen eine neue Ära der Regulierung begonnen. „Unternehmen, die KI hier einsetzen, müssen strengere Transparenzpflichten beachten und sich auf Risikobewertungen und Haftungsfragen einstellen“, so der Rechtsanwalt. Doch im Rahmen des juristisch Zulässigen eröffnet die Regulierung große Chancen: Wer KI verantwortungsvoll einsetzt, kann die digitale Transformation vorantreiben und sich strategische Vorteile sichern. „Während sich bis zu ChatGPT nur große Unternehmen damit beschäftigt haben, ist das Thema KI seitdem in der Breite angekommen“, beobachtet auch Felix Meurer, Rechtsanwalt und Salary Partner bei der Kanzlei Orka am Standort Berlin. „Dies gilt angesichts der initialen Anwendbarkeit der KI-Verordnung am 2. Februar dieses Jahres auch für die Rechtsabteilungen und andere Unternehmensbereiche. So mischen sich nun bei einer Softwareeinführung auch öfter Betriebsräte ein und weisen auf mögliche Risiken von KI hin.“ Das technische Verständnis der Funktionsweise, was KI und was „nur“ komplexe Software ist, sei durchschnittlich hingegen noch sehr gering ausgeprägt. In seiner Anwaltspraxis würden ihm daher bisher vor allem allgemeine Fragen gestellt. „Es braucht Zeit, die Unterschiede zwischen KI und komplexer Software zu verstehen, die auch rechtlich relevant sind“, weiß der Anwalt. „Denn davon hängt ab, ob ein Sachverhalt unter die KI-VO fällt oder nicht.“ Für Unternehmensjuristen sei genau dies auch immer die erste Weichenstellung. Eine Herausforderung dabei: „Für viele ist die KI-VO neu, aber es gibt auch noch den CRA, also den Cyber Resilience Act, der Cybersicherheitsrisiken bei Produkten mit digitalen Elementen adressiert, und die NIS-2-Richtlinie, die Unternehmen – insbesondere solche mit kritischen Infrastrukturen –dazu verpflichtet, ihre Cybersicherheit zu stärken. Und ihre Anwendung kann sich überschneiden“, erläutert Meurer. Im ersten Schritt sollte es daher immer darum gehen, sich einen Überblick über die eigene IT-Landschaft zu verschaffen, um zu wissen, welche Vorschriften anwendbar sind, und wo sie sich überschneiden“, rät der Rechtsanwalt. Wenn KI drin steckt, sollte eine Klassifikation erfolgen, für welche Zwecke sie eingesetzt wird. Das Problem: Nicht immer ist offensichtlich, dass KI zum Einsatz kommt. „Es gibt HR-Software, die KI-Funktionen hat, etwa bei immer mehr Cloud-Anbietern. Diese KI-Funktionen fallen oft als Hochrisikosysteme unter die KI-VO. „Viele Unternehmen wissen das nicht, wenn die KI-Funktion durch ein Update automatisch installiert wird und anschließend etwa bei der Vorauswahl der Bewerber KI zum Einsatz kommt.

„Prompten war gestern: KI, die für einen bestimmten Use Case gebaut und trainiert wird, kann jede beliebige Aufgabe mit ausreichender Verlässlichkeit und Transparenz übernehmen und belastbare Ergebnisse (re)produzieren.“
Dr. Simon Grosse-Brockhoff
Rechtsanwalt und Partner,
orka
Menschliche Aufsicht gewährleisten
Wichtig ist außerdem, dass die menschliche Aufsicht gewährleistet wird, die Bewerbervorauswahl durch die KI also etwa durch Menschen überprüft und hinterfragt wird. „Das setzt natürlich voraus, dass die Aufsichtsperson KI-Kenntnisse hat und versteht, wie die Technologie funktioniert und nicht nur die Ergebnisse abnickt. „Seit dem 2. Februar besteht hier eine Pflicht zur Schulung“, so Meurer. „Die KI-VO fordert zudem stichprobenartige Kontrollen durch Fachkundige, um die Einhaltung der Standards sicherzustellen. Zudem sind detaillierte Dokumentationen zur Transparenz und Nachweisbarkeit verpflichtend.“ Die Herausforderung: „Die Datengrundlage muss stimmen“, unterstreicht Meurer. Denn wenn etwa in der Vergangenheit mehr Männer eingestellt wurden, jetzt aber nicht mehr auf das Geschlecht abgestellt werden soll, wird die Datengrundlage invalide.“ Von der Verordnungsfülle sollte man sich dennoch nicht abschrecken lassen: „Gerade der Einsatz von KI im Personalbereich unterfällt oft dem Hochrisikobereich der KI-VO. Wer aber bereits DSGVO-Projekte abgeschlossen hat, kann von dabei gemachten Erfahrungen profitieren. Bei der Helaba (Landesbank Hessen-Thüringen) beschäftigt man sich in Bezug auf den Einsatz von KI unter anderem gerade mit der Anwendung dieser Technologie im First-Level-Supprt – auch in den HR-Abteilungen. „Wir erhalten in der Personalabteilung täglich eine Vielzahl an Mails und Anfragen – oft zu Themen, zu denen sich die Mitarbeitenden meist auch selbst im Intranet informieren könnten“, berichtet Chefsyndikus Dr. Stefan Brügmann, Bereichsleiter Personal und Recht. Doch entweder seien die Informationen schwer zu finden, oder die Qualität nicht ausreichend, oder es fehle einfach die Motivation dafür. „Mithilfe eines KI-gestützten Chatbots könnten wir sehr schnell Fragen klären, etwa betreffend die Anzahl freier Tage in Bezug auf familiäre Anlässe, also Wissensfragen, die sich in der Regel aus irgendwelchen Dienstvereinbarungen, Betriebsordnungen, Richtlinien ergeben“, so Brügmann weiter. Auf diese Weise ließe sich eine Vielzahl administrativer Personalaufgaben reduzieren, die Ressourcen binden, aber wenig Mehrwert bieten. Ein nächster Schritt könnte dann die Verbesserung von Workflows sein, etwa die Erstellung von Zwischenzeugnissen. „Noch muss sich der Mitarbeiter dazu manuell in der Personalabteilung melden“, erläutert Brügmann. „Ein Servicemitarbeiter ermittelt dann, um wen es sich handelt und wer die Führungskraft ist. Anschließend wird der bisherigen Führungskraft ein Formular zur Bearbeitung geschickt – alles manuelle Prozesse.“ Künftig soll es dann so funktionieren: Der Mitarbeiter stellt eine Anfrage, das System ermittelt Daten und Führungskraft, versendet Formulare und erinnert bei ausbleibender Rückmeldung. Zunächst erstellt ein externer Anbieter das Zeugnis, später soll eine eigene Software dies übernehmen. „Wir haben den Prozess bereits automatisiert und schalten ihn bald frei – ohne KI, sondern mit einem Bot, der To-Dos aus einer Excel-Liste abarbeitet. Der Einsatz von KI ist in diesem Bereich denkbar, etwa um aus einer Stellenbeschreibung und Bewertung automatisch einen Text zu generieren. Das wäre mit einem Large Language Model gut vorstellbar, auch wenn es derzeit noch nicht umgesetzt ist“, so Brügmann. „Wichtig wäre dabei, dass keine personenbezogenen Daten ungewollt verarbeitet werden.“ Zur Bewerberauswahl und Terminplanung gibt es bei der Helaba derzeit noch keine KI-Lösungen. Ein automatisierter Terminplanungsassistent könnte laut Brügmann jedoch helfen, Führungskräfte, Personal und Bewerber effizienter zusammenzubringen. Derzeit wird eine interne Bewerbermanagement-Software genutzt, die aber noch keine Schnittstellen für externe Daten hat, was ebenfalls automatisiert werden könnte. Ein weiterer Anwendungsfall für den Einsatz von KI sind Arbeitsverträge: „Angesichts von knapp 3.500 Mitarbeitern kann man bei neuen zwingenden Regeln mittels einer KI-gestützten Analyse über alle vorhandenen Verträge natürlich besser und schneller erkennen, wo vielleicht Anpassungsbedarf besteht, als wenn man sich das manuell ansehen müsste.“
KI-gestützte Lernplattformen sind für die Helaba künftig ebenfalls vorstellbar, im Moment allerdings noch Zukunftsmusik. „Zunächst bräuchte die KI Zugriff auf alle relevanten Daten zum Wissen und zur Erfahrung der Mitarbeiter – was in der Form gar nicht datenbasiert und auswertbar vorliegt. Erst dann könnte sie analysieren, welche Kompetenzen vorhanden sind und gezielt Vorschläge für machen.“ Derzeit setzt die Helaba außerdem einen Talentpool auf. „Wir speichern vielversprechende Bewerber in einem Pool, falls sich später eine passende Stelle ergibt“, berichtet Brügmann. Noch könne dieser Pool nicht automatisch mit offenen Positionen abgeglichen werden. Ähnlich sei es bei internen Potenzialträgern: „Idealerweise hätten wir stets aktuelle Daten zu ihren Fähigkeiten und Wünschen, um passende Entwicklungsmöglichkeiten aufzuzeigen. KI könnte hier helfen, unstrukturierte Daten effizient auszuwerten und mit offenen Stellen abzugleichen“, so der Bereichsleiter Personal und Recht weiter. Bias sieht Brügmann als generelles Risiko beim KI-Einsatz und betont, dass menschliche Kontrolle gemäß KI-Verordnung essenziell bleibt. Die freiwillige KI-Schulung wurde trotz vieler Pflichtschulungen gut angenommen: Fast die halbe Bank nahm teil, da sie praxisnah und unterhaltsam mit KI-generierten Avataren gestaltet war.
■ Claudia Behrend