KI bei der Personalauswahl: Risiken und Chancen im Tessin 2026
Die Tessiner Unternehmen setzen ab 2026 vermehrt auf KI bei der Personalbeschaffung. Welche Diskriminierungsrisiken und Hürden für Bewerber*innen sind damit verbunden? Die aktuelle Lage im Überblick.
Contesto
Künstliche Intelligenz gestaltet die Beschäftigungsdynamik in der Schweiz und im Kanton Tessin neu und führt bedeutende Innovationen in den Auswahlprozessen für Personal ein. Laut dem vierteljährlichen Bericht von Manpower für das zweite Quartal 2026 gehen Arbeitgeber vorsichtig mit den Einstellungsprognosen um, versuchen jedoch, die operative Effizienz durch die Integration automatisierter Recruiting‑Systeme zu optimieren. Obwohl das erklärte Ziel die Beschleunigung der Talentsuche und die Förderung von Flexibilität ist, wirft der Einsatz von Algorithmen tiefgreifende ethische und regulatorische Fragen auf. ## Das Problem der historischen Daten Die zentrale Frage betrifft die Natur der Algorithmen selbst, die auf Basis historischer Daten lernen. Da vergangene Datenbanken häufig Unternehmensstrukturen widerspiegeln, in denen berufliche Kontinuität das dominierende Kriterium war, neigen die Systeme dazu, lineare und ununterbrochene Profile zu bevorzugen. Dieser algorithmische Bias benachteiligt Personen mit weniger konventionellen Karrierewegen. > «Wie Bea Knecht, Gründerin von Zattoo, betont, besteht das Risiko, dass das System, weil es keine dokumentierten Spuren bestimmter Wege findet, die Komplexität des Arbeitslebens, insbesondere die der Frauen, ignoriert.» > «Solange Ghernaouti, Dozentin an der Universität Lausanne, warnt, dass die Automatisierung latente Vorurteile in unbestreitbare technische Entscheidungen verwandeln kann.» Dieses Phänomen macht KI zu einem Verstärker von Ungleichheiten, wobei Diskriminierungen gegenüber Frauen und Minderheiten in die Software eingebettet werden und schwer zu erkennen und zu bekämpfen sind. Die Unternehmen der Region, die sich modernisieren wollen, müssen daher nicht nur die Effizienz der Software, sondern auch die Verantwort...
Dettagli operativi
Die praktischen Auswirkungen des Einsatzes von KI in der Arbeitswelt des Tessins sind vielfältig und betreffen direkt den Alltag der Bewerber:innen. Wenn ein Unternehmen ein automatisiertes Auswahlsystem einführt, wird der Lebenslauf nicht mehr ausschließlich von einer Personalverantwortlichen oder einem Personalverantwortlichen gelesen, sondern durchläuft einen algorithmischen Filter, der eine Bewertung anhand von Schlüsselwörtern und zeitlicher Kontinuität vornimmt. Für Arbeitssuchende bedeutet das, dass Pausen, Teilzeitbeschäftigungen oder Branchenwechsel vom Softwareprogramm oft als negative Signale interpretiert werden und zu einer automatischen Ablehnung führen können – noch bevor es zum Vorstellungsgespräch kommt. ### Vergleichsszenarien: Vorher vs. Nachher Um die Auswirkungen dieses Wandels zu verstehen, lohnt sich ein Blick darauf, wie sich die Bewertung in den letzten Jahren verändert hat. Vor dem massiven Einsatz von KI war eine menschliche Personalverantwortliche oder ein Personalverantwortlicher in der Lage, Lücken im Lebenslauf zu kontextualisieren und etwa familiäre oder persönliche Gründe nachzuvollziehen. Heute tendiert der Algorithmus dazu, Profile anhand starrer Muster abzulehnen. Unternehmen berichten zunehmend von Diskrepanzen zwischen Erwartungen und Ergebnissen: Entweder werden ungeeignete Profile vorgeschlagen oder wertvolle Talente gehen verloren, weil die Filter zu restriktiv sind. Die folgende Tabelle veranschaulicht die wichtigsten Unterschiede in den Auswahlprozessen: | Merkmal | Traditionelle Auswahl | Auswahl mit KI | | :--- | :--- | :--- | | Bewertung des Lebenslaufs | Ganzheitliche Betrachtung des Werdegangs | Analyse basierend auf Mustern | | Screening-Dauer | Lang, hoher Interaktionsaufwand | Kurz, hohe Automatisierung | | Umgang mit...
Punti chiave
Die Integration von KI in den Arbeitsmarkt erfordert einen Ansatz, der über rein technische Kompetenzen hinausgeht. Experten zufolge reicht es nicht aus, lediglich den Frauenanteil in wissenschaftlichen Teams zu erhöhen; es bedarf einer pluralistischen Vision, die ethische Alternativen aufzeigen kann. Die Politikwissenschaftlerin Anna Jobin betonte nachdrücklich, dass die Kontrolle nicht allein Technikern überlassen werden darf. Sie forderte eine kollektive Verantwortung, die die weibliche Perspektive explizit in die Gestaltung und Überwachung von Auswahlverfahren einbezieht. ## Empfohlene Vorgehensweisen für Bewerber Um sich in diesem Umfeld zu orientieren, müssen Bewerber sich bewusst sein, dass ihr Lebenslauf möglicherweise von einer Software bewertet wird. Hier sind einige strategische Schritte zur Optimierung der Profilpräsentation: 1. Passen Sie den Lebenslauf an die spezifischen Schlüsselwörter der Stellenanzeige an, da Scansysteme nach präzisen Übereinstimmungen suchen. 2. Fügen Sie klare Beschreibungen Ihrer erworbenen Kompetenzen hinzu, auch für Zeiten der Inaktivität oder Teilzeitarbeit, und wandeln Sie Unterbrechungen in Phasen der Weiterbildung oder des Erwerbs von Querschnittskompetenzen um. 3. Prüfen Sie, ob das Unternehmen den Einsatz von KI-Systemen bei der Auswahl angibt, und versuchen Sie herauszufinden, ob ein direkter menschlicher Kontakt möglich ist, um die Profilpräsentation zu ergänzen. 4. Pflegen Sie eine aktuelle berufliche Präsenz auf digitalen Branchenplattformen, die von Algorithmen oft als ergänzende Datenquelle analysiert werden. Unternehmen sind ihrerseits verpflichtet, die von Algorithmen gelieferten Ergebnisse zu überwachen und regelmäßig zu prüfen, ob Verzerrungen oder Diskriminierungen gegenüber bestimmten Gruppen auftreten. Die Her...
Punti chiave
[{"q":"Warum benachteiligen Auswahlalgorithmen häufig Frauen?","a":"Algorithmen basieren auf historischen Daten, die eine vergangene Arbeitswelt widerspiegeln, in der männliche Profile mit linearen Karrieren dominierten. Da das System aus der Vergangenheit lernt, erkennt die KI weibliche Lebensläufe, die oft durch Unterbrechungen oder Teilzeitarbeit geprägt sind, nicht als gleichwertig an, sofern diese historisch nicht ausreichend dokumentiert oder gewürdigt wurden. Dadurch werden bestehende Diskriminierungen fortgesetzt oder sogar verstärkt."},{"q":"Welches sind die von Tessiner Unternehmen gemeldeten Hauptrisiken?","a":"Unternehmen nennen vor allem zwei kritische Punkte: den Ausschluss qualifizierter Kandidaten aufgrund zu starrer Filter, die nichtlineare Laufbahnen nicht korrekt erfassen, sowie den Vorschlag ungeeigneter Profile durch die Systeme. In einigen Fällen wurden systematische Vorurteile in der Software festgestellt, die Auswahlentscheidungen wenig transparent und potenziell diskriminierend machen."},{"q":"Ist es möglich, algorithmischer Diskriminierung entgegenzuwirken?","a":"Experten schlagen einen kollektiven Ansatz vor, der das Thema KI nicht allein den Technikern überlässt. Erforderlich sind eine sorgfältige Regulierung und eine ständige menschliche Aufsicht, die die weibliche Perspektive berücksichtigt. Zudem können Kandidaten ihre Lebensläufe durch relevante Schlüsselwörter optimieren, während Unternehmen ihre Systeme laufend überprüfen müssen, um zu verhindern, dass diese zu Verstärkern von Ungleichheiten werden."}]
Häufig gestellte Fragen
- Warum benachteiligen Auswahlalgorithmen häufig Frauen?
- Algorithmen basieren auf historischen Daten, die eine vergangene Arbeitswelt widerspiegeln, in der männliche Profile mit linearen Karrieren dominierten. Da das System aus der Vergangenheit lernt, erkennt die KI weibliche Lebensläufe, die oft durch Unterbrechungen oder Teilzeitarbeit geprägt sind, nicht als gleichwertig an, sofern diese historisch nicht ausreichend dokumentiert oder gewürdigt wurden. Dadurch werden bestehende Diskriminierungen fortgesetzt oder sogar verstärkt.
- Welches sind die von Tessiner Unternehmen gemeldeten Hauptrisiken?
- Unternehmen nennen vor allem zwei kritische Punkte: den Ausschluss qualifizierter Kandidaten aufgrund zu starrer Filter, die nichtlineare Laufbahnen nicht korrekt erfassen, sowie den Vorschlag ungeeigneter Profile durch die Systeme. In einigen Fällen wurden systematische Vorurteile in der Software festgestellt, die Auswahlentscheidungen wenig transparent und potenziell diskriminierend machen.
- Ist es möglich, algorithmischer Diskriminierung entgegenzuwirken?
- Experten schlagen einen kollektiven Ansatz vor, der das Thema KI nicht allein den Technikern überlässt. Erforderlich sind eine sorgfältige Regulierung und eine ständige menschliche Aufsicht, die die weibliche Perspektive berücksichtigt. Zudem können Kandidaten ihre Lebensläufe durch relevante Schlüsselwörter optimieren, während Unternehmen ihre Systeme laufend überprüfen müssen, um zu verhindern, dass diese zu Verstärkern von Ungleichheiten werden.