IA dans la sélection du personnel : risques et opportunités au Tessin
Les entreprises tessiannes intègrent l'IA dans les recrutements de 2026. Quels sont les risques de discrimination et les problématiques pour les candidats ? Le point de la situation.
Contesto
L'intelligence artificielle redessine les dynamiques de l'emploi en Suisse et dans le canton du Tessin, en introduisant des innovations significatives dans les processus de recrutement. Selon le rapport trimestriel de Manpower publié pour le deuxième trimestre 2026, les employeurs conservent une attitude prudente concernant les prévisions d'embauche, tout en cherchant à optimiser l'efficacité opérationnelle par l'intégration de systèmes de recrutement automatisés. Bien que l'objectif déclaré soit d'accélérer la recherche de talents et de favoriser la flexibilité, le recours aux algorithmes soulève des questions profondes sur le plan éthique et réglementaire. ## Le problème des données historiques La question centrale concerne la nature même des algorithmes, qui apprennent sur la base de données historiques. Étant donné que les bases de données du passé reflètent souvent des structures d'entreprise où la continuité professionnelle était le paramètre dominant, les systèmes ont tendance à privilégier des profils linéaires et ininterrompus. Ce biais algorithmique pénalise ceux qui ont suivi des parcours professionnels moins conventionnels. Comme le souligne Bea Knecht, fondatrice de Zattoo, le risque est que le système, ne trouvant pas de traces documentées de certains parcours, finisse par ignorer la complexité de la vie professionnelle, en particulier celle des femmes. Solange Ghernaouti, professeure à l'Université de Lausanne, avertit que l'automatisation risque de transformer des préjugés latents en décisions techniques indiscutables. Ce phénomène transforme l'IA en un amplificateur d'inégalités, où les discriminations envers les femmes et les minorités sont intégrées au logiciel, les rendant difficiles à identifier et à contrer. Les entreprises locales, tout en cherch...
Dettagli operativi
Les implications pratiques de l'utilisation de l'intelligence artificielle (IA) dans le monde du travail tessinois sont multiples et touchent directement le quotidien des candidats. Lorsqu'une entreprise adopte un système de sélection automatisée, le curriculum vitae n'est plus lu exclusivement par un responsable des ressources humaines, mais passe par un filtre algorithmique qui attribue une note en fonction des mots-clés et de la continuité temporelle. Pour les travailleurs, cela signifie que les périodes de pause, les emplois à temps partiel ou les changements de secteur peuvent être interprétés par le logiciel comme des signaux négatifs, conduisant à une exclusion automatique avant même l'entretien de connaissance. ### Scénarios de comparaison : Avant vs Après Pour comprendre l'impact de cette transition, il faut observer comment l'évaluation a évolué ces dernières années. Avant l'arrivée massive de l'IA, un recruteur humain était capable de contextualiser une période de vide dans un CV, en comprenant les besoins familiaux ou personnels. Aujourd'hui, l'algorithme a tendance à écarter le profil en fonction de schémas rigides. Les entreprises commencent à signaler un écart entre les attentes et les résultats, avec des cas de profils non adaptés proposés par les systèmes ou, à l'inverse, la perte de talents valables en raison de filtres trop restrictifs. Le tableau ci-dessous illustre les principales différences observées dans les processus de sélection : | Caractéristique | Sélection traditionnelle | Sélection avec IA | | :--- | :--- | :--- | | Évaluation du CV | Analyse holistique du parcours | Analyse basée sur des motifs | | Temps de tri | Long, interaction élevée | Court, automatisation élevée | | Gestion des interruptions | Prise en compte (ex. maternité) | Sou...
Punti chiave
[object Object] Découvrez les offres d'emploi au Tessin mises à jour quotidiennement : plus de 4.000 postes. Source: tvsvizzera.it
Punti chiave
[{"q":"Pourquoi les algorithmes de sélection pénalisent-ils souvent les femmes ?","a":"Les algorithmes se basent sur des données historiques qui reflètent une réalité professionnelle passée où les profils masculins aux carrières linéaires étaient prédominants. Comme le système apprend du passé, si les carrières féminines, marquées par des interruptions ou du travail à temps partiel, n’ont pas été documentées ou valorisées historiquement, l’IA tend à ne pas les reconnaître comme valables, perpétuant ou amplifiant ainsi les discriminations existantes."},{"q":"Quels sont les principaux risques signalés par les entreprises tessinoises ?","a":"Les entreprises signalent principalement deux problèmes : l’exclusion de candidats valables en raison de filtres trop stricts qui ne prennent pas correctement en compte les parcours non linéaires, et la proposition de profils inadaptés par les systèmes. Dans certains cas, des biais systématiques intégrés dans les logiciels ont été identifiés, rendant les décisions de sélection peu transparentes et potentiellement discriminatoires."},{"q":"Est-il possible de lutter contre la discrimination algorithmique ?","a":"Les experts recommandent une approche collective qui ne laisse pas le sujet de l’IA uniquement aux techniciens. Une réglementation attentive et une supervision humaine constante, intégrant la perspective féminine, sont nécessaires. Par ailleurs, les candidats peuvent optimiser leurs CV en y intégrant des mots-clés pertinents, tandis que les entreprises doivent vérifier régulièrement leurs systèmes pour éviter qu’ils ne deviennent des amplificateurs d’inégalités."}]
Questions fréquentes
- Pourquoi les algorithmes de sélection pénalisent-ils souvent les femmes ?
- Les algorithmes se basent sur des données historiques qui reflètent une réalité professionnelle passée où les profils masculins aux carrières linéaires étaient prédominants. Comme le système apprend du passé, si les carrières féminines, marquées par des interruptions ou du travail à temps partiel, n’ont pas été documentées ou valorisées historiquement, l’IA tend à ne pas les reconnaître comme valables, perpétuant ou amplifiant ainsi les discriminations existantes.
- Quels sont les principaux risques signalés par les entreprises tessinoises ?
- Les entreprises signalent principalement deux problèmes : l’exclusion de candidats valables en raison de filtres trop stricts qui ne prennent pas correctement en compte les parcours non linéaires, et la proposition de profils inadaptés par les systèmes. Dans certains cas, des biais systématiques intégrés dans les logiciels ont été identifiés, rendant les décisions de sélection peu transparentes et potentiellement discriminatoires.
- Est-il possible de lutter contre la discrimination algorithmique ?
- Les experts recommandent une approche collective qui ne laisse pas le sujet de l’IA uniquement aux techniciens. Une réglementation attentive et une supervision humaine constante, intégrant la perspective féminine, sont nécessaires. Par ailleurs, les candidats peuvent optimiser leurs CV en y intégrant des mots-clés pertinents, tandis que les entreprises doivent vérifier régulièrement leurs systèmes pour éviter qu’ils ne deviennent des amplificateurs d’inégalités.