Que sont les algorithmes de détermination des salaires par IA ?
Les algorithmes de détermination des salaires par IA sont une pratique controversée où les employeurs utilisent l'IA pour analyser les données personnelles et fixer le salaire minimum acceptable. Ces systèmes, courants aux États-Unis en 2025, scannent les scores de crédit, l'activité sur les réseaux sociaux, etc., pour évaluer la vulnérabilité financière. Ils ciblent les 'salaires de désespoir', basés sur le besoin financier perçu.
L'essor de la rémunération basée sur la surveillance
Cette pratique évolue des algorithmes de prix en e-commerce. Selon une enquête de Marketwatch, de plus en plus d'entreprises américaines déploient ces systèmes, surtout dans l'économie de plateforme où exploitation des travailleurs de plateforme est répandue.
Ces systèmes collectent de vastes quantités de données personnelles, souvent sans consentement. Points clés :
- Scores de crédit et historique financier
- Activité sur les réseaux sociaux indiquant des changements de vie
- Historique de navigation et modèles de comportement en ligne
- Demandes de salaire antérieures et historique de négociation
- Données de géolocalisation et modèles de travail
Comment fonctionnent les algorithmes
Les systèmes IA identifient les indicateurs de désespoir financier. Par exemple, un travailleur avec un mauvais score de crédit ou annonçant une grossesse sur les réseaux sociaux peut recevoir une offre de salaire inférieure. L'Université de Californie étudie ces pratiques, mais les résultats sont en attente.
Comme l'auteur Joe Hoedicka l'explique : 'Le plafond de verre est au moins transparent. Nous pouvons voir ce qu'il y a de l'autre côté. Ce plafond est en béton.' L'opacité rend difficile la contestation des offres.
Économie de plateforme : terrain d'essai pour la fixation algorithmique des salaires
L'économie des petits boulots est le principal terrain d'essai. Des entreprises comme Uber, Lyft et des plateformes de santé utilisent des algorithmes pour déterminer les taux de paiement. Le Roosevelt Institute conclut qu'elles utilisent probablement des modèles de prix basés sur le désespoir.
Par exemple, une infirmière acceptant souvent des quarts de nuit après des quarts de jour peut être signalée comme financièrement désespérée et offrir des taux plus bas. Uber et Lyft nient utiliser des données personnelles, mais des études suggèrent le contraire. Un rapport du National Employment Law Project a trouvé que les chauffeurs Uber gagnaient moins en 2024 malgré plus d'heures, tandis que les chauffeurs Lyft gagnaient 14% de moins avec moins d'heures.
Réponses légales et réglementaires
Face aux préoccupations, plusieurs États américains introduisent une législation pour réguler ces systèmes. Le Colorado est un leader, avec le représentant Javier Mabrey parrainant HB25-1264, visant à interdire la discrimination basée sur la surveillance dans les prix et les salaires. Bien que le projet de loi ait été reporté indéfiniment en avril 2025, une nouvelle version, HB26-1210, a avancé à la Chambre du Colorado.
La législation proposée interdirait aux entreprises d'utiliser des systèmes de décision automatisés analysant des données personnelles intimes pour fixer des salaires individualisés. Les violations seraient traitées comme des pratiques commerciales trompeuses, avec des pénalités jusqu'à 20 000 $. Comme le représentant Mabrey l'a noté : 'Les entreprises qui disent ne pas s'engager dans ces pratiques font du lobbying contre la législation. Alors, quel est le problème ?'
D'autres États comme la Californie, la Géorgie, l'Illinois, le Maryland et New York envisagent des mesures similaires. Ces efforts reflètent la reconnaissance que biais algorithmique dans l'embauche s'étend aux pratiques de rémunération.
Implications éthiques et impact sur les travailleurs
Les préoccupations éthiques sont substantielles :
- Violations de la vie privée : Collecte de données sans transparence ou consentement
- Risques de discrimination : Perpétuation des disparités salariales historiques
- Déséquilibre de pouvoir : Léverage accru pour les employeurs
- Déficits de transparence : Impossibilité pour les travailleurs de comprendre ou contester
Le rapport 2025 de Human Rights Watch 'The Gig Trap' documente comment les travailleurs de plateforme font face à des salaires médians de seulement 5,12 $ par heure après dépenses - près de 30% en dessous du salaire minimum fédéral. Le rapport met en lumière comment les systèmes de gestion algorithmique permettent le vol de salaire et l'instabilité des revenus.
Perspectives futures et réponse de l'industrie
Alors que l'IA transforme les pratiques de rémunération, le débat sur la régulation s'intensifie. Certaines entreprises arguent que l'IA permet des décisions plus efficaces, mais les critiques avertissent des risques sans garde-fous.
Les régulations futures du travail devront probablement aborder :
| Focus réglementaire | Statut actuel | Besoins futurs |
|---|---|---|
| Exigences de transparence | Divulgation limitée dans certains États | Explication obligatoire des facteurs de rémunération |
| Protections de la vie privée des données | Approches variées par État | Normes fédérales pour les données des travailleurs |
| Application anti-discrimination | Lois existantes peuvent s'appliquer | Exigences spécifiques de test des biais IA |
| Mandats de supervision humaine | Volontaires dans la plupart des cas | Revue humaine requise des décisions IA |
Foire aux questions
Qu'est-ce que la détermination des salaires par IA ?
La détermination des salaires par IA fait référence à l'utilisation d'algorithmes d'intelligence artificielle pour analyser les données personnelles et déterminer le salaire minimum qu'un travailleur acceptera, souvent basé sur des indicateurs de vulnérabilité financière.
Cette pratique est-elle légale aux États-Unis ?
Actuellement, aucune loi fédérale n'interdit spécifiquement la détermination des salaires par IA, bien que plusieurs États envisagent une législation pour réguler ou interdire la pratique. Les lois existantes contre la discrimination et pour l'égalité des salaires peuvent s'appliquer dans certains cas.
Quelles industries utilisent le plus ces algorithmes ?
L'économie de plateforme (covoiturage, livraison de nourriture, plateformes de santé) semble être le principal adoptant, bien que la pratique se répande dans le service client, la fabrication, et d'autres secteurs.
Comment les travailleurs peuvent-ils se protéger ?
Les travailleurs peuvent limiter le partage de données personnelles, être prudents sur les divulgations financières, et plaider pour la transparence. Soutenir les efforts législatifs est aussi important.
Que fait-on pour réguler ces systèmes ?
Plusieurs États dont le Colorado, la Californie et New York développent une législation pour exiger la transparence, interdire certaines utilisations de données, et mandater la supervision humaine des décisions de rémunération par IA.
Sources
Enquête Marketwatch, Colorado HB25-1264, Rapport Human Rights Watch, National Employment Law Project, Démocrates de la Chambre du Colorado
Follow Discussion