cette traduction a été rédigée par Perplexity avec Claude Sonnet, et a été corrigée et complétée par l’autrice.
Shao, Y. et al. (Stanford University), "Future of Work with AI Agents: Auditing Automation and Augmentation Potential across the U.S. Workforce", arXiv:2506.06576v3, février 2026.
Cette étude de Stanford est la première à grande échelle à croiser les désirs réels des travailleurs et les capacités techniques des agents IA pour cartographier l'impact de ces systèmes sur le marché du travail . Elle offre un cadre empirique rigoureux pour anticiper les obligations légales et éthiques liées au déploiement d'agents IA en milieu professionnel .
Le contexte de l’étude :
(traduction libre) Sur la base de données collectées de janvier 2025 à mai 2025, nous avons construit la base de connaissances AI Agent Worker Outlook & Readiness Knowledge Bank (WORKBank). Cette base de données comprend actuellement les réponses de 1 500 travailleurs issus de 104 professions et les contributions de 52 experts en IA, relativement à 844 tâches professionnelles. Elle a été conçue pour être facilement extensible à davantage de tâches et pour refléter l'évolution des capacités technologiques et des préférences des travailleurs. À notre connaissance, il s'agit du premier audit à grande échelle des capacités des agents IA et d’utilisateurs professionnels de l’IA.
Les auteurs introduisent la Human Agency Scale (HAS), une échelle en cinq niveaux allant de H1 (tâche entièrement déléguée à l'IA) à H5 (présence humaine continue indispensable) .
Ce référentiel pourrait utilement être repris dans une charte IA ou une analyse d’impact pour qualifier le degré d'autonomie laissé au système pour chaque catégorie de tâches . Il peut également conduire à d'identifier les traitements relevant de la prise de décision automatisée au sens de l'article 22 du RGPD .
consultation des utilisateurs professionnels :
La cartographie des quatre zones (désirs × capacités) :
