Brisons les chaînes algorithmiques !

[article publié dans Travailler au Futur n° 6]

Le travail se numérise de manière fulgurante. Depuis le début de la pandémie, cette numérisation s’est amplifiée au point où elle envahit désormais toutes les sphères de la vie sociale. Dans cet article, nous proposons d’analyser en profondeur les effets de cette numérisation. L’enjeu est de taille : soit nos sociétés glissent toujours plus vers un futur dystopique digne de 1984 ou de Brave New World soit un sursaut démocratique et social fait que notre avenir restera digne d’être vécu[1].

La numérisation de la production a commencé bien avant l’arrivée des ordinateurs et d’internet. En effet, les premières machines à commande numérique sont apparus dans l’industrie à la fin des années 1940. Mais c’est bien plus tard, lorsque certaines limites techniques furent dépassées à la fin des années 1970, que la première vague de robotisation se développa. Dans les années 1990, les constructeurs du secteur automobile ont imposé aux opérateurs la signature de leur travail. Ainsi, l’ensemble des opérations de travail devenaient traçables, facilitant ainsi un contrôle de qualité intégré au process industriel. Au cours de la décennie suivante, celle des années 2000, le numérique a fait son apparition du côté des chauffeurs-livreurs, dotés de systèmes de navigation embarquée pour s’étendre très vite du côté des préparateurs de commandes dans les dépôts de logistique, des postiers ou encore des cadres qui travaillent avec des progiciels. Aujourd’hui, la numérisation s’amplifie avec le télétravail, la mise en réseau des activités de production et de service. Les services publics se digitalisent tandis que dans l’éducation nationale, élèves et enseignants sont sommés d’intégrer des espaces numériques d’apprentissage. Le métier d’enseignant est bouleversé autant que celui d’étudiants ou élève…

Partout où il se manifeste, le numérique facilite la mesure comparative de la performance, non seulement du côté des salariés mais également des fournisseurs, prestataires ou sous-traitants. Il s’agit bel et bien d’une révolution technologique de premier ordre. Reste à savoir comment l’appréhender et comment y résister, si tant est qu’il faut le faire…

Pour élucider cette question, il faut avant tout commencer par briser le secret du « code source », comprendre la nature de la révolution numérique. Pour concrétiser cela, je propose de procéder en deux temps : primo, il faut commencer par déchiffrer ce qu’est le numérique dans sa réalité la plus concret et pratique ; secundo, il faut conceptualiser de manière adéquate l’innovation technologique en général, numérique en particulier. Le numérique mobilise des informations fragmentaires sur lesquelles s’opèrent des opérations logiques. L’informatique traite ces informations sur un mode binaire, en mobilisant des langages qui organisent le classement de ces informations de manière complexe. C’est ici que l’algorithme fait son apparition. Pour Gérard Berry, chercheur en science informatique, un algorithme c’est :

« tout simplement une façon de décrire dans ses moindres détails comment procéder pour faire quelque chose . Il se trouve que beaucoup d’actions mécaniques, toutes probablement, se prêtent bien à une telle décortication. Le but est d’évacuer la pensée du calcul, afin de le rendre exécutable par un automate numérique. On ne travaille donc qu’avec un reflet numérique du système réel avec qui l’algorithme interagit. »

Il ne s’agit donc pas seulement d’un raisonnement mais aussi d’une action, au vrai sens du terme . Le script codé est chargé d’une finalité concrète à savoir résoudre un problème [2] donné.Un algorithme n’est donc rien d’autre qu’une suite finie et non ambiguë d’opérations et d’instructions qui permettent de résoudre une classe de « problèmes ». Ceci permet à son tour de mobiliser de manière standardisée l’évaluation de l’effectivité [3].

L’usage des algorithmes dans la programmation de tâches machiniques automatisées ne date pas de hier. Après la seconde guerre mondiale, les machines à commande numérique ont fait leur entrée dans l’industrie. Là aussi, un algorithme dictait à la machine ce qu’il fallait faire, comme par exemple arrêter l’usinage d’une pièce dès qu’une « tolérance critique » fut atteinte. L’algorithme a donc besoin d’informations et d’instruments de mesure, de capteurs fiables, faute de quoi le codage algorithmique devient caduc et dysfonctionnel. Dans ses développement récents, rendus possibles par l’interconnectivité apportée par internet, ces informations sont extraites à partir de l’activité travaillée de ceux qui utilisent ces machines

Aujourd’hui, les algorithmes sont une composante essentielle du fonctionnement des réseaux et de « l’intelligence artificielle » qui correspond en réalité à une sorte d’intelligence programmée qui reste dépendante de cette dernière. Avec internet et la constitution de larges bases de données (les big data), les algorithmes se sont démultipliés à tous les niveaux. Chaque année, plusieurs centaines de milliers d’étudiants voulant s’inscrire à l’université sont orientés par l’algorithme de « Parcoursup ». Les échanges sur les réseaux sociaux sont organisés par des algorithmes. La navigation sur internet alimente les centres de données et sont traités par des algorithmes. Les caméras de surveillance font le tri dans les images à l’aide d’algorithmes. Inutile de poursuivre la liste des exemples, les algorithmes sont effectivement partout.

Les philosophes Thomas Berns et Antoinette Rouvroy ont identifié l’émergence de cette réalité comme une « gouvernementalité algorithmique »[5]. En effet, les algorithmes permettent de classer les comportements hétérogènes, ce qui permet de brasser un océan de données, pour les traiter, les trier, les personnaliser et les insérer dans des instructions de commandement. Le code source de l’informationnel algorithmique contient donc une puissance de « faire faire », ce qui, dans un environnement où le pouvoir est inégalement distribué, en fait une arme redoutable…

Mais il ne suffit pas de briser le secret du « code source » algorithmique, il tout aussi essentiel de conceptualiser de manière adéquate l’instance technologique. Bien souvent, l’analyse sociologique tend à considérer le numérique comme un dispositif technique, comme une « chose », certes abstraite, mais une chose quand-même. Une telle approche nous fait voir que le dispositif tout en laissant hors champ les rapports sociaux de production, de propriété, de pouvoir et surtout les contradictions qui les travaillent. Pour ma part, je préfère résister à la tentation du « fétichisme numérique »[6], avatar d’un déterminisme technologique que les sociologues ou économistes reproduisent souvent inconsciemment. La raison est simple, ce fétichisme numérique fausse notre compréhension et nous oriente soit vers l’optimisme béat (l’émancipation par le numérique) soit vers un catastrophisme paralysant (l’humanité dominée par les robots). Or, notre avenir ne sera ni l’un ni l’autre mais seulement ce qu’on nos actions sociales réussiront à empêcher et à faire advenir…

La technologie numérique n’est donc pas une sorte de force autonome mais seulement un dispositif d’agencement des rapports sociaux de production. Les informations numériques sont à la fois force productive et marchandise, tout comme la force de travail au demeurant. Loin d’être neutres, elles répondent à un double objectif : maximiser la profitabilité et minimiser les risques (la concurrence, la rétention de productivité par le travail vivant). Le numérique algorithmique n’est donc rien d’autre qu’un rapport social dédoublé, qui aussi assujettissant qu’il puisse être, engage toujours le travail vivant et demeure donc dépendant de ce dernier. Ce qui signifie que le pouvoir du numérique algorithmique demeure contingent, tout autant que celui du capital sur le travail. Dit autrement, dans l’antagonisme qui oppose capital et travail, il faut comprendre pourquoi on est perdant et comment on ne l’est pas forcément tout le temps… Par conséquent, si la technologie n’est pas neutre mais une relation sociotechnique sous contrôle du management (ou de l’entreprise-plateforme), elle devient en même temps un terrain contesté, de luttes et d’oppositions [7].

L’algorithme comme puissance de « faire faire ».

Dans le contexte actuel, il est certain que les algorithmes créent de nouvelles possibilités pour contrôler et diriger l’activité de travail. Cette puissance algorithmique s’exerce de plusieurs manières qu’on peut distinguer facilement. Les algorithmes permettent de recommander, de restreindre, d’enregistrer, d’évaluer, de remplacer et de récompenser. L’ensemble de ces actions viennent renforcer les modalités de contrôle dont le management dispose déjà et qui s’organisent autour du contrôle technique et bureaucratique [8].

La recommandation renvoie à l’usage de scripts offrant des suggestions destinées à inciter un opérateur à prendre les décisions préférées de l’architecte de choix [9]. Cependant, contrairement aux régimes de contrôle technique et bureaucratique-rationnel, la recommandation algorithmique guide les décisions des travailleurs en identifiant des récurrences, grâce aux schémas d’apprentissage automatisés (machine learning). Le travailleur est donc invité à se conformer à un scénario fixé par le programme.

En général, ces recommandations prennent la forme du nudging [10] – une sorte d’incitation subtile et paternaliste – que l’on peut difficilement ignorer. Par exemple, Uber s’est engagé dans un processus de nudging individualisé en temps réel pour inciter les chauffeurs à rentrer chez eux lorsque trois passagers consécutifs signalaient qu’ils ne se sentaient pas en sécurité [11]. Un autre exemple : Uber s’est appuyé sur des données personnalisées telles que la vitesse de freinage et d’accélération, pour analyser si les chauffeurs conduisaient de manière erratique pour recommander de manière algorithmique le moment où ils pourraient avoir besoin de se reposer [12]. Signalons aussi que les helpdesks utilisent des systèmes qui trient les messages écrits suivant leur degré d’agressivité.

La plupart des enquêtes convergent pour dire que recommandations algorithmiques ont des effets négatifs sur les conditions de travail [13]. Dans la logistique des entrepôts, les systèmes de recommandation algorithmiques s’appuient sur des catégorisations opaques. Par exemple, le système de recommandation d’Amazon approvisionne ses entrepôts à l’aide d’un algorithme de stockage chaotique, qui attribue des marchandises sur les étagères en fonction de l’espace et de la disponibilité. Comme la logique algorithmique reste opaque, les travailleurs ne peuvent plus se fier à leur propre cognition pour trouver des articles et n’ont aucun moyen de trouver des articles lorsque le serveur tombe en panne…[14] . Dans le domaine de la santé, où la recommandation par algorithme est appliquée au niveau des diagnostics en ligne, les enquêtes indiquent que ce mode opératoire augmente le doute et l’incertitude parmi les professionnels en termes de décisions à prendre [15].

Pour les travailleurs, les recommandations algorithmiques ne sont pas forcément intelligibles, ce qui peut provoquer des frustrations et nourrir des sentiments de dépossession et d’aliénation. Forcément, le dirigisme algorithmique va mettre sous tension la coopération dans le travail puisque celle-ci s’organise autour de process automatisés.

La restriction est un deuxième mécanisme de contrôle qui passe par l’utilisation d’algorithmes qui déterminent l’affichage sélectif d’informations afin d’induire des comportements spécifiques et d’en empêcher d’autres. La plateforme de recrutement Upwork a utilisé des chatbots (robots de dialogues) pour signaler aux télé-opérateurs leur engagement de ne pas travailler en dehors de la plateforme, et ce dès qu’ils utilisent certains mots tels que Skype, Smartphone ou courriel dans leurs conversations avec les clients. La restriction se fonde également sur la rétention d’information. Ainsi, Uber n’indique pas le lieu où se trouve le passager à transporter, ce qui empêche le chauffeur de mesurer la « profitabilité » d’un trajet avant d’accepter la course. Uber et Lyft utilisent également l’algorithme forward dispatch qui attribue la course suivante avant la fin de la course en cours. Les chauffeurs peuvent mettre en pause cette fonction, mais dès qu’ils acceptaient leur prochaine course, la fonction est réactivée. On comprend que l’algorithme fonctionne ici comme un dispositif de subordination des chauffeurs et que leur acceptation de la course n’est qu’un alibi pour leur imposer un statut de chauffeur indépendant. La restriction algorithmique permet aussi de limiter les possibilités de « prise de parole » de la part des travailleurs. Les systèmes de feedback en ligne combinent de manière interactive les expériences et les évaluations des travailleurs en ne sélectionnant que les expressions positives [16].

La restriction algorithmique tend à renforcer la précarité. Les plateformes à médiation algorithmique peuvent fragmenter les efforts de plusieurs travailleurs interconnectés sans qu’ils le sachent. Le travail fragmenté se fait avant tout avec des travailleurs indépendants, « utilisateurs » de ces plateformes, plutôt que comme des employés salariés. L’usage de l’algorithme permet de remplacer le rapport de subordination – variablement présent dans le rapport salarial – par une sorte de subordination à la puissance algorithmique. L’activité décomposée en micro-tâches permet alors d’atomiser le collectif de travail pour ensuite le réassembler de manière opaque.

L’évaluation algorithmique est une autre modalité de contrôle. L’examen de l’activité des travailleurs permet de corriger les erreurs, d’évaluer la performance et d’identifier les « canards boiteux ». Mais cette évaluation exige un enregistrement permanant de l’activité ce qui permet d’identifier les groupes informels qui interagissent fréquemment, de relier ces groupes informels à la productivité et d’identifier les liaisons et les isolats de communication, et bien sûr aussi de repérer les orientations oppositionnelles [17] .

Dans l’industrie du transport de marchandises, les employeurs ont perfectionné leurs systèmes de gestion de flotte pour intégrer un large éventail de données concernant les chauffeurs, y compris l’efficacité énergétique du conducteur, le temps de marche au ralenti, la géolocalisation, la fréquence des sorties de voie, les schémas de freinage et d’accélération, le statut de la cargaison et les informations sur l’entretien du véhicule [18]. En organisant sur une base algorithmique la livraison de colis, la société UPS applique l’adage « petites quantités de temps = grandes quantités d’argent », calculant qu’en économisant une minute par jour par chauffeur-livreur, elle pourrait générer une économie près de 15 millions de dollars par an [19]. Au vue de tels chiffres, on peut se demander pourquoi le management se gênerait en effet

Tout comme pour le contrôle bureaucratique, le management utilise l’enregistrement algorithmique pour informer les travailleurs à propos de leur évaluation. Ce qui est une manière de mettre les personnes sur la défensive, comme étant toujours insuffisamment performants. Mais contrairement au contrôle bureaucratique, l’enregistrement algorithmique utilise ces procédures pour fournir un retour en temps réel. Lorsque l’activité est enregistrée en permanence, ce qui est de plus en plus le cas, les travailleurs reçoivent ces informations en temps réel, indiquant qu’ils sont « en retard » dans la réalisation de leur volume d’activité. Lorsque le score est systématiquement trop bas, une alerte se déclenche et le superviseur robotisé signalera la nécessité de réorienter le travailleur…

Dans le monde du gig work, les évaluations algorithmiques se focalisent avant tout sur la valeur « réputationnelle ». Du covoiturage aux plateformes de travail, les bonnes évaluations assurent la visibilité de la prestation de travail ou du service, ce qui détermine le potentiel de valorisation. Par exemple, sur la plateforme de services de soin Care.com, les notations algorithmiques sont utilisées pour créer différentes catégories de travailleurs : le label Care-Pros ne mentionnera que les soignant.e.s avec une note élevée, répondant à 75 % des appels dans les 24 heures. Une telle valorisation des « champion.ne.s » se retrouve sur l’ensemble des sites d’intermédiation qui visibilisent les plus performants. Mais comme l’a rappelé Antonio A. Casilli, sur les sites comme Mechanical Turk d’Amazon comme ailleurs, les champions sont aussi des brokers, des micro-employeurs qui mobilisent des « petites mains » afin de maintenir leur sur-visibilité. En même temps, sur les plateformes de micro-services, ce type de notations conduisent les prestataires à fausser les données. Si les algorithmes poussent les micro-travailleurs à l’auto-exploitation afin d’augmenter leurs chances d’obtenir une commande future, cette conduite nourrit aussi une prise de conscience qui peut donner lieu à un comportement opportuniste, déloyal ou encore oppositionnel.

Plus globalement, les algorithmes fonctionnent comme des dispositifs disciplinaires qui sanctionnent et récompensent. Dans le cas d’un contrôle par la technique, la loyauté est assurée par le recrutement d’une armée de réserve de travailleurs secondaires (intérim ou CDD) prêts à remplacer les travailleurs primaires en CDI qui ne coopèrent pas suffisamment avec l’employeur. Dans le cas d’un contrôle bureaucratique, la discipline est obtenue par des mesures incitatives et des sanctions. Les travailleurs ayant le comportement souhaité seront récompensés par des promotions, des salaires plus élevés, des postes à plus grande responsabilité ou des tâches plus intéressantes, tandis que ceux qui n’ont pas le comportement souhaité sont exposés aux brimades et au harcèlement.

Les plateformes peuvent très bien « bannir » un travailleur non coopératif ou insuffisamment performant[20]. Sur des plateformes comme Amazon Mechanical Turk, les travailleurs qui ne se conforment pas aux directives seront soit bannis de la plateforme, soit sanctionnés en rendant leur profil difficile à trouver. Dans la gestion des ressources humaines « guidé » par algorithme, les profils instables, susceptibles de quitter l’entreprise sont tout de suite identifiés[21]. Les agences intérimaires ont déployé des algorithmes pour analyser le parcours et le développement d’une carrière et identifier les profils à « haut potentiel » versus des profils « stagnants » ou « paresseux ». La récompense algorithmique forme un mécanisme de contrôle interactif et dynamique qui soutient les travailleurs les plus performants en leur offrant davantage d’opportunités, une rémunération ou des promotions.

Du côté des plates-formes, tout est fait pour garder les algorithmes de notation et de récompense secrets afin de décourager la manipulation et l’inflation des notes. Dans le marché du travail en ligne hautement qualifié, les plateformes sont passés d’un système d’étoiles transparent à un système opaque. Ne sachant plus ce sur quoi l’évaluation se fait, ni de la manière dont les évaluations sont utilisées, ni des raisons pour laquelle des propositions sont rejetées, le sentiment d’aliénation explose, ce qui nourrit la méfiance et l’esprit critique.

Si la mobilisation d’algorithmes fournit un nouvel arsenal de contrôle au management, la puissance de ce « faire faire » n’annule pas la possibilité de s’y opposer ; elle ne fait que déplacer le domaine du conflit et de la lutte. Comme je l’ai développé dans mes recherches, je pense qu’il est essentiel de comprendre que les innovations technologiques font partie intégrante d’une sorte de « luttes des classes » telle qu’elle est menée par « en-haut », c’est-à-dire par l’employeur ou le management et qu’elle ne peut donc annuler celle-ci. Tôt ou tard, des résistances sociales, individuelles ou collectives, réapparaissent. Il est donc essentiel d’intégrer cette dimension conflictuelle dans l’analyse des algorithmes au travail, tant pour comprendre leur raison d’être que les limites de leur efficacité.

Ceci est d’autant plus vrai que le management algorithmique affecte profondément la subjectivité des travailleurs. On pourrait penser que cette surveillance conduit les travailleurs à contrôler leur propre comportement afin de se conformer aux attentes de la structure, de sorte qu’ils en viennent à se voir eux-mêmes de la manière dont ils sont définis par la surveillance [22]. C’est le pari du management et c’est aussi la narration des sociologies domino-centrées qui, tout en se présentant comme « critiques », n’appréhendent qu’une seule dimension d’une réalité pourtant contradictoire. Mais une telle sociologie ne fait que rabattre la réalité sur elle-même, en masquant les tensions et les contradictions qui la traversent, ce qui interdit aussi de voir les possibles évolutions sous-jacentes.

C’est pourquoi je soutiens l’hypothèse que le management algorithmique conduit à pousser la relation de travail jusqu’à un point de rupture, tant sur un plan subjectif qu’objectif. Comment peut-on encore obtenir une collaboration loyale alors que la méfiance et la surveillance deviennent la norme ? Que des cadres (encadrants) gagnant au-delà de 4000 euros par mois consentent à collaborer loyalement est plus que compréhensible, mais peut-on s’attendre à la même chose avec ceux qui gagne le SMIC voir à peine le double de celui-ci ? Sachant le durcissement des inégalités, la dégradation des conditions de travail et l’omniprésence d’un chantage affectif à la performance (à partir de l’injonction amoureuse du travail), on peut se dire que la surveillance et le management algorithmique s’exposent à une usure rapide, produisant une perte de motivation et des turnovers élevés. A cela se rajoute les effets dysfonctionnels d’un management qui, en chassant les temps morts, casse aussi les dynamiques collaboratives et produit une érosion de la productivité [23].

L’hypothèse d’une contestation larvée et silencieuse des systèmes algorithmiques est non seulement pertinente mais se vérifie d’ores et déjà ce qui conforte l’idée que, même sous la férule d’un panoptique informatisé, le travail vivant « se rebiffe » et qu’il tente de déjouer la puissance algorithmique, ne serait-ce que pour retrouver une marge d’autonomie indispensable à sa survie psychique.

Les résistances au contrôle algorithmique

Le développement de formes de contrôle algorithmique n’est pas resté sans réponse. On peut même dire qu’il existe une continuité avec les formes de résistances qui se sont manifestées contre les régimes de contrôle technique ou bureaucratique. Néanmoins, l’environnement numérique et la tendance à l’extension de la surveillance changent la donne et font apparaître un activisme d’un nouveau type que je propose regrouper sous le vocable d’«algo-résistance».

Face au contrôle algorithmique, les travailleurs – salariés ou pas – peuvent s’engager dans la non-coopération de différentes manières, en raison du caractère instantané et interactif des algorithmes. Une des nouvelles modalités de résistance renvoie à l’exploitation inversée des algorithmes. Celle-ci passe par une sorte de négociation avec les clients et les parties tierces. Les uns vont ignorer les recommandations ou les récompenses algorithmiques tandis que les autres résistent à la gamification en refusant d’apprendre les règles du jeu ou en jouant volontairement très mal [24]. On peut donc « trainer des pieds », flâner, perdre son temps en appliquant des tactiques nouvelles. Le but est de se créer des espaces d’autonomie sur le plan psychologique, social, temporelle ou physique, à la fois sur le lieu de travail et à l’égard de la prestation attendue [25].

Une autre manière de s’engager dans la non-coopération consiste à perturber l’enregistrement algorithmique. Dans une étude sur le fonctionnement des tribunaux et des services de police, des chercheurs ont constaté que les professionnels du droit et les policiers mettent en jeu un ensemble de tactiques dont l’objectif relève d’un « obscurcissement des données » ; en bloquant la collecte de données ou en produisant une inflation d’informations que l’algorithme n’est plus en mesure de catégoriser [26].

Plusieurs enquêtes ont mis en évidence que les chauffeurs Uber résistent au contrôle en désactivant leur mode conducteur lorsqu’ils se trouvaient dans certains quartiers, en restant dans les zones résidentielles pour éviter certains types de clients ou en se déconnectant fréquemment pour éviter les longs trajets peu rémunérants dans la tarification de la plateforme [27]. Une enquête récente [28] a constaté que ces travailleurs de plateforme tendent à analyser le comportement passé des clients en matière d’évaluation avant d’accepter les contrats. Lorsque les mauvaises évaluations de leur performance s’accumulent, ils mobilisent des avatars pour éviter d’être « désactivés ».

Il semble même possible de tirer parti des algorithmes pour résister au contrôle. Certains travailleurs appliquent une sorte d’ingénierie inversée en priorisant les activités qui semblent avoir un impact positif sur leur évaluation [29]. Ce type de conduite se retrouve aussi du côté des prestataires. Les hôtes d’Air-Bnb participent à des forums en ligne, lisent la documentation technique de l’entreprise et surveillent les profils et les notes des concurrents pour comprendre quelles caractéristiques ou quels comportements semblent influencer positivement leurs notes. Dans le même ordre d’idées, les travailleurs de Mechanical Turk ont déployé leurs propres algorithmes pour tenter de prendre le dessus sur le régime de contrôle de la plateforme. D’autres travailleurs utilisent des scripts qui surveillent le marché des tâches qui donnent l’alerte lorsque des tâches appropriées deviennent disponibles. Les plus audacieux ont mené des opérations de hacking pour supprimer les informations de l’interface utilisateur [30].

La résistance au contrôle algorithmique se fait aussi en négociant de manière inversée avec les clients afin de contourner ou de modifier les évaluations algorithmiques. Au niveau de la vente en ligne, les vendeurs contactent des acheteurs ayant laissé une évaluation négative et tentent de les convaincre de la retirer [31]. Sur le marché du travail en ligne, ont tend à demander de manière préemptive des garanties d’évaluation « kharma » [32]. Ainsi, un chef de projet demande à son équipe de terminer un « déliverable » en échange d’une note « Karma » attribuée à chacun [33]. De telles interactions négociées autour des évaluations algorithmiques expliquent en partie pourquoi les marchés du travail en ligne connaissent une inflation des notes et des évaluations.

En plus des stratégies individuelles, les travailleurs peuvent aussi résister de façon collective, ce qui n’a rien de nouveau. Historiquement, les syndicats ont permis de faire valoir les droits et revendications du personnel. En effet, sans contre-pouvoir syndical dans l’entreprise, l’Etat de droit s’arrête aux portes de l’entreprise et l’arbitraire règne à tous les étages…

Aujourd’hui, on voit apparaître cette logique collective chez les coursiers. Dans les métropoles comme Paris, Londres, Rome ou Amsterdam, des collectifs de coursiers sont émergés en quelques années seulement. Souvent, cela commence par une organisation parallèle, un forum ou une liste Whatsapp qui permet de briser l’atomisation sociale. Dans ces communautés en ligne, les travailleurs s’entraident pour apprendre de nouveaux systèmes et pratiques, éviter les processus disciplinaires, retrouver l’accès lorsqu’ils sont exclus des plateformes, identifier les clients ou les emplois souhaitables, ou encore apprendre comment lisser leurs revenus [34].

Des informaticiens et des collectifs syndicaux ont également conçu des plateformes permettant aux travailleurs de signaler ceux qui maltraitent le personnel embauché. Par exemple la plateforme Turkopticon qui est une plateforme d’information militante permettant aux travailleurs de rendre public leurs relations avec Amazon Mechanical Turk. Il y a aussi la plateforme Dynamo qui permet aux micro-travailleurs de se rassembler, d’atteindre une masse critique avant de se mobiliser [35]. Dans le même ordre d’idées, Peers.org propose un système de mise en commun de plusieurs comptes tandis que Guild.net permet de mener une pression collective de négociation sur les rémunérations. La plateforme Zen99 propose un tableau de bord intégré qui aide les travailleurs indépendants à organiser leurs finances, leurs impôts et leurs polices d’assurance.

Ces forums et plateformes peuvent aident les travailleurs à corriger partiellement l’asymétrie de pouvoir qui découle du contrôle algorithmique. Ce n’est pas rien et il ne faut pas mépriser ces petites, marges de liberté. Dans certains cas, ces travailleurs s’engagent collectivement dans des tâches, partagent des informations sur les clients et organisent une discussion sur les astuces du métier. Dans d’autres cas, ils utilisent des forums en ligne pour partager des ressources et identifier des clients ou des commandes de travail à éviter ou acceptables. Cela rappelle un peu les Bourses du Travail, une invention du prolétariat français… On voit également apparaître des outils de secours mutuel, y compris sur la manière d’anticiper ou d’éviter les mesures disciplinaires ; ou encore sur les manières de retrouver l’accès à la plateforme alors qu’on a été expulsé. L’entraide existe aussi au niveau de l’échange d’informations sur les manières de lisser les gains et de maximiser les revenus en passant d’une plateforme à l’autre. Les forums en ligne permettent aussi de s’engager dans une mobilisation collective contre les plateformes. Le mouvement #Slaveroo critique les pratiques abusives des plateformes de livraison de nourriture et a été à l’initiative de grèves et de mobilisations des coursiers.

Parfois, les micro-travailleurs se livrent également à une « surveillance inversée », que certains proposent de conceptualiser comme une sorte de sousveillance [36]. Il s’agit d’enregistrer le management, de télécharger tous les évènements se déroulant dans le procès de travail, et de garder des « preuves documentaires complètes » au cas où les employeurs agiraient contre eux. Les employeurs sont évidemment réticents face à cette « sousveillance » informelle ou démonstrative. Pour évincer ce type de comportements, le management interdit au personnel d’Amazon d’apporter des appareils personnels dans l’entrepôt. Toutefois, tant que les collectifs de travail, ou les syndicats, n’ont pas accès aux données et aux algorithmes propriétaires des employeurs, l’impact de ces tactiques demeure limité.

Lorsque la résistance est impossible, notamment parce qu’elle est réprimée et qu’une « armée de réserve » prête à prendre la place des récalcitrants, il n’y a guère d’autre choix que la soumission ou le départ, appelée exit dans triptyque d’Albert Hirschmann[37]. C’est ce qui explique l’émergence d’un coopérativisme des plateformes visant à offrir le même travail mais libéré de la surexploitation. Le consortium « Platform Co-op » rassemble un large éventail d’organisations qui adhérent au projet de plateformes appartenant à leurs membres et où les revenus excédentaires sont transférés aux coopérateurs. Ce coopérativisme de plateforme rassemble désormais à travers le monde près de 300 structures de service. L’augmentation du nombre de plateformes coopératives contribue certainement à la transparence algorithmique, ce qui va atténuer la partialité des informations et atténuer l’extraction d’informations que permettent le management algorithmique. Mais en même temps, ce type d’alternatives coopérativistes demeurent limitées et conduisent à ne pas engager le combat contre les géants du net. Il faut donc oser se poser la question de savoir si cette voie-là est la première à prendre pour transformer l’ordre des choses ou pas.

Historiquement, l’action syndicale s’est toujours fondée sur un ensemble de valeurs que sont la justice sociale, une sécurité d’existence ou encore le travail décent. Face au management algorithmique, il est évident que ces valeurs gardent leur raison d’être. Le management algorithmique exacerbe le sentiment d’injustice, de partialité, d’adversité. L’opacité qui entoure les algorithmes nourrit une méfiance et alimente l’idée que « les dés sont pipés ». A juste titre.

Les géants du net n’ont pas bonne presse dans les opinions publiques et les campagnes en faveur d’une imposition fiscale minimaliste, d’une responsabilité sociale et de la transparence algorithmique reçoivent partout un écho grandissant. La critique publique du management algorithmique gagne donc en popularité. Il ne faut donc pas reculer sur ce front-là.

Aux Etats-Unis, les militants syndicaux et les informaticiens ont commencé à élaborer des codes d’éthique professionnelle et de de veille sur l’usage du numérique. Les informaticiens et des chercheurs en science de la communication mènent une campagne contre le secret du management algorithmique. La principale association professionnelle des ingénieurs informaticiens (Association for Computing Machinery, ACM) a rédigé un code de conduite éthique. Lors de la conférence annuelle de l’ACM en 2019, un collectif d’ingénieurs informaticiens a dressé la liste noire les mauvaises pratiques et rendu public des algorithmes biaisés qui permettaient de générer plus de profits en trompant les travailleurs, comme les clients-usagers ou encore les annonceurs de publicité.

Ces informaticiens progressistes plaident en faveur d’une cartographie des scripts informatiques à prohiber. Il s’agit par exemple d’interdire un modèle d’apprentissage automatique conçu pour détecter le sourire et qui pourrait être utilisé par les employeurs pour se livrer à la surveillance des émotions de leurs employés. La production de modèles de chartes éthiques s’oriente donc vers une définition de ce qui est inacceptable, ce qui est quand-même plus radical d’une politique incitative des bonnes pratiques…

L’existence de ces multiples pratiques d’algo-résistance soulève des questions importantes pour les recherches futures. Tout au long de cette analyse, j’ai évoqué le potentiel des employeurs à utiliser les technologies algorithmiques pour mettre en œuvre une forme de contrôle plus compréhensive, instantanée, interactive et opaque. Pourtant, la simple existence d’un éventail de stratégies de résistance suggère que les travailleurs continuent d’avoir un pouvoir d’action. Reste à savoir comment ces conduites modulent l’impact de la direction, de l’évaluation et de la discipline algorithmiques sur le terrain … Il faudrait pour mieux savoir entreprise des recherches-action, en mobilisant les premiers concernés. Par exemple, les recherches futures pourraient explorer comment les coopératives pourraient mettre en œuvre des consultations itératives de leurs membres et utilisateurs lors du développement de systèmes de contrôle algorithmiques. Elles pourraient rendre public les variables, les pondérations et les modèles utilisés et rendre les algorithmes transparents. Dans ces conditions, les données algorithmiques pourraient être utilisées pour ancrer les discussions collectives et promouvoir la réflexivité parmi les membres et les utilisateurs. Des recherches futures pourraient également étudier comment les syndicats s’impliquent dans l’organisation des plateformes [38].

La bataille ne fait que commencer

En ce qui concerne le management du travail sur le lieu de travail, des syndicats ont mené des campagnes contre l’enregistrement algorithmique en négociant des accords avec les employeurs sur la manière et les moments où les employeurs peuvent surveiller les employés et utiliser les données, ceci afin de limiter leur capacité à discipliner les employés [39]. Les usagers-consommateurs que nous sommes peuvent le faire aussi. Mais c’est à partir de l’activité de travail que l’on retrouve un vrai levier d’action.

Il est tout sauf insensé de revendiquer un droit d’arbitrage lorsque le management cherche à sanctionner les salariés à partir de données numériques tirées d’une surveillance algorithmique. Je citerai ici l’exemple du syndicat des chauffeurs d’UPS qui a négocié un accord selon lequel l’entreprise doit expliciter la surveillance tout en interdisant les sanctions uniquement basées sur les données numériques tout simplement parce qu’elles sont parfaitement falsifiables.

Les réglementations européennes sont encore très limitées. Il existe néanmoins une clause relative sur la protection des données (DPIA) du règlement général sur la protection des données (RGPD) qui appelle à réaliser des évaluations préventives sur l’impact potentiel des systèmes algorithmiques à haut risque sur « les droits et libertés des personnes physiques » (RGPD, article 35 ). Pour l’instant, la mise en œuvre des cadres DPIA et RGPD demeure peu limitative, puisque chacun.e concède que l’usage des données personnelles est possible en acceptant les cookies, ce que tout le monde fait évidemment, puisque faire l’inverse est chronophage…. Mais la bataille pour une bonne jurisprudence est bel et bien engagée. Certains juristes appellent à re-conceptualiser le droit à la vie privée, y compris celle des travailleurs, à partir de critères de vie privée « contextuelle » ou « relationnelle », ce qui nécessite l’articulation d’un ensemble de normes reliées au contexte et qui devrait limiter les droits des employeurs de placer des « mouchards » dans les ordinateurs, de surveiller la correspondance électronique ou les activités de navigation sur le web.

Un autre développement important concerne le statut d’emploi des travailleurs sous contrôle algorithmique. La plupart des plateformes font appel à une main d’œuvre composée d’autoentrepreneurs indépendants. Mais les collectifs de lutte contestent de plus en plus cette classification juridique, arguant qu’ils doivent être considérés comme des salariés, des personnes employés plutôt que comme des gig workers. On ne compte plus les mobilisations menées pour mettre en œuvre des changements législatifs. En effet, à Paris, Milan, Madrid, Londres ou Bruxelles, les mobilisations des coursiers se renforcent en ces temps de pandémie. Le premier enjeu est de constituer un argumentaire socio-politique et juridique qui fait basculer les faux indépendants du côté du salariat. Le deuxième enjeu consiste à briser le code algorithmique, à les rendre publics et à exercer un contrôle sur leurs usages. Cette approche n’est pas nouvelle, elle rappelle l’action syndicale de codétermination sur le procès de travail, ou encore les pratiques de « contrôle ouvrier » sur la gestion de l’entreprise. L’enjeu est d’arracher un droit de regard, d’obtenir un droit de véto et de négocier des conditions de mise au travail qui ne dégradent pas l’activité réalisée ni l’humain au travail. Imposer des standards de qualité, compatibles avec une qualité de vie et le bien-être est donc une vraie bataille qui devrait mobiliser toutes les forces du « travail vivant ».

Aux Etats-Unis, les batailles juridiques autour du statut des chauffeurs se sont intensifiées ces dernières années afin de limiter le recours aux entrepreneurs indépendants en imposant le « test ABC ». En vertu de ce test, un travailleur serait présumé être un salarié employé, sauf si l’entreprise  fait la démonstration que (A) le travailleur est libre du contrôle et de la direction de l’entité qui l’embauche en ce qui concerne l’exécution du travail, tant sur le plan pratique (algorithmique) que contractuel ; (B) que le travailleur free lance effectue un travail qui sort du cadre habituel de l’activité de l’entreprise ; et (C) que le travailleur est engagé dans une activité commerciale, une profession ou une entreprise établie de manière indépendante du travail effectué pour l’entreprise. Dit autrement, si le chiffre d’affaires du travailleur indépendant est suffisamment diversifié. C’est suivant cette même argumentation que la cour de justice au Royaume-Uni veut imposer à Uber la reconnaissance du statut de travailleur salarié, ce qui a poussée la plateforme à thésauriser près de 630 millions de livres sterling pour régler des litiges présents et futurs avec près de 70 000 chauffeurs affiliés à la plateforme [40].

Désormais, les militants ont commencé à s’engager dans une série d’initiatives législatives liées à la pression pour la propriété des données des travailleurs. Comme nous l’avons vu précédemment, de nombreux employeurs procèdent à un recodage algorithmique de leur management. Ils le font aussi parce que ces données ont de la valeur, indépendamment des enjeux de contrôle de l’activité de travail. Les réseaux d’informaticiens radicaux plaident ici en faveur de l’octroi aux personnes de la propriété de leurs données numériques et en faveur du traitement des données comme une forme de travail qui doit être rémunéré [41]. Ce type de propositions implique que les individus soient autorisés à louer ou à revendre leurs données à des entreprises technologiques par le biais d’intermédiaires numériques, appelés MID (Mediators of Individual Data), qui négocieraient les redevances sur les données, afin d’apporter un pouvoir de la négociation collective aux personnes qui sont les sources de données précieuses. Cela permettrait également de promouvoir des normes basées sur la qualité et l’identité des producteurs de données qu’ils représentent [42].

Les mobilisations autour de la défense de la vie privée des salariés, en opposition à la surveillance managériale et pour la réappropriation des données représentent un autre champ d’action. En Europe, les organisations syndicales commencent à se saisir de ces questions. Elles plaident en faveur d’une codification précise visant à protéger la vie privée des employés, à limiter la surveillance managériale, à interdire les pratiques discriminatoires et à reclasser les autoentrepreneurs en employés.

Au niveau européen, après dix-huit mois de pourparlers, la fédération des compagnies d’assurance et les syndicats de cette branche ont signé une déclaration conjointe sur l’usage du management algorithmique et de l’IA. Les signataires réaffirment le primat du contrôle humain, en opposition au contrôle automatisé, et plaident en faveur d’un usage éthique et responsable des technologies numériques, fondé sur la transparence et la défense de l’intégrité du travailleur. Le recrutement et le parcours professionnel ne peuvent être guidés par des systèmes algorithmiques automatisés. Pour Christy Hoffman, secrétaire générale de UNI Global Union (regroupant les fédérions nationales d’employés, ingénieurs, cadres et techniciens), cette déclaration conjointe constitue une avancée qu’il faudra concrétiser à partir de négociations dans les entreprises.

En France, quand une innovation technologique affecte les conditions de travail, l’emploi, le CSE a l’obligation d’être informé et consulté. Ces termes juridiques sont larges et ce sont souvent des experts diligentés par le CSE qui établissent un rapport, ce qui peut contribuer à dessaisir les syndicats de la question. En Allemagne, le Betriebsrät reste une institution incontournable lorsqu’il s’agit d’introduire des nouvelles technologies, capable d’exercer une activité de veille réelle au niveau de l’impact sur les conditions de travail. En Belgique, une convention collective de travail des années 1980 impose à l’employeur de fournir au Conseil d’Entreprise (l’équivalent du CSE) minimum trois mois à l’avance toutes les informations concernant l’introduction de nouvelles technologies, leurs effets sur l’organisation du travail, les conditions de travail et l’emploi. Les représentants du personnel doivent donner leur aval et les conséquences sociales doivent être anticipées et débattues. Aujourd’hui, les syndicats revendiquent une actualisation de cette convention nationale afin d’intégrer l’IA et le management par algorithmes dans son champ d’action. La proposition est faite d’imposer un test d’usage afin de vérifier si l’impact sur les conditions de travail est neutre. Il existe donc des leviers d’actions à l’échelle des établissements ou des entreprises. Toutefois, les discussions actuellement menées au niveau de l’UE sur l’Intelligence Artificielle ouvrent aussi le risque de remettre en question certaines réglementations nationales [43].

En guise de conclusion

Le management par algorithmes divise mais unifie aussi. Les actions des collectifs de coursiers le démontrent pratiquement. Dans cet article, je n’ai pas réellement analysé la mobilisation algorithmes sur les activités des consommateurs ou des usagers des réseaux sociaux. Ils ne sont pas de nature différente : il s’agit tout autant de recommander, de restreindre, d’enregistrer, d’évaluer l’impact, de remplacer que de récompenser. Quand le client scanne un article, achète un billet sur internet, réserve une chambre d’hôtel ou quand l’usager apprécie ou partage des photos, il ou elle réalise un travail gratuit, souvent à son insu. Il s’agit d’un travail car cette activité est hétéronome et aliénante qui mobilise du temps tout en produisant des ressources informationnelles qui pourront qui être captées, transformées et valorisées par le capital [44].

Mais là aussi, les algorithmes tendent à unifier ce qu’ils séparent et c’est en prenant conscience de cela qu’une puissance d’agir collective peut émerger. L’enjeu est de refuser l’opacité des algorithmes et l’extorsion non délibérée des valeurs produites. Pour avancer dans cet objectif, la tâche première est de briser la chaîne algorithmique en exigeant la levée du secret et en prohibant ce qui transforme l’agir humain en automatisme social.

 

Bibliographie

  • Arrieta-Ibarra I, Goff L., Jimenez-Hernandez D., Lanier J., Weyl E Glen (2018), Should we treat data as labor? Moving beyond “free”, AEA Papers and Proceedings, 108, pp. 38-42, en ligne https://www.aeaweb.org/articles?id=10.1257/pandp.20181003
  • Askay, D. A. (2015), Silence in the crowd: The spiral of silence contributing to the positive bias of opinions in an online review system, in, New Media & Society, 17(11), pp. 1811–1829.
  • Bernal N. (2021), Uber has lost in the Supreme Court. Here’s what happens next. Uber drivers in the UK are workers, not contractors. What comes next will affect the entire gig economy ; article en ligne https://www.wired.co.uk/article/uber-loses-gig-economy-case
  • Berns Th., Rouvroy A. (2013), « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », in Réseaux n°177, p. 163-196
  • Bouquin S (2020), « Les résistances au travail en temps de crise et d’hégémonie managériale » (2020), in Mercure D., Les transformations contemporaines du rapport au travail, Hermann & Presses Universitaires de Laval, 208 p. (pp. 177-198).
  • Bouquin S. (2020), « Entre promesses non tenues et réalités contrastées. Introduction au dossier » l’Automatisation en question, in Les Mondes du Travail, n°24-25, pp. 23-38
  • Bouquin S. (coord.) (2008), Les résistances au travail, Paris, Syllepse.
  • Brasseur M., Biaz F. (2018), « L’impact de la digitalisation des organisations sur le rapport au travail : entre aliénation et émancipation »,in Question(s) de management n° 21, Éditions EMS, 2018.
  • Braverman, H. (1974), Labor and Monopoly Capital, New York, Monthly Review Press.
  • Brayne, S. (2017), « Big Data surveillance: The case of policing», in American Sociological Review, 82(5): 977–1008.
  • Cameron, L. (2018), The good and bad job: Autonomy and control in the algorithmic workplace ; Paper presented at the Academy of Management Annual Meeting, Chicago.
  • Casilli Antonio (2019), En attendant les robots : Enquête sur le travail du clic, Paris, Seuil, 2019, 400 p.
  • Casilli A. Antonio (2020), « Il n’y a pas d’automatisation sans micro-travail humain », Grand entretien, Les Mondes du Travail n°24-25, novembre 2020.
  • Claret H., Abel M., Dieuaide P. (2020), Plateformes numériques. Utopie, réforme ou révolution ? Questions contemporaines. Éditions L’Harmattan, 2020.
  • Curchod, C., Patriotta, G., Cohen, L., & Neysen, N. 2019, « Working for an algorithm: Power asymmetries and agency in online work settings», in Administrative Science Quarterly, pp. 1-33 ; http://dx.doi.org/10.1177/0001839219867024.
  • Danaher, J. (2016), « The threat of algocracy : Reality, resistance and accommodation », in Philosophy & Technology, 29(3): 245–268.
  • Davidson, A. (2016), Planet money. In J. Goldstein (Ed.), The future Of work looks like a UPS truck. National Public Radio. Voir https://www.npr.org/sections/money/2014/05/02/308640135/episode-536-the-future-of-work-looks-like-a-ups-truck .
  • De Stefano V. (2021), The EU Proposed Regulation on AI: a threat to labour protection?, Regulation for Globalization, Avril 2021. En ligne http://regulatingforglobalization.com/2021/04/16/the-eu-proposed-regulation-on-ai-a-threat-to-labour-protection/
  • De Stefano, Valerio (2015), « The Rise of the ‘Just-in-Time Workforce’: On-Demand Work, Crowd Work and Labour Protection in the ‘Gig-Economy’ » (October 28, 2015). In Comparative Labor Law & Policy Journal, Bocconi Legal Studies Research Paper No. 2682602 , Available at SSRN: https://ssrn.com/abstract=2682602or http://dx.doi.org/10.2139/ssrn.2682602
  • Demannuelle-Hall J. (2021), Draft Legislation in New York Would Put Gig Workers into Toothless ‘Unions’, in Labor Notes, article en ligne https://labornotes.org/2021/05/breaking-draft-legislation-new-york-would-put-gig-workers-toothless-unions
  • Dujarier M-A. (2014), Le travail du consommateur. De McDo à eBay : comment nous coproduisons ce que nous achetons, La Découverte.
  • Edwards, R. (1979), Contested terrain: The transformation of the workplace in the twentieth century, New York, Basic Books.
  • Gaborieau, D. (2017). « Quand l’ouvrier devient robot. Représentations et pratiques ouvrières face aux stigmates de la déqualification », L’Homme & la Société, vol. 205, no. 3, 2017, pp.245-268.
  • Graham, M., Hjorth, I., & Lehdonvirta, V. (2017). Digital Labor and development. Impacts of global digital labour platforms and the gig economy on worker livelihoods, in Transfer: European Review of Labour and Research, 23(2): 135–162.
  • Hirschmann A.O. (1970), Exit, Voice and Loyalty. Responses to Decline in Firms, Organizations, and States. Cambridge, Massachusetts, Harvard University Press.
  • https://medium.com/@sam.shepherd/surveillance-of-digital-life-and-the-use-of-sousveillance-as-a-response-7b306cfdb6e8
  • Ivanova, M., Bronowicka, J., Kocher, E., & Degner, A. (2018), Foodora and Deliveroo: The app as a boss? Control and autonomy in app-based management: The case of food delivery riders. Working Paper, pp.1-51. Dusseldorf, Hans Bockler Stiftung.
  • Jounin N. (2020) Le caché de la Poste. Enquête sur l’organisation du travail des facteurs, Paris, La Découverte.
  • Kellogg, K. (2018), Employment recontracting for mutually beneficial role realignment around a new technology in a professional organization. Paper presented at the Oxford Professional Services Conference. Oxford.
  • King, K. G. (2016), Data analytics in human resources: A Case study and critical review, in Human Resource Development Review, 15(4), pp. 487–495.
  • Kochan T, Yang D., Kimball W. & Kelly E. (2019), « Worker voice in America: is there a Gap between what Workers expect and What they Experience? », in International Labor Review, n°75 (1), pp.3-38.
  • Kochan, T. A., Adler, P. S., McKersie, R. B., Eaton, A. E., Segal, P., & Gerhart, P. (2008), « The potential and precariousness of partnership: The case of the Kaiser Permanente labor management partnership », in Industrial Relations, 47(1), pp. 36–65.
  • Lanier J. & Weyl E. (2018), A blueprint for a better digital society. Harvard Business Review.
  • Lebovitz, S., Lifshitz-Assaf, H., & Levina, N. (2019), Doubting the diagnosis: How artificial intelligence increases ambiguity during professional decision making, New York University Press.
  • Lee M., Kusbit D. et al. (2015), Working with Machines : the impact of algorithmic and data driven management on human workers, Proceedings of the 33rd Annual ACM Conference on Human Factors in Computing Systems , en ligne DOI:1145/2702123.2702548
  • Lehdonvirta, V. 2016. « Algorithms that divide and unite: Delocalisation, identity and collective action in ‘microwork’», in Flecker Jorg (coord.), Space, place and global digital work, pp. 53–80, London, Palgrave MacMillan.
  • Lehdonvirta, V. (2018), Flexibility in the gig economy: Managing time on three online piecework platforms, in New technology, Work and Employment, 33(1): 13–29.
  • Leonardi D., Armano E., Murgia A. (2020), «Plateformes numériques et formes de résistances à la subjectivité précaire. Le cas de Foodora», in Les Mondes du Travail n°24-25, novembre 2020, pp.71-84.
  • Leonardi, P. & Contractor, N. (2018), « Better people analytics measure who they know, not just who they are », in Harvard Business Review, 96(6), pp. 70–81.
  • Levy, K. E. (2015), The contexts of control: Information, power, and truck-driving work. The Information Society, 31(2), pp. 160–174 (p. 164).
  • Liu, M., Huang, Y., & Zhang, D. (2018b), Gamification’s impact on manufacturing: Enhancing job motivation, satisfaction and operational performance with smartphone‐based gamified job design. Human Factors and Ergonomics in Manufacturing & Service Industries, 28(1), pp. 38–51.
  • Lix, K., & Valentine, M. (2019), Kharma scores and team learning in software development gigs. Working Paper, Stanford University.
  • Loriol M. (2017), Digitalisation de l’économie et transformations du travail, Les Cahiers français : documents d’actualité, La Documentation Française, 2017.
  • Martin D., Hanrahan B., O’Neill J., Gupta N. (2014), Being a turker, Paper presented at the ACM conference. CSCW ’14: Proceedings of the 17th ACM conference on Computer supported cooperative work & social computingFebruary 2014 pp. 224-235 https://doi.org/10.1145/2531602.2531663
  • Mollick, E., & Werbach, K. (2015), Gamification and the enterprise. The Gameful world: Approaches, issues, applications. Cambridge, MA: MIT Press.
  • O’Neil C. (2016), Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, New York, Crown.
  • Rahman H. (2019), From iron cages to invisible cages : algrithmic evaluations in online markets, Working Paper, Stanfor University Press.
  • Rahman, H. (2017), Reputational ploys: Reputation and ratings in online labor markets. Working Paper. Stanford University.
  • Rosenblat, A., & Stark, L. (2016), « Algorithmic labor and information asymmetries: A case study of Uber’s drivers », in International Journal of Communication, 10, pp. 3758–3784.
  • Scheiber, N. (2017), How Uber uses psychological tricks to push its drivers’ buttons. New York Times (2 avril 2017) https://www.nytimes.com/interactive/2017/04/02/technology/uber-drivers-psychological-tricks.html
  • Scholz, T. (2016), Platform cooperativism. Challenging the corporate sharing economy. New York: Rosa Luxemburg Foundation.
  • Scholz, T., & Schneider, N. (2017), Ours to hack and to own: The rise of platform cooperativism, a new vision for the future of work and a fairer internet, New York, OR Books.
  • Schwartz D. (2018), « Embedded in the crowd. Creative freelancers, crowdsourced work and occupational community », in Work and Occupations n°45, pp. 247-282
  • Sewell, G. (1998), The discipline of teams: The control of team-based industrial work through electronic and peer surveillance., in Administrative Science Quarterly, 43(2), pp. 397–428.
  • Sewell, G., Barker, J. R., & Nyberg, D. (2012), « Working under intensive surveillance: When does ‘measuring everything that moves’ become intolerable? », in Human Relations, 65(2), pp. 189–215.
  • Sheperd S. (2015), Surveillance of digital life and the use of sousveillance as a response, site : https://medium.com/@sam.shepherd/surveillance-of-digital-life-and-the-use-of-sousveillance-as-a-response-7b306cfdb6e8
  • Valerio De Stefano, The EU Proposed Regulation on AI: a threat to labour protection?, Regulation for Globalization, Avril 2021.
  • Wood et al. (2018), « Workers of the internet unite? One line freelancer organization among remote gig economy workers in six African and Asian countries », in New Technology, Work and Employment, 33 (2): 95-112
  • Wood, A. J., Graham, M., Lehdonvirta, V., & Hjorth, I.( 2019), Good gig, bad gig: Autonomy and algorithmic control in the global gig economy, in Work, Employment and Society, 33(1): 56–75.
  • Zuboff Sh. (1985), « Automate/Automate: The two faces of intelligent technology », in Organizational Dynamics Volume 14, Issue 2, Automne 1985, pp. 5-18.
  • Zuboff, S. (2019), The age of surveillance capitalism: The fight for a human future at the new frontier of power, London, Profile Books.

Sitographie

https://www.uni-europa.org/wp-content/uploads/2019/12/AIUniEuropaSummPrtWeb_en.pdf

https://www.uni-europa.org/wp-content/uploads/2019/12/AIUniEuropaWeb_fr-final.pdf

Exposure to psychosocial risk factors in the gig economy: a systematic review Pierre Bérastégui, ETUI, Janvier 2021

https://www.uniglobalunion.org/sites/default/files/files/news/20210316_issdc_joint_declaration_on_artificial_intelligence_final.pdf

Joint declaration on Artificial Intelligence by the European social partners in the insurance sector ;  voir https://www.uniglobalunion.org/news/uni-signs-declaration-europes-insurance-employers-committing-responsible-use-ai

 

Notes

[1] Je tiens à remercier Antonio A. Casilli, Jean-Pierre Morant, Mark Bergfeld et David Gaborieau pour leurs commentaires et la transmission d’informations.

[2] La notion de problème doit être vue dans un sens large : il peut s’agir d’une tâche à effectuer, comme trier des objets, assigner des ressources, transmettre des informations, traduire un texte, etc. Il reçoit des données ou entrées – par exemple les objets à trier, la description des ressources à assigner, des besoins à couvrir, un texte à traduire, les informations à transmettre et l’adresse du destinataire, etc. –  et fournit éventuellement des données, les sorties, par exemple les objets triés, les associations ressource-besoin, un compte-rendu de transmission, la traduction du texte, etc.

[3] Voir à ce sujet Cathy O’Neil (2016), Weapons of Math Destruction.

[4]. Shoshana Zuboff « Automate/Automate: The two faces of intelligent technology », in Organizational Dynamics Volume 14, Issue 2, Automne 1985, pp. 5-18.

[5] Thomas Berns et Antoinette Rouvroy (2013), « Gouvernementalité algorithmique et perspectives d’émancipation. Le disparate comme condition d’individuation par la relation ? », in Réseaux n°177, p. 163-196.

[6] Le fétichisme numérique développe une compréhension fantasmée, imaginaire qui ne « voit » que le fétiche, alors qu’il s’agit de comprendre combien il organise les rapports sociaux comme un rapport de choses entre elles. Or, le numérique, internet ou l’IA sont avant tout des formes sociales de production qui organisent la médiation, la communication et l’échange d’informations.

[7] Je prolonge ici l’approche développée par Richard Edwards (1979) qui appréhende les transformations du travail de manière dialectique, en y intégrant une dimension conflictuelle.

[8] Le contrôle technique passe par les dispositifs mécaniques comme par exemple le convoyeur qui détermine la cadence du travail tandis que le contrôle bureaucratique s’exerce via la supervision, l’évaluation etc.

[9] Kellogg, K. (2018), Employment recontracting for mutually beneficial role realignment around a new technology in a professional organization. Paper presented at the Oxford Professional Services Conference. Oxford.

[10] Pour une rapide présentation, voir https://www.franceculture.fr/emissions/hashtag/connaissez-vous-le-nudge

[11] Scheiber, N. (2017), How Uber uses psychological tricks to push its drivers’ buttons. New York Times (2 avril 2017) ; https://www.nytimes.com/interactive/2017/04/02/technology/uber-drivers-psychological-tricks.html

[12] Rosenblat, A., & Stark, L. (2016). Algorithmic labor and information asymmetries: A case study of Uber’s drivers.in : International Journal of Communication, 10:3758–3784.

[13] Voir l’enquête menée à la Poste par Nicolas Jounin (2020) Le caché de la Poste. Enquête sur l’organisation du travail des facteurs, La Découverte ; voir également Gaborieau, David. « Quand l’ouvrier devient robot. Représentations et pratiques ouvrières face aux stigmates de la déqualification », L’Homme & la Société, vol. 205, no. 3, 2017, pp. 245-268.

[14] Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation, in Philosophy & Technology,29(3): 245–268.

[15] Lebovitz, S., Lifshitz-Assaf, H., & Levina, N. (2019) Doubting the diagnosis: How artificial intelligence increases ambiguity during professional decision making, New York University.

[16] Askay, D. A. (2015), Silence in the crowd: The spiral of silence contributing to the positive bias of opinions in an online review system, in: New Media & Society, 17(11): 1811–1829.

[17] Leonardi, P., & Contractor, N. (2018), “Better people analytics measure who they know, not just who they are”, in: Harvard Business Review, 96(6): 70–81.

[18] Levy, K. E. (2015), The contexts of control: Information, power, and truck-driving work. The Information Society, 31(2): 160–174 (p. 164).

[19] Davidson, A. (2016), Planet money. In J. Goldstein (Ed.), The future Of work looks like a UPS truck. National Public Radio. Voir  https://www.npr.org/sections/money/2014/05/02/308640135/episode-536-the-future-of-work-looks-like-a-ups-truck  .

[20] Rosenblat, A., & Stark, L. (2016), Algorithmic labor and information asymmetries: A case study of Uber’s drivers. International Journal of Communication, 10: 3758–3784.

[21] King, K. G. (2016), Data analytics in human resources: A Case study and critical review. Human Resource Development Review, 15(4): 487–495.

[22] Sewell, G. (1998), The discipline of teams: The control of team-based industrial work through electronic and peer surveillance., in: Administrative Science Quarterly, 43(2): 397–428.

[23] Mon enquête auprès d’ingénieurs informaticiens met en évidence que le management par l’algorithme chasse non seulement les temps morts mais supprime aussi les temps libres qui sont souvent des temps d’apprentissage.

[24] Mollick, E., & Werbach, K. (2015), Gamification and the enterprise. The gameful world: Approaches, issues, applications. Cambridge, MA: MIT Press.

[25] Bouquin S. (coord.) (2008), Les résistances au travail, Syllepse ; Bouquin S (2020), « Les résistances au travail en temps de crise et d’hégémonie managériale » (2020), in Mercure D., Les transformations contemporaines du rapport au travail, Hermann & Presses Universitaires de Laval, 208 p. (pp. 177-198) ; voir aussi Richard Edwards (1979), Contested terrain: The transformation of the workplace in the twentieth century: New York: Basic Books.

[26]Brayne, S. 2017. Big data surveillance: The case of policing, in American Sociological Review, 82(5): 977–1008.; voir également Levy, K. E. (2015) The contexts of control: Information, power, and truck-driving work, 31(2): 160–174.

[27] Lee et al. (2015), Working with Machines : the impact of algorithmic and data driven management on human workers, Paper presented at ACM conference on Human Factors in Computing Systems, miméo.

[28] Lehdonvirta, V. 2018. Flexibility in the gig economy: Managing time on three online piecework platforms, in New Technology,Work and Employment, 33(1): 13–29 ; Lehdonvirta, V. (2016), Algorithms that divide and unite: Delocalisation, identity and collective action in ‘microwork’,  pp. 53–80. Berlin, Heidelberg, Germany: Springer.

[29] Jharver et al. (2018), Algorithmic anxiety and coping strategies of Airbnb hosts, Working Paper ; Lix, K. & Valentine, M. (2019). Kharma scores and team learning in software development gigs. Working Paper. Stanford University; Rahman, H. (2017). Reputational ploys: Reputation and ratings in online labor markets. Working Paper. Stanford University

[30] Lehdonvirta, V. 2018. Flexibility in the gig economy: Managing time on three online piecework platforms. New Technology,Work and Employment, 33(1): 13–29.

[31] Curchod, C., Patriotta, G., Cohen, L., & Neysen, N. 2019, Working for an algorithm: Power asymmetries and agency in online work settings. Administrative Science Quarterly, 1–33. Available at http://dx.doi.org/10.1177/0001839219867024.

[32] Rahman, H. 2017. Reputational ploys: Reputation and ratings in online labor markets. Working Paper. Stanford University

[33] Lix K & Valentine M. (2019), Kharma scores and team learning in software development gigs, Working Paper, Stanford University.

[34] Wood, A. J., Graham, M., Lehdonvirta, V., & Hjorth, I.( 2019), Good gig, bad gig: Autonomy and algorithmic control in the global gig economy. Work, Employment and Society, 33(1): 56–75.

[35] Graham, M., Hjorth, I., & Lehdonvirta, V. (2017). Digital labour and development: Impacts of global digital labour platforms and the gig economy on worker livelihoods. In : Transfer: European Review of Labour and Research, 23(2): 135–162; Scholz, T. (2016), Platform cooperativism. Challenging the corporate sharing economy. New York: Rosa Luxemburg Foundation; Martin et al. (201)4, Being a turker, Paper presented at the ACM conference ; Schwartz D. (2018), Embedded in the crowd. Creative freelancers, crowdsourced work and occupational community, Work and Occupations, 45, 247-282

[36] https://medium.com/@sam.shepherd/surveillance-of-digital-life-and-the-use-of-sousveillance-as-a-response-7b306cfdb6e8

[37] Albert O. Hirschmann (1970), Exit, Voice and Loyalty. Responses to Decline in Firms, Organizations, and States. Cambridge, Massachusetts: Harvard University Press

[38]  Kochan T, Yang D., Kimball W. & Kelly E. (2019), Worker voice in America: is there a Gap between what Woprkers expect and What they Experience?, ILR Review, n°75 (1), pp.3-38 ; Wood et al., (2018), Workers of the internet unite? One line freelancer organization among remote gig economy workers in six African and Asian countries, in: New Technology, Work and Employment, 33 (2): 95-112

[39] https://labornotes.org/2021/05/breaking-draft-legislation-new-york-would-put-gig-workers-toothless-unions

[40] https://www.wired.co.uk/article/uber-loses-gig-economy-case

[41] Arrieta-Ibarra, Goff, Jimenez- Hernandez, Lanier, & Weyl (2018), Should we treat data as labor? Moving beyond “free”, AEA Papers and Proceedings, 108 :38-42 ; Scholz T (2016), Platform cooperaztivism. Challeging the corporate sharing economy, New York, Rosa Luxemburg Foundation

[42] Lanier J. & Weyl E. (2018), A blueprint for a better digital society. Harvard Business Review.

[43] Voir Valerio De Stefano, The EU Proposed Regulation on AI: a threat to labour protection?, Regulation for Globalization, Avril 2021.

[44]. Voir Antonio A. Casilli (2019), En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 400 p.

 

 

 

One thought on “Brisons les chaînes algorithmiques !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *