Vue lecture

La loi sur les conflits de travail a été adoptée par l’Assemblée nationale

Cette loi permettra au gouvernement d’intervenir pour limiter la durée des grèves et des lock-outs lorsque la population est affectée «de façon disproportionnée» par des interruptions de service.

Le gouvernement pourra désormais:

  • renvoyer un conflit devant le Tribunal administratif du travail; et 
  • imposer un arbitrage pour mettre fin à un conflit causant un préjudice grave.  

Les syndicats se sont fermement opposés à cette loi qu’ils considèrent comme une atteinte au droit de grève. 

Elle entrera en vigueur dans six mois.

[L'article La loi sur les conflits de travail a été adoptée par l’Assemblée nationale a d'abord été publié dans InfoBref.]

Au Danemark, l’âge de la retraite va passer à 70 ans

Une nouvelle loi danoise fixe à partir de 2040 l’âge de la retraite à 70 ans pour toutes les personnes nées après 1970.

Depuis une réforme adoptée en 2006, le gouvernement danois fait évoluer, tous les 5 ans, l’âge de la retraite en fonction du cout de la vie.

  • L’âge légal passera de 67 à 68 ans en 2030, puis à 69 ans en 2035.

[L'article Au Danemark, l’âge de la retraite va passer à 70 ans a d'abord été publié dans InfoBref.]

Du rôle du logiciel dans la chaîne d’approvisionnement

En 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rôle du logiciel dans les chaînes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaînes logistiques ne sont pas éthiques, c’est parce que l’éthique n’est pas une donnée que traite leurs logiciels. Explication.

Professeure à l’université de Californie et spécialiste des questions technologiques, Miriam Posner signe dans le New Yorker une très intéressante tribune sur la transformation logicielle de la chaîne logistique.

En consultant un rapport (« cauchemardesque ») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dénonce les conditions de travail sur les chaînes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?

De l’abstraction des chaînes d’approvisionnements

Quand elle a demandé à ses étudiants de travailler sur la question de la chaîne d’approvisionnement de matériel électronique, elle s’est rendu compte que, quand bien même certaines entreprises se vantent de connaître et maîtriser leur chaîne logistique de bout en bout, aucune ne sait exactement d’où proviennent les composants qu’elles utilisent. « Cette ignorance est inhérente au mode de fonctionnement des chaînes d’approvisionnement ». La coque de plastique d’une télévision par exemple peut-être construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularité : si une entreprise cesse son activité, ses partenaires immédiats peuvent la remplacer rapidement, sans nécessairement avoir à consulter qui que ce soit, ce qui rend la chaîne très souple et adaptable… Mais rend également très difficile l’identification des multiples maillons de la chaîne logistique.

Nous avons une vision souvent abstraite des chaînes d’approvisionnements que nous n’imaginons que comme des chaînes physiques. Or leur gestion est devenue complètement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaînes logicielles elles non plus ne voient ni les usines, ni les entrepôts, ni les travailleurs. Elles regardent des écrans et des tableurs : leur vision de la chaîne d’approvisionnement est tout aussi abstraite que la nôtre, explique la chercheuse.

Le leader logiciel de la chaîne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas télécharger sur l’App Store. C’est un logiciel industriel spécialisé qui se déploie à l’échelle d’entreprises pour piloter la chaîne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilité ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dédiée.

Le logiciel est complexe. Il se présente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaîne d’approvisionnement (commande, fabrication, emballage, expéditions…). La conception d’une chaîne est un processus qui implique plusieurs opérateurs et entreprises, sous forme de « composants ». Un spécialiste de la demande par exemple entre des informations sur les ventes passées (variations saisonnières, promotions planifiées, etc.) et le logiciel calcule combien de produits doivent être fabriqués. Un autre spécialiste utilise des informations sur les délais d’expéditions, les coûts de stockage, les capacités d’usine pour créer un « plan de réseau logistique » qui détermine le moment où chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis à un autre spécialiste pour planifier la production et calculer le calendrier détaillé qui vont déterminer la manière dont le processus se déroulera sur le terrain le plus précisément possible. Tout cela prend la forme de séries de feuilles de calcul, de cases à cocher, de fenêtres contextuelles… qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matérialité de l’information qui s’incarne aujourd’hui dans le tableur. C’est « pourtant là que les prévisions de marchés sont traduites en ordre de marche des travailleurs », explique Posner. La planification de la production et le calendrier détaillé reposent sur des « heuristiques », des algorithmes intégrés qui répartissent la production et donc la main d’oeuvre pour que les installations fonctionnent à leur capacité maximale. D’ailleurs, souligne Miriam Posner, l’exécution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble à une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaîne.

L’utilisation de SAP est difficile reconnaît la chercheuse. Chaque tâche est compliquée à configurer, avec d’innombrables paramètres à valider. Le plus souvent, ce travail est divisé et nécessite de multiples interventions différentes. En fait, « aucun individu ne possède une image détaillée de l’ensemble de la chaîne d’approvisionnement. Au lieu de cela, chaque spécialiste sait seulement ce dont ses voisins ont besoin. »

« Dans un tel système, un sentiment d’inévitabilité s’installe. Les données dictent un ensemble de conditions qui doivent être remplies, mais rien n’explique comment ces données ont été obtenues. Pendant ce temps, le logiciel joue un rôle actif, en peaufinant le plan pour répondre aux conditions le plus efficacement possible. Les optimiseurs intégrés de SAP déterminent comment répondre aux besoins de la production avec le moins de « latence » et au moindre coût possible (le logiciel suggère même comment optimiser un conteneur pour économiser sur les frais d’expédition). Cela implique que des composants particuliers deviennent disponibles à des moments particuliers. Les conséquences de cette optimisation incessante sont bien documentées. Les sociétés qui commandent des produits transmettent leurs demandes déterminées par calcul à leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employés. Ainsi, China Labour Watch a constaté que les travailleurs de la ville de Heyuan en Chine chargés de fabriquer une poupée Disney que Miriam a achetée à ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupées par jour et gagnent un centime pour chaque poupée qu’ils complètent. »

De la distance spatiale, temporelle et informationnelle

Pour la chercheuse, le défi majeur dans la gestion de la chaîne d’approvisionnement est la grande distance – « spatiale, temporelle et informationnelle » – qui sépare le processus du monde réel de la fabrication et de la consommation. Ces distances introduisent de nombreux problèmes, comme l’effet « coup de fouet », qui consiste à ce que chaque niveau produise plus que prévu pour mieux répondre à la demande ou ajuster ses bénéfices avec ses coûts. Le battement d’ailes d’un consommateur peut-être amplifié de manière démesurée par la chaîne. En fait, la demande temps réel du pilotage que produit le logiciel ne correspond pas vraiment à la réalité effective des multiples chaînes de production, où chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des délais, la disponibilité de fournitures ou la surproduction pour réduire les coûts…). Pourtant, le logiciel procède d’une vision qui maximise le temps réel et donne l’illusion d’être au coeur de la tour de contrôle de la production.

L’autre effet coup de fouet, bien sûr, s’applique directement aux travailleurs des différentes usines prestataires de la chaîne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se révèlent plus exigeantes et plus punitives.

Dans le numéro 4 de l’excellent magazine Logic, Miriam Posner avait déjà livré une réflexion sur le sujet. Elle y rappelait déjà que si les questions de l’architecture physique de la chaîne d’approvisionnement mondialisée était souvent étudiée (notamment dans The Box de Marc Levinson qui s’intéressait au rôle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des échanges de données et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaîne d’approvisionnement est pourtant l’un des domaines d’activité qui connaît la plus forte croissance, mais qui opère de manière assez discrète, car les informations qu’elle traite sont très concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaîne d’approvisionnement incarnée et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises à construire leurs chaînes d’approvisionnement, l’incapacité des entreprises à visualiser cette chaîne est une fonction même de l’architecture logicielle. Pour Miriam Posner, le terme de chaîne d’approvisionnement est finalement trompeur : cette chaîne « ressemble beaucoup plus à un réseau de voies navigables, avec des milliers de minuscules affluents composés de sous-traitants qui s’écoulent dans de plus grandes rivières d’assemblage, de production et de distribution. »

Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portés à notre connaissance : c’est surtout le cas de quelques chaînes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus répandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux où la chaîne se recompose à chaque approvisionnement, à chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’être tous intégrés à la chaîne logicielle. Les usines géantes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins présentables qui permettent à la chaîne d’être extrêmement résiliente et robuste. En fait, « il n’y a pas de tour de contrôle supervisant les réseaux d’approvisionnement », les noeuds ne parlent qu’à leurs voisins immédiats.

Du rôle de l’échelle pour gérer l’information et de la modularité pour gérer la complexité

« Ces infrastructures physiques distribuées ressemblent finalement beaucoup au réseau invisible qui les rend possibles : internet ». À chaque étape de la transformation, le produit est transformé en marchandise. Et l’information qui l’accompagnait transformée à son tour. Du plastique devient une coque qui devient une télévision… En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour récupérer une tonne d’or, vous devez en acheter à plein d’endroits différents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.

Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une méthode familière à tout programmeur et architecte de systèmes. Elle consiste à gérer la complexité par des unités fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spécifiant les entrées et sorties où les modalités qu’il prend en charge. Les systèmes modulaires permettent notamment de gérer la complexité et d’améliorer un module sans avoir à toucher les autres : chacun étant une sorte de « boite noire » vis-à-vis des autres.

Comme l’explique Andrew Russell, historien de l’informatique, la modularité, née dans l’architecture, a été un moyen de structurer les organisations comme l’économie. « C’est une sorte de caractéristique de la modernité ». Et les chaînes d’approvisionnement sont hautement modulaires, à l’image du conteneur, standardisé et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe où, ce qui permet aux marchandises transportées de passer à l’échelle globale.

« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles à gérer lorsque l’objectif de votre système est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une manière différente de faire les choses, de sorte que vous sachiez tout cela », explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle ». Et l’échelle, bien sûr, est la clé d’une économie mondialisée. »

Pour Miriam Posner, le passage à l’échelle – la fameuse scalabilité – explique pourquoi les branches d’un réseau d’approvisionnement disparaissent. Cela aide également à expliquer pourquoi la syndicalisation transnationale a été si difficile : pour répondre aux demandes du marché, les ateliers ont appris à se rendre interchangeables. Un peu comme si « nous avions assimilé les leçons de la modularité d’une manière psychologique ».

La traçabilité de bout en bout ! Mais pour quelle transparence ?

Reste à savoir si la technologie peut remédier au problème qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systèmes de gestion de la chaîne d’approvisionnement.

La première permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numéro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaînes d’approvisionnement mondiales. Le problème est que l’une comme l’autre peuvent vite être vidées de leurs sens si elles ne sont qu’une chaîne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne résolvent les problèmes liés à la transformation de produits. Pour Bonanni, elles ne résolvent pas non plus le manque de visibilité : quand tout le monde est incité à agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargé de fournir plus d’informations que nécessaire. Si ces technologies pourraient certes fournir des informations détaillées sur les conditions de travail et le respect des normes de sécurité, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant à accroître l’efficacité, le contrôle, la rapidité et la sécurité des informations puissent devenir demain des moyens pour s’assurer de chaînes d’approvisionnement socialement responsables.

Dans le domaine de la gestion des chaînes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sûr l’apprentissage automatique, via des algorithmes capables de faire de meilleures prévisions et de prendre des décisions. Appliqué à la chaîne logistique, le machine learning pourrait aider à déterminer les fournisseurs et les itinéraires qui livreront les marchandises de la manière la plus rapide et la plus fiable. Les algorithmes pourraient prédire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs résultats. Et demain, les réseaux d’approvisionnement pourraient se reconfigurer automatiquement, de manière dynamique, selon cette évaluation de risques… Pas sûr que cette piste améliore la cécité collective des outils, pointe Posner. Pas sûr non plus qu’elle soit si accessible quand déjà les données utilisées ne savent pas grand-chose de la qualité des fournisseurs.

En fait, ces technologies nous montrent que les spécialistes de la gestion de la chaîne logistique ne parlent pas de la même transparence ou de la même visibilité que le consommateur final. La transparence de la chaîne logistique ne vise pas à aider à comprendre d’où vient un produit, mais vise à améliorer son efficacité : diminuer le coût tout en maximisant la rapidité.

Quel levier pour transformer l’approvisionnement ?

Les défis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de véritables efforts pour créer un contrôle démocratique des chaînes d’approvisionnement, nous en sommes venus à les considérer comme fonctionnant de manière autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mêmes.

En 2014, le Guardian a signalé que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme à bord de crevettiers au large des côtes thaïlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptôme plus qu’une cause des modalités d’approvisionnement elles-mêmes. Et effectivement, il est possible d’avoir une chaîne d’approvisionnement parfaitement efficace, mais également parfaitement ignorante des conditions de travail qu’elle implique.

Reste que nous avons construit les réseaux décentralisés tels qu’ils opèrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaîne d’approvisionnement souligne que Walmart par exemple exige un contrôle parfait sur certains aspects de sa chaîne d’approvisionnement : notamment sur les prix et les délais de livraison, et ce au détriment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaîne d’approvisionnement est profondément liée à un système conçu pour s’adapter à la variété de produits que nous produisons et à la rapidité avec lesquelles nous les produisons. Et cette absence d’information est intégrée dans les logiciels mêmes qui produisent la mondialisation. Exiger une chaîne logistique plus transparente et plus juste nécessite d’intégrer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacité et de la scalabilité qui les font fonctionner.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.

Du rôle du logiciel dans la chaîne d’approvisionnement

En 2019, dans une tribune pour le New Yorker, Miriam Posner explique le rôle du logiciel dans les chaînes d’approvisionnement, pour mieux nous en pointer les limites. Si les chaînes logistiques ne sont pas éthiques, c’est parce que l’éthique n’est pas une donnée que traite leurs logiciels. Explication.

Professeure à l’université de Californie et spécialiste des questions technologiques, Miriam Posner signe dans le New Yorker une très intéressante tribune sur la transformation logicielle de la chaîne logistique.

En consultant un rapport (« cauchemardesque ») du China Labor Watch (l’Observatoire du travail en Chine, une association qui informe et dénonce les conditions de travail sur les chaînes de fabrication des usines chinoises) sur les conditions de fabrication de jouets en Chine, Miriam Posner s’interrogeait : comment se fait-il que nous ne sachions pas mieux tracer l’origine des produits que nous consommons ?

De l’abstraction des chaînes d’approvisionnements

Quand elle a demandé à ses étudiants de travailler sur la question de la chaîne d’approvisionnement de matériel électronique, elle s’est rendu compte que, quand bien même certaines entreprises se vantent de connaître et maîtriser leur chaîne logistique de bout en bout, aucune ne sait exactement d’où proviennent les composants qu’elles utilisent. « Cette ignorance est inhérente au mode de fonctionnement des chaînes d’approvisionnement ». La coque de plastique d’une télévision par exemple peut-être construite dans une petite usine n’employant que quelques personnes qui n’interagit qu’avec des fournisseurs et acheteurs adjacents (un fournisseur de plastique et une entreprise de montage par exemple). Cette intrication favorise la modularité : si une entreprise cesse son activité, ses partenaires immédiats peuvent la remplacer rapidement, sans nécessairement avoir à consulter qui que ce soit, ce qui rend la chaîne très souple et adaptable… Mais rend également très difficile l’identification des multiples maillons de la chaîne logistique.

Nous avons une vision souvent abstraite des chaînes d’approvisionnements que nous n’imaginons que comme des chaînes physiques. Or leur gestion est devenue complètement virtuelle, logicielle. Les personnes qui conçoivent et coordonnent ces chaînes logicielles elles non plus ne voient ni les usines, ni les entrepôts, ni les travailleurs. Elles regardent des écrans et des tableurs : leur vision de la chaîne d’approvisionnement est tout aussi abstraite que la nôtre, explique la chercheuse.

Le leader logiciel de la chaîne d’approvisionnement est l’allemand SAP. SAP est une suite logicielle que vous ne pouvez pas télécharger sur l’App Store. C’est un logiciel industriel spécialisé qui se déploie à l’échelle d’entreprises pour piloter la chaîne d’approvisionnement (et qui comprend de nombreux modules additionnels de comptabilité ou de ressources humaines). Pour comprendre son fonctionnement, Miriam Posner a suivi une formation en ligne dédiée.

Le logiciel est complexe. Il se présente comme un ensemble de dossiers de fichiers qu’on peut agencer pour former la chaîne d’approvisionnement (commande, fabrication, emballage, expéditions…). La conception d’une chaîne est un processus qui implique plusieurs opérateurs et entreprises, sous forme de « composants ». Un spécialiste de la demande par exemple entre des informations sur les ventes passées (variations saisonnières, promotions planifiées, etc.) et le logiciel calcule combien de produits doivent être fabriqués. Un autre spécialiste utilise des informations sur les délais d’expéditions, les coûts de stockage, les capacités d’usine pour créer un « plan de réseau logistique » qui détermine le moment où chaque engrenage du processus de fabrication doit tourner. Ce plan est ensuite transmis à un autre spécialiste pour planifier la production et calculer le calendrier détaillé qui vont déterminer la manière dont le processus se déroulera sur le terrain le plus précisément possible. Tout cela prend la forme de séries de feuilles de calcul, de cases à cocher, de fenêtres contextuelles… qui n’est pas sans rappeler l’analyse que faisait Paul Dourish sur la matérialité de l’information qui s’incarne aujourd’hui dans le tableur. C’est « pourtant là que les prévisions de marchés sont traduites en ordre de marche des travailleurs », explique Posner. La planification de la production et le calendrier détaillé reposent sur des « heuristiques », des algorithmes intégrés qui répartissent la production et donc la main d’oeuvre pour que les installations fonctionnent à leur capacité maximale. D’ailleurs, souligne Miriam Posner, l’exécution d’une heuristique implique de cliquer sur un bouton de l’interface qui ressemble à une petite baguette magique, comme s’il suffisait d’une action simple pour activer la chaîne.

L’utilisation de SAP est difficile reconnaît la chercheuse. Chaque tâche est compliquée à configurer, avec d’innombrables paramètres à valider. Le plus souvent, ce travail est divisé et nécessite de multiples interventions différentes. En fait, « aucun individu ne possède une image détaillée de l’ensemble de la chaîne d’approvisionnement. Au lieu de cela, chaque spécialiste sait seulement ce dont ses voisins ont besoin. »

« Dans un tel système, un sentiment d’inévitabilité s’installe. Les données dictent un ensemble de conditions qui doivent être remplies, mais rien n’explique comment ces données ont été obtenues. Pendant ce temps, le logiciel joue un rôle actif, en peaufinant le plan pour répondre aux conditions le plus efficacement possible. Les optimiseurs intégrés de SAP déterminent comment répondre aux besoins de la production avec le moins de « latence » et au moindre coût possible (le logiciel suggère même comment optimiser un conteneur pour économiser sur les frais d’expédition). Cela implique que des composants particuliers deviennent disponibles à des moments particuliers. Les conséquences de cette optimisation incessante sont bien documentées. Les sociétés qui commandent des produits transmettent leurs demandes déterminées par calcul à leurs sous-traitants, qui exercent ensuite une pression extraordinaire sur leurs employés. Ainsi, China Labour Watch a constaté que les travailleurs de la ville de Heyuan en Chine chargés de fabriquer une poupée Disney que Miriam a achetée à ses enfants (vendue au prix 26,40 $) travaillent vingt-six jours par mois, assemblent entre 1800 et 2500 poupées par jour et gagnent un centime pour chaque poupée qu’ils complètent. »

De la distance spatiale, temporelle et informationnelle

Pour la chercheuse, le défi majeur dans la gestion de la chaîne d’approvisionnement est la grande distance – « spatiale, temporelle et informationnelle » – qui sépare le processus du monde réel de la fabrication et de la consommation. Ces distances introduisent de nombreux problèmes, comme l’effet « coup de fouet », qui consiste à ce que chaque niveau produise plus que prévu pour mieux répondre à la demande ou ajuster ses bénéfices avec ses coûts. Le battement d’ailes d’un consommateur peut-être amplifié de manière démesurée par la chaîne. En fait, la demande temps réel du pilotage que produit le logiciel ne correspond pas vraiment à la réalité effective des multiples chaînes de production, où chaque acteur fait ses ajustements (qui prennent en compte d’autres commandes, des délais, la disponibilité de fournitures ou la surproduction pour réduire les coûts…). Pourtant, le logiciel procède d’une vision qui maximise le temps réel et donne l’illusion d’être au coeur de la tour de contrôle de la production.

L’autre effet coup de fouet, bien sûr, s’applique directement aux travailleurs des différentes usines prestataires de la chaîne. Quand les exigences des commandes parviennent jusqu’aux travailleurs, elles se révèlent plus exigeantes et plus punitives.

Dans le numéro 4 de l’excellent magazine Logic, Miriam Posner avait déjà livré une réflexion sur le sujet. Elle y rappelait déjà que si les questions de l’architecture physique de la chaîne d’approvisionnement mondialisée était souvent étudiée (notamment dans The Box de Marc Levinson qui s’intéressait au rôle du conteneur ou encore dans The Deadly life of logistics de Deborah Cowen), ce n’était pas beaucoup le cas de son aspect logiciel comme des échanges de données et d’informations qui la sous-tendent. L’industrie logicielle de la gestion de la chaîne d’approvisionnement est pourtant l’un des domaines d’activité qui connaît la plus forte croissance, mais qui opère de manière assez discrète, car les informations qu’elle traite sont très concurrentielles. Amazon, par exemple, n’est pas tant un commerçant qu’une chaîne d’approvisionnement incarnée et peu de personnes connaissent le logiciel qui l’optimise. Pour Leonardo Bonanni, PDG de Sourcemap, une entreprise qui aide les entreprises à construire leurs chaînes d’approvisionnement, l’incapacité des entreprises à visualiser cette chaîne est une fonction même de l’architecture logicielle. Pour Miriam Posner, le terme de chaîne d’approvisionnement est finalement trompeur : cette chaîne « ressemble beaucoup plus à un réseau de voies navigables, avec des milliers de minuscules affluents composés de sous-traitants qui s’écoulent dans de plus grandes rivières d’assemblage, de production et de distribution. »

Pour Bonanni, nous ne voyons qu’une parcelle des abus sur les lieux de travail qui sont portés à notre connaissance : c’est surtout le cas de quelques chaînes prestigieuses, comme dans l’électronique grand public. Mais les conditions de travail sont souvent plus opaques et les abus plus répandus dans d’autres industries, comme l’habillement ou l’agriculture, des lieux où la chaîne se recompose à chaque approvisionnement, à chaque saison, avec un nombre de noeuds et de sous-traitants, qui sont loin d’être tous intégrés à la chaîne logicielle. Les usines géantes de Foxcon masquent d’innombrables petits ateliers et usines beaucoup moins présentables qui permettent à la chaîne d’être extrêmement résiliente et robuste. En fait, « il n’y a pas de tour de contrôle supervisant les réseaux d’approvisionnement », les noeuds ne parlent qu’à leurs voisins immédiats.

Du rôle de l’échelle pour gérer l’information et de la modularité pour gérer la complexité

« Ces infrastructures physiques distribuées ressemblent finalement beaucoup au réseau invisible qui les rend possibles : internet ». À chaque étape de la transformation, le produit est transformé en marchandise. Et l’information qui l’accompagnait transformée à son tour. Du plastique devient une coque qui devient une télévision… En fait, la transformation et l’échelle d’action impliquent une perte d’information. Pour récupérer une tonne d’or, vous devez en acheter à plein d’endroits différents que la fonte va transformer en une marchandise unique : la tonne d’or que vous vendez.

Un fonctionnement assez proche de la programmation modulaire, remarque Miriam Posner. La programmation modulaire est une méthode familière à tout programmeur et architecte de systèmes. Elle consiste à gérer la complexité par des unités fonctionnelles distinctes. Chaque programmeur travaille ainsi sur un module qui s’interface aux autres en spécifiant les entrées et sorties où les modalités qu’il prend en charge. Les systèmes modulaires permettent notamment de gérer la complexité et d’améliorer un module sans avoir à toucher les autres : chacun étant une sorte de « boite noire » vis-à-vis des autres.

Comme l’explique Andrew Russell, historien de l’informatique, la modularité, née dans l’architecture, a été un moyen de structurer les organisations comme l’économie. « C’est une sorte de caractéristique de la modernité ». Et les chaînes d’approvisionnement sont hautement modulaires, à l’image du conteneur, standardisé et interchangeable, qui peut contenir n’importe quoi pour se rendre n’importe où, ce qui permet aux marchandises transportées de passer à l’échelle globale.

« Les informations sur la provenance, les conditions de travail et l’impact sur l’environnement sont difficiles à gérer lorsque l’objectif de votre système est simplement de fournir et d’assembler des produits rapidement. « Vous pouvez imaginer une manière différente de faire les choses, de sorte que vous sachiez tout cela », explique Russell, « afin que votre regard soit plus immersif et continu. Mais ce que cela fait, c’est inhiber l’échelle ». Et l’échelle, bien sûr, est la clé d’une économie mondialisée. »

Pour Miriam Posner, le passage à l’échelle – la fameuse scalabilité – explique pourquoi les branches d’un réseau d’approvisionnement disparaissent. Cela aide également à expliquer pourquoi la syndicalisation transnationale a été si difficile : pour répondre aux demandes du marché, les ateliers ont appris à se rendre interchangeables. Un peu comme si « nous avions assimilé les leçons de la modularité d’une manière psychologique ».

La traçabilité de bout en bout ! Mais pour quelle transparence ?

Reste à savoir si la technologie peut remédier au problème qu’elle a créé. Miriam Posner constate que l’internet des objets et la blockchain sont deux technologies qui ont reçu beaucoup d’engouements chez les praticiens des systèmes de gestion de la chaîne d’approvisionnement.

La première permet de localiser et tracer les composants alors que la seconde permet d’y attacher un numéro d’identification et un journal qui enregistre chaque fois qu’une fourniture change de main. Leurs partisans affirment que ces technologies pourraient apporter une transparence radicale aux chaînes d’approvisionnement mondiales. Le problème est que l’une comme l’autre peuvent vite être vidées de leurs sens si elles ne sont qu’une chaîne d’enregistrement de prestataires, sans informations sur leurs pratiques. Et ni l’une ni l’autre ne résolvent les problèmes liés à la transformation de produits. Pour Bonanni, elles ne résolvent pas non plus le manque de visibilité : quand tout le monde est incité à agir toujours plus rapidement et efficacement, il est difficile d’imaginer qui sera chargé de fournir plus d’informations que nécessaire. Si ces technologies pourraient certes fournir des informations détaillées sur les conditions de travail et le respect des normes de sécurité, il reste difficile de croire que l’internet des objets et la blockchain, qui sont surtout des objets techniques visant à accroître l’efficacité, le contrôle, la rapidité et la sécurité des informations puissent devenir demain des moyens pour s’assurer de chaînes d’approvisionnement socialement responsables.

Dans le domaine de la gestion des chaînes d’approvisionnement, l’autre technologie source d’innovation, c’est bien sûr l’apprentissage automatique, via des algorithmes capables de faire de meilleures prévisions et de prendre des décisions. Appliqué à la chaîne logistique, le machine learning pourrait aider à déterminer les fournisseurs et les itinéraires qui livreront les marchandises de la manière la plus rapide et la plus fiable. Les algorithmes pourraient prédire les performances des fournisseurs et des transporteurs, en leur attribuant des scores de risques selon l’historique de leurs résultats. Et demain, les réseaux d’approvisionnement pourraient se reconfigurer automatiquement, de manière dynamique, selon cette évaluation de risques… Pas sûr que cette piste améliore la cécité collective des outils, pointe Posner. Pas sûr non plus qu’elle soit si accessible quand déjà les données utilisées ne savent pas grand-chose de la qualité des fournisseurs.

En fait, ces technologies nous montrent que les spécialistes de la gestion de la chaîne logistique ne parlent pas de la même transparence ou de la même visibilité que le consommateur final. La transparence de la chaîne logistique ne vise pas à aider à comprendre d’où vient un produit, mais vise à améliorer son efficacité : diminuer le coût tout en maximisant la rapidité.

Quel levier pour transformer l’approvisionnement ?

Les défis politiques pour transformer ces constats sont immenses, conclut Miriam Posner. En l’absence de véritables efforts pour créer un contrôle démocratique des chaînes d’approvisionnement, nous en sommes venus à les considérer comme fonctionnant de manière autonome – davantage comme des forces naturelles que des forces que nous avons créées nous-mêmes.

En 2014, le Guardian a signalé que des migrants birmans travaillaient dans des conditions qui tenaient de l’esclavagisme à bord de crevettiers au large des côtes thaïlandaises. Pour un importateur de crevettes, l’esclavagisme semblait un symptôme plus qu’une cause des modalités d’approvisionnement elles-mêmes. Et effectivement, il est possible d’avoir une chaîne d’approvisionnement parfaitement efficace, mais également parfaitement ignorante des conditions de travail qu’elle implique.

Reste que nous avons construit les réseaux décentralisés tels qu’ils opèrent, rappelle la chercheuse. L’anthropologue Anna Tsing dans ses travaux sur la chaîne d’approvisionnement souligne que Walmart par exemple exige un contrôle parfait sur certains aspects de sa chaîne d’approvisionnement : notamment sur les prix et les délais de livraison, et ce au détriment d’autres aspects comme les pratiques de travail. L’absence d’information sur certains aspects de la chaîne d’approvisionnement est profondément liée à un système conçu pour s’adapter à la variété de produits que nous produisons et à la rapidité avec lesquelles nous les produisons. Et cette absence d’information est intégrée dans les logiciels mêmes qui produisent la mondialisation. Exiger une chaîne logistique plus transparente et plus juste nécessite d’intégrer des informations que peu d’entreprises souhaitent utiliser, notamment parce que par nature, elles remettent en question les paradigmes de l’efficacité et de la scalabilité qui les font fonctionner.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net, le 17 mars 2019.

De la matérialisation des données

En 2017, Paul Dourish publiait « The Stuff of Bits », un livre qui s’intéressait à notre rapport aux tableurs et aux impacts matériels de l’information numérique sur la réalité. Une manière de saisir et comprendre comment le monde réel est piloté par les outils numériques dans les organisations. Relecture.

La couverture du livre Stuff of bits.

Paul Dourish (Wikipedia) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).

Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que, même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?

Du rôle du tableur dans les organisations

Dans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).

Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.

Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?

Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.

Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.

Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.

Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).

Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.

Des conséquences de la matérialité du numérique sur nos usages

Cet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».

Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.

Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.

Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.

On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.

De la matérialisation des données

En 2017, Paul Dourish publiait « The Stuff of Bits », un livre qui s’intéressait à notre rapport aux tableurs et aux impacts matériels de l’information numérique sur la réalité. Une manière de saisir et comprendre comment le monde réel est piloté par les outils numériques dans les organisations. Relecture.

La couverture du livre Stuff of bits.

Paul Dourish (Wikipedia) a signé au printemps aux Presses du MIT un court essai The Stuff of Bits (que l’on pourrait traduire d’une manière un peu cavalière par « La substance de l’information »), un livre qui s’intéresse aux impacts matériels de l’information numérique. Comment la simulation numérique, nos outils de modélisation et nos outils de travail façonnent-ils à rebours notre expérience ? Pour le professeur d’informatique et anthropologue, les arrangements matériels de l’information, c’est-à-dire la manière dont elle est représentée, dont elle est façonnée, dont on peut l’utiliser, ont une importance significative dans notre rapport à l’information. Comme le soulignait le philosophe Donald Schön, le design reflète notre conversation avec les matériaux. Dourish regarde comment le numérique impacte désormais nos modalités d’usage. Pour lui, « les matérialités de l’information reposent sur des propriétés et des formats qui contraignent, rendent possible, limitent et façonnent la façon dont ces représentations peuvent être créées, transmises, stockées, manipulées et mises à profit ». A la suite par exemple de Lev Manovich, il souligne combien la base de données est devenue la forme culturelle majeure du XXIe siècle (après le roman au XIXe et le film au XXe siècle).

Dourish prend de nombreux exemples pour explorer son idée. Il développe longuement les différentes façons de représenter une même image au format numérique, en observant les multiples manières de la coder : une image peut-être effectivement une image, mais également peut-être produite par un programme ou une itération. Reste que, même dans le programme, des choses échappent à la représentation, comme ce peut-être le cas par exemple de la vitesse d’exécution d’un programme pour représenter cette image ou de la taille de la mémoire de l’ordinateur utilisé. Un programme est une série d’instructions, mais l’expérience qui résulte de son exécution, elle, n’est pas spécifiée par le programme. Or, bien sûr, la manipulation de cette image sera très différente selon la manière dont elle est codée. C’est bien à cette relation entre les formes et les possibilités que permettent les matériaux numériques que s’intéresse Dourish. Comment leurs affordances, c’est-à-dire leurs propriétés relationnelles, façonnent-elles nos pratiques ?

Du rôle du tableur dans les organisations

Dans son livre Dourish évoque longuement un exemple significatif qui permet de mieux saisir là où il souhaite nous emmener, ce qu’il estime qu’il nous faut désormais regarder avec attention. Il revient longuement sur ce qu’il appelle les « spreadsheet events » des réunions organisées autour de la projection de tableurs, comme elles se pratiquent dans de plus en plus d’entreprises – avec les « powerpoint events », plus anciens et plus documentés, qui sont des rencontres organisées autour de la présentation de documents projetés qui forment l’essentiel des réunions ou des conférences professionnelles – voir notamment « Les transformations de l’écosystème de l’information dans le monde du travail » ou « PowerPoint, voilà l’ennemi ! »).

Image : Exemple d’un « spreadsheet event » tiré d’un blog local américain – qui montre qu’il n’est pas si simple de trouver des images de ce type de pratiques pourtant courantes.

Les réunions spreadsheet ne sont pas vraiment des réunions Tupperware : ce sont des réunions de travail autour d’un écran qui projette un tableur dont l’accès est parfois partagé. Souvent utilisé pour travailler de manière collaborative autour d’un budget (avec toutes les limites que cela peut avoir, comme le faisait remarquer récemment Bjarte Bogsnes), le tableur est utilisé pour une multitude de raisons. C’est à la fois un artefact de coordination et d’archivage des décisions prises lors de l’événement. Dourish rappelle d’ailleurs l’importance de l’enchevêtrement des organisations et de leurs systèmes d’information : combien les « workflows » encodent les procédures, les processus et les règles d’organisation. Cet exemple permet à Dourish de poser des questions sur comment nos outils façonnent nos usages. « Comment la matérialité d’un spreadsheet – à la fois outils interactifs et systèmes de représentation – modèle, contraint et habilite la façon dont on travaille ? Comment projetons-nous notre travail dans la forme des tableurs ou comment avons-nous (ou pas) la main sur un ensemble de règles, de limites, de possibilité ou d’opportunités ? » Bref, comment les gens bricolent et s’approprient ces contraintes logicielles en pratique ?

Dourish souligne d’ailleurs la complexité d’action que permettent ces tableurs qui sont à la fois des grilles de cellules qui permettent des formes de regroupement et qui permettent d’activer certains contenus : c’est-à-dire que certains contenus ne sont pas fixés, mais calculés selon des formules via des données pouvant provenir d’autres cellules ou d’autres tableurs ou bases de données. C’est en cela que, malgré leur sécheresse apparente (des listes de chiffres le plus souvent), ces outils se révèlent commodes pour rendre visibles de la complexité comme du détail. Si la plupart de ces tableurs ne sont pas hautement dynamiques (assez souvent, la plupart des données ne sont pas calculées), ils permettent, alors qu’ils ne sont pas conçus pour cela, de générer de la planification d’activité ou de la priorisation d’activité, tout en facilitant le partage et d’information et de données.

Dourish insiste également sur les limites de ces outils (par exemple, la difficulté à manipuler des blocs non contigus) ou leur potentiel (la possibilité d’ajouter des données et de faire grandir le tableur). Bien souvent, souligne-t-il, le tableur sert de guide à la réunion : il révèle l’organisation elle-même, les participants discutant des données cellule après cellule, colonne après colonne… Le tableau spécifie ce qui est à l’ordre du jour et écarte tout ce qui n’apparaît pas sur le tableur. La distinction entre les données joue souvent comme une séparation des responsabilités – ce qui pose d’ailleurs des questions sur les responsabilités qui relèvent de ce qui n’est pas sur le tableur ou de ce qui est à l’intersection des données ou de leur calcul.

Dourish souligne aussi qu’il faut distinguer différents types d’objets dans les tableurs : on ne sait pas facilement par exemple si une donnée est une donnée directe – inscrite – ou dérivée, c’est-à-dire calculée – c’est-à-dire si un chiffre est un nombre ou le résultat d’une formule. Si le rôle du tableur semble de faire ressembler les données à un document papier où toutes les valeurs auraient le même statut, il faut saisir que ce n’est pas le cas, puisque ces données sont éditables et calculables, recomposables… Il souligne par là comment les usages que nous inventons depuis ces objets manquent de conception : un tableur n’a pas été conçu pour être le pilote de réunions. Si le côté dynamique de ces objets explique en grande partie leur utilisation, ce dynamisme par exemple créé des lacunes de fonctionnalités, comme le fait de ne pas pouvoir faire de recherche sur une donnée résultant d’un calcul dans un très grand tableau.

Enfin, il montre également que cet enregistrement d’activité est également un enregistrement d’accord : l’important devient ce qui est noté dans le tableau et non pas la discussion ou le calcul qui conduit à inscrire cette information. Pire, souligne-t-il, l’utilisation de tableurs comme outils de pilotage ou de budgétisation s’impose par reproduction. « Les documents deviennent des enregistrements ; les enregistrements deviennent des modèles : les modèles deviennent des routines ; les routines deviennent des processus. » Ces outils encodent et fixent des relations à la fois dans le tableur lui-même (cette cellule doit toujours être la moyenne des chiffres de cette colonne) comme entre les entités que ces chiffres recouvrent (ce budget et ce que ça implique doit toujours être le résultat de tel autre…).

Le développement de l’usage de ces outils, malgré leurs lacunes de conception, provient certainement du fait que ce sont des outils performatifs, qui permettent via le calcul, les formules et les liens entre les données d’être toujours à jour et de réaliser ce qu’ils énoncent. « L’usage de formules est une façon de montrer que le tableur continuera à faire son travail, même si son contenu change : c’est un moyen de produire de la stabilité dans une forme qui ne l’est pas. » Ces réunions qui consistent à éditer et mettre à jour ces tableurs soulignent que ce qui se joue ne tient pas seulement de la communication comme peuvent l’être les réunions powerpoint, mais bien de la délibération et que le document qui fixe la réunion n’est pas seulement produit, mais transformé par la réunion elle-même. Si les tableurs détrônent l’édition collaborative de documents textuels, selon Dourish, c’est parce qu’ils permettent de mieux rendre compte de la complexité des données et des interactions entre elles. S’ils détrônent le tableau blanc, c’est parce que les tableurs ont une vie avant et après la réunion, d’une certaine manière qu’ils doivent être vivants, dynamiques… Enfin, note encore Dourish, contrairement à ce qu’on pourrait penser, la plupart de ces séances utilisent un tableur non connecté à l’internet. Alors qu’un document partagé en ligne permet de maintenir des versions synchrones, les documents offline permettent d’avoir un point de contrôle qu’une seule personne ajuste selon les discussions.

Des conséquences de la matérialité du numérique sur nos usages

Cet exemple illustre assez bien l’ambition de Dourish. « Explorer comment le calcul devient un objet avec lequel les gens doivent lutter »… Comment le calcul façonne la forme des objets numériques, contraint nos interactions humaines elles-mêmes et créent de nouvelles structures d’interaction qui ne sont pas seulement numérique ou qui rétroagissent au-delà de leur caractère numérique ? L’exemple des tableurs et des bases de données pour la coordination de groupe montre comment les organisations passent d’une forme linéaire, narrative, à des formes profondément relationnelles. « La base de données est à la fois une forme de représentation et une forme effective ».

Force est pourtant de constater que hormis cet exemple – passionnant – Dourish ne parvient pas vraiment à cerner les enjeux de la matérialité de l’information. Les autres objets sur lesquels il pose son regard d’anthropologue ne sont pas aussi parlant et parfois trop techniques pour être facilement compréhensibles.

Reste que l’analyse qu’il livre sur comment les bases de données façonnent désormais le monde matériel – et inversement – pointe bien sûr leurs limites : « Si les organisations ne peuvent agir que sur les données dont elles disposent, alors les limites de leurs bases de données deviennent leurs contraintes d’action sur le monde. » Or, dans ce qui est projeté lors de ce type de réunion, les bases de données et les données demeurent bien souvent l’objet caché… La matérialité du numérique a donc des conséquences sur la façon même dont on communique, on partage et se connecte.

Comme il le souligne en conclusion, « les bits ne sont pas que bits. Certains comptent plus que d’autres. Certains arrangements de bits sont plus facilement manipulables que d’autres…(…) tout comme les systèmes numériques indo-arabes et romains, différentes représentations impliquent différentes conséquences pour les sortes de choses que l’on peut faire avec. » La rhétorique du « virtuel » suggère que le numérique serait indépendant des configurations et contraintes matérielles qui pèsent sur lui. Or, si le numérique dépend de grandes infrastructures matérielles, le numérique impose en retour des contraintes matérielles à ceux qui les utilisent. Les objets numériques ont des particularités propres et les systèmes de représentation qu’ils déterminent ont des manifestations directement matérielles. Et Dourish d’en appeler à mieux comprendre à la fois les pratiques culturelles et leurs manifestations techniques. Certes, il n’est pas le premier à le dire, à signaler les limites des intentions dans la production des systèmes numériques et leurs détournements ou leurs bricolages. Pour lui, il est nécessaire de prendre au sérieux la matérialité du numérique. Cette matérialité explique-t-il encore relève le plus souvent d’une « traduction », du passage d’une représentation à une autre. Bien souvent, on néglige l’aspect matériel de ces transformations, alors qu’elles sont éminemment importantes, comme le soulignait déjà Frédéric Kaplan en s’intéressant au fonctionnement du traducteur de Google, qui passe toujours par une traduction par l’anglais pour traduire d’une langue à une autre. Il invite d’ailleurs à parler plutôt de transduction pour parler de ce type de conversions, comme c’est le cas de notre voix transformée en signal électrique par l’usage du téléphone et réassemblé en sons à la fin, produisant une nouvelle production qui n’est pas qu’une simple copie. Le calcul n’est pas indépendant de ses manifestations matérielles insiste Dourish (« l’informatique ne concerne pas plus l’ordinateur désormais que l’astronomie ne concerne les télescopes« , disait le mathématicien Edsger Dijkstra), qui invite à refonder la science informatique en s’inspirant du Manifeste pour la pensée computationnelle (.pdf) de Jeanette Wing qui invitait déjà à changer de mode de pensée. Une conclusion hélas un peu convenue.

On aurait aimé que Dourish, plutôt que de se perdre parfois dans la dissection de la matérialité du réseau, évoque les succédanés de ces tableurs par exemple, comment les tableaux de bord de pilotage, comme les tableaux de bord urbains, les systèmes de visualisation de données, prolongent les effets qu’il pointe avec les « spreadsheets events ». On aurait aimé qu’il souligne d’autres exemples de simulations numériques, de virtualisation de la réalité (à l’image des bombes nucléaires américaines qui continuent d’évoluer alors qu’aucune n’est testée en situation réelle, mais uniquement par simulation numérique ce qui implique que leurs limites reposent désormais plus sur les capacités de calcul que sur leur niveau de radioactivité) en s’intéressant par exemple plus avant aux contraintes qu’imposent les formes de modélisation à la réalité. La conception d’armes nucléaires est devenue une science informatique, rappelle-t-il. Et c’est le cas de nombre de domaines des sciences de l’ingénieur. La réalité est façonnée par la modélisation que nous faisons du monde. D’où la nécessité de s’y intéresser toujours plus avant. De regarder toujours avec acuité l’enchevêtrement toujours plus complexe du numérique au reste du monde et sa matérialisation.

Hubert Guillaud

Cet article a été publié originellement sur InternetActu.net le 5 septembre 2017.

❌