Voitures autonomes, traduction automatique, logiciels de reconnaissance d’images ou de personnes, système de navigation autonome : qu’elle suscite enthousiasme ou inquiétude, l’intelligence artificielle (IA) semble prendre une place de plus en plus grande dans la société. Après les robots capables de remplacer des ouvriers sur des chaînes de production, apparus dans les années 1980, des systèmes dits intelligents effectuent aujourd’hui le travail des comptables, des conseillers financiers et même des avocats. Vingt ans après la victoire, en 1996, de l’ordinateur d’IBM Deep Blue contre le champion d’échecs Garry Kasparov, une autre machine, AlphaGo, appartenant à Google, est devenue championne du monde au jeu de go, pourtant réputé très difficile à maîtriser.
Mais, plutôt qu’un progrès considérable pour l’humanité, permettant de prolonger le cerveau humain, l’IA apparaît à beaucoup comme une menace qui pourrait supprimer des millions d’emplois à court terme dans le monde. Certains vont jusqu’à prédire la fin du travail. D’autres s’inquiètent de l’emprise grandissante de l’IA sur nos vies et, derrière elle, des entreprises qui en ont la maîtrise, comme Google, Facebook ou Amazon, accusées de surveiller toute la planète en recueillant, compilant et stockant les données personnelles de ses habitants. Mais discuter d’une technique, aussi performante soit-elle, sans discuter de la société dans laquelle elle est apparue, des conditions sociales dans lesquelles elle est mise en œuvre et à qui elle profite, n’a pas de sens. Derrière les progrès technologiques qui ont permis les avancées spectaculaires de l’IA, on retrouve l’exploitation de travailleurs à un pôle, et l’accumulation de profits à l’autre.
L’intelligence artificielle, un abus de langage
Le terme « intelligence artificielle » a été inventé en 1955 par John McCarthy, un professeur de mathématiques qui travaillait sur les machines de Turing, ancêtres des ordinateurs. Alan Turing (1912-1954), spécialiste du cryptage et des algorithmes, avait posé en 1950 un critère pour qualifier une machine d’intelligente : qu’elle puisse passer pour un humain lors d’une conversation en aveugle avec un véritable humain.
La notion d’intelligence artificielle est pour le moins une exagération. Elle n’a rien à voir avec l’intelligence humaine. C’est une intelligence dite faible, essentiellement capable de trier et de traiter une masse de données de plus en plus gigantesque, en un temps record, avec des algorithmes conçus par des mathématiciens. C’est ce que le physicien Hubert Krivine appelle « l’irrationnelle efficacité des données[1] ». L’IA est capable de prédire des résultats mieux et beaucoup plus vite que l’intelligence humaine, mais elle n’est pas capable de comprendre, encore moins d’innover. Elle établit des corrélations entre des phénomènes sans comprendre les liens de causalité qui les relient. Cela peut conduire à de grossières erreurs. Et quand la situation est inédite, la machine échoue. Pour les mêmes raisons, l’IA reproduit les biais et les préjugés des données qui ont servi à l’entraîner. Ainsi en 2016 Tay, une IA développée par Microsoft pour échanger des messages sur les réseaux sociaux, a mis moins d’une journée pour lancer des tweets racistes et négationnistes, en s’alimentant de tous les messages qu’elle a trouvés sur la toile.
Si le cerveau humain traite et analyse lui aussi des données, les idées et les raisonnements, tout comme les sentiments ou les intuitions qu’il ressent ou exprime, ne résultent pas d’une simple accumulation d’informations. L’expérience personnelle et sociale d’un individu contribue beaucoup à sa prise de décision. Un système d’aide à la décision médicale peut être plus rapide et efficace qu’un médecin pour analyser les symptômes et les images médicales, mais guérir un patient ne se réduit pas à analyser des données sur sa pathologie ; cela nécessite de l’interroger et de l’écouter, pour connaître ses antécédents et sa situation.
Des progrès longtemps laborieux
Depuis les années 1950 et les balbutiements de l’IA, les progrès en informatique ont eu lieu par paliers successifs. La puissance des calculateurs n’a cessé d’augmenter. L’invention du transistor a permis la miniaturisation des composants électroniques. En 1971, Intel commercialisait le premier microprocesseur, qui exécute les milliers d’opérations élémentaires des programmes informatiques. Mais les avancées dans l’IA ont été suivies de stagnations, car les promesses faites par ses laudateurs – dès 1958 certains annonçaient : « D’ici dix ans, un ordinateur sera champion du monde des échecs » – tardaient à se réaliser. Les obstacles techniques, notamment la trop faible puissance de calcul des machines, se multipliaient. En conséquence, les financements, publics ou privés, se sont amenuisés.
Entre 1980 et 1987, l’IA connut un nouveau boom, avec la mise au point des « systèmes experts », des logiciels capables de répondre à des questions, en effectuant un raisonnement à partir de faits et de règles connues, regroupés dans des bases de données, pour un domaine précis. Dans la même période, les chercheurs ont exploré de nouvelles voies pour que des machines soient capables de trier, de classer, de faire des choix entre deux options et même d’améliorer elles-mêmes leurs performances. C’est le connexionnisme, qui imite le cerveau biologique en reconstituant des réseaux de neurones artificiels, entraînés par des algorithmes pour reconnaître des images, des contours, des visages. Cette méthode, appelée le deep learning ou « apprentissage profond », est connue depuis trente ans. Mais la puissance des ordinateurs et leur vitesse de calcul sont restées longtemps trop faibles pour que les résultats soient probants.
Cette phase de développement de l’IA, dans les années 1980, coïncidait avec un essor des nouvelles technologies qui attiraient des masses de capitaux à la recherche, déjà, de placements. Des centaines de millions de dollars ont afflué vers ce secteur, jusqu’à ce que cette bulle éclate une première fois en 1987. Les crédits furent alors coupés. L’IA disparut de la une des journaux.
Il fallut attendre le milieu des années 2000, avec l’augmentation des performances des processeurs puis le développement d’Internet, pour qu’elle revienne sur le devant de la scène. Pour donner une idée de ces puissances de calcul, l’université de Reims Champagne-Ardenne a acquis récemment Roméo, un ordinateur capable de réaliser un million de milliards d’opérations par seconde. L’accumulation massive de données, les big data, rend possibles et efficaces les opérations d’apprentissage profond des systèmes d’IA. Cette collecte des données s’est emballée : chaque jour, 2,5 milliards de milliards d’octets sont collectés. 90 % des données disponibles dans le monde ont été collectées au cours des deux dernières années.
La mine d’or des big data
La collecte des données personnelles de centaines de millions, sinon de milliards d’utilisateurs, pour les transformer au bout du compte en publicité et en profits, est devenue un métier. C’est celui des opérateurs d’Internet, Google, Facebook, Amazon et les autres Gafam (acronyme formé sur leurs noms).
Dès 2001, Larry Page, cofondateur de Google, déclarait : « Notre domaine, ce sont les informations personnelles […]. Les endroits qu’on a vus. Nos communications […]. Les capteurs ne coûtent rien […]. Le stockage ne coûte rien. Les appareils photographiques ne coûtent rien. Les gens vont générer d’énormes quantités de données […]. Tout ce que vous aurez entendu, vu ou éprouvé deviendra consultable. Votre vie entière deviendra consultable. » En 2003, trois des informaticiens de Google déposaient un brevet intitulé « Générer des informations utilisateurs à des fins de publicité ciblée ». Leur invention visait « à établir les informations de profils d’utilisateurs et à utiliser ces dernières pour la diffusion d’annonces publicitaires », autrement dit, à recueillir des données sur le comportement des utilisateurs pour leur envoyer des publicités ciblées.
Introduite en Bourse en 2004, Google est devenue en 2018 l’une des cinq premières entreprises mondiales par sa capitalisation boursière. Celle-ci équivaut au PIB de l’Argentine. Elle est quatre à cinq fois plus grande que celle d’une entreprise traditionnelle comme Total, alors que Google ne produit que des services d’une valeur assez faible, et rien de matériel. Une telle valeur boursière, largement virtuelle, est le fruit de la spéculation. Ceux qui achètent des actions de Google ou de Facebook anticipent la montée du cours de ces actions, pour les revendre avec bénéfice. Ces valorisations boursières délirantes reflètent aussi le fait que les masses de capitaux disponibles ne trouvent pas de débouchés dans d’autres secteurs productifs attractifs. C’est un des signes de la maladie incurable de l’économie capitaliste. En outre, la valeur boursière de ces entreprises peut chuter aussi vite qu’elle s’est envolée : la capitalisation de Facebook a chuté de 120 milliards de dollars en une seule journée, fin 2018, après la révélation de fuites géantes de données personnelles.
Cela dit, la puissance financière des Gafam leur permet de constituer des monopoles en rachetant, parfois au prix fort, des centaines d’autres sociétés spécialisées dans la collecte de données personnelles. Ainsi Facebook a racheté en 2014 l’application WhatsApp pour la bagatelle de 19 milliards de dollars. Google a racheté Waze, une start-up qui a développé une application de navigation par GPS concurrente de Google Maps, pour 1,2 milliard de dollars. Alphabet, la maison mère de Google, a racheté plus de 230 entreprises depuis sa création. Outre Google, qui possède Android ou Youtube, Alphabet a développé une dizaine de filiales qui font de la recherche et du développement dans les secteurs de la santé, de l’intelligence artificielle, de la robotique, des matériaux, des transports ou encore de la cybersécurité, et même de l’agriculture. Sans surprise, en dépit de sa devise, « Don’t be evil » (Ne faites pas le mal), des fuites ont révélé que Google travaillait avec l’armée américaine pour développer des drones tueurs. En 2018, des salariés de Microsoft et d’Amazon avaient dénoncé la vente de logiciels de reconnaissance faciale à la police des frontières américaine.
Le marché des appareils connectés ne cesse d’augmenter. Il y aurait 22 milliards d’appareils connectés en 2019 dans le monde, contre 15 milliards en 2016, et 40 milliards attendus en 2025. Là encore, l’objectif principal des entreprises de ce secteur, comme Sleep Number qui fournit des lits dits intelligents car dotés d’une technologie de suivi du sommeil, est de collecter des données biométriques et des données sur les mouvements des dormeurs, leurs positions, leur respiration et leur fréquence cardiaque, voire sur les sons émis dans la chambre. Toutes ces informations permettent la constitution de bases de données pour entraîner des systèmes d’IA d’aide à la décision médicale.
Drainer une masse toujours plus grande de données personnelles permet aux entreprises du numérique de les monnayer ensuite au prix fort, soit à travers la publicité payante ciblée, soit pour développer des systèmes d’IA dans divers domaines. Le recueil de données et le rachat des start-up prometteuses ne sont pas la seule source d’enrichissement de ces sociétés. Comme toutes les entreprises capitalistes, c’est d’abord en exploitant, directement ou par la sous-traitance, des travailleurs partout dans le monde qu’elles enrichissent leurs actionnaires.
Les forçats du numérique
Derrière l’image cool de geeks californiens comme Mark Zuckerberg, Larry Page et les fondateurs des Gafam, se cache l’exploitation. Si les ingénieurs informaticiens ne sont pas les plus exploités du monde, les cols-bleus de la Silicon Valley, les employés des cantines de Facebook ou d’Alphabet, les agents de sécurité, les employés du ménage, les chauffeurs, eux, doivent cumuler trois emplois pour survivre. L’industrie du numérique n’est pas virtuelle. Elle a besoin de supports matériels, ordinateurs, téléphones, réseaux, unités de stockage des données de plus en plus gigantesques, etc. Ce sont des milliers de tonnes de semi-conducteurs et autres composants électroniques, de cuivre et autres métaux, de terres rares, de coltan ou d’étain, extraits dans des mines au Congo, transformés ou assemblés en Chine, au Bangladesh ou ailleurs, dans des conditions épouvantables. Aucun progrès dans l’IA n’est possible sans le travail bien réel et sous-payé de travailleurs du monde entier.
Un reportage de Cash investigation diffusé en septembre 2019 a mis en lumière une autre forme d’exploitation. Il s’agit des salariés sous-payés pour entraîner les systèmes d’IA. Avant qu’un logiciel soit capable de reconnaître un visage particulier parmi tous les autres, ou une empreinte significative sur des clichés d’IRM, il est indispensable de lui faire subir un apprentissage dit supervisé. Cette éducation initiale incombe à des humains dont la tâche est d’entourer la figure à identifier sur des milliers de photos, ou de cliquer pour valider. Payés de 0,01 à 0,12 dollar le clic, les plus entraînés, en travaillant huit heures par jour, cinq jours par semaine, sur leur propre ordinateur, gagnent entre 400 et 500 dollars mensuels. Dans ce travail d’éducation de l’IA, il peut y avoir l’entraînement de drones tueurs sans que celui qui valide les images puisse le savoir. Dans la même rubrique, Facebook fait travailler 15 000 modérateurs, payés 800 euros par mois, pour visionner des heures d’images ou de vidéos postées par les utilisateurs pour écarter celles que Facebook juge violentes, pornographiques ou dégradantes. Outre que les critères de censure sont imposés par Facebook, les modérateurs subissent en permanence des chocs psychologiques parfois graves à cause des images insoutenables qu’ils doivent regarder, sans le moindre suivi médical. Internet permet de délocaliser ces emplois ingrats partout dans le monde. Les géants du numérique les sous-traitent à de multiples sociétés et se lavent les mains des conditions dans lesquelles cette nouvelle catégorie de travailleurs, les forçats du clic, est exploitée.
Les progrès du numérique et de l’informatique, couplés à ceux de la mondialisation, ont fait le succès d’Amazon. Mais les algorithmes et les logiciels performants servent en premier lieu à organiser l’exploitation des travailleurs. Les préparateurs de commandes d’Amazon sont sous la surveillance constante de leur scan, le petit terminal portable qui indique les marchandises à rassembler. Ce scan ne leur indique pas seulement le travail à faire, il les suit à la trace dans l’entrepôt, chronomètre chaque opération, les réprimande s’ils restent trop longtemps aux toilettes. Ces conditions de travail éreintantes et stressantes s’ajoutent à des salaires au plancher. Chez Amazon, l’IA a renouvelé Les temps modernes de Charlie Chaplin, inspiré du travail à la chaîne dans les usines automobiles du début du 20e siècle, mais n’a rien changé à l’exploitation.
Les robots et l’IA vont-ils remplacer les travailleurs ?
Pendant la campagne présidentielle de 2017, Benoît Hamon avait défendu la mise en place d’un revenu universel en invoquant « la raréfaction inéluctable du travail » à cause du développement de l’IA et des robots. Le mensuel de la CGT, Ensemble, a récemment donné la parole à Bernard Stiegler, philosophe, directeur de l’Institut de recherche sur l’innovation et auteur d’un livre intitulé L’emploi est mort, vive le travail ! dans lequel il écrit : « Sous l’effet de l’automatisation intégrale et généralisée, [...] les salariés deviendront une sorte de résidu d’une époque révolue. Il y aura, certes, encore des emplois parce que, dans certains secteurs, on continuera à avoir besoin d’une main-d’œuvre humaine prolétarisée, mais cela deviendra exceptionnel[2]. » La conclusion de Stiegler est qu’il faut déconnecter l’emploi et le revenu, pour distribuer des « allocations de ressources » ou un « revenu contributif ». Cette sorte de revenu universel serait payée par la collectivité, c’est-à-dire prélevée sur les budgets de solidarité, donc la part socialisée de richesses qui revient aux travailleurs. Il n’est surtout pas question de faire payer les capitalistes !
Stiegler reprend à son compte diverses études, comme celle publiée en 2013 par deux chercheurs de l’université d’Oxford, Frey et Osborne[3], affirmant que 47 % des emplois américains étaient à haut risque, c’est-à-dire « potentiellement automatisables à une échéance non spécifiée, peut-être une décennie ou deux ». S’il est indéniable que l’automatisation supprime des emplois, ces chiffres spectaculaires sont contestés par d’autres études. Un rapport de l’OCDE, publié en 2016, indique quant à lui que « 9 % des emplois seulement sont confrontés aux États-Unis à une forte probabilité d’être automatisés, au lieu de 47 % selon Frey et Osborne »[4].
Les emplois supprimés par l’introduction de robots ont longtemps été des postes d’ouvriers dans l’industrie ou sur les caisses des supermarchés. Même en Chine, l’atelier du monde, avec des travailleurs mal payés, le gouvernement a lancé en 2015 un plan dit Robots 2025 pour augmenter l’automatisation dans les usines. Interrogé en janvier 2018 par un journaliste d’Envoyé spécial, le directeur d’une immense usine Hisense installée dans le sud de la Chine, sous-traitant pour Hitachi, Sharp et Whirlpool, expliquait qu’il investit dans un robot dès que son coût est inférieur au salaire de deux années du salaire d’un ouvrier. En trois ans, cette usine a supprimé 3 000 emplois sur 8 000. Mais l’arbre ne doit pas cacher la forêt : partout dans le monde, même dans les usines très robotisées, les tâches dures, ingrates et peu qualifiées continuent d’être effectuées par des ouvriers sous-payés. C’est en substance ce que déclarait au journal Les Échos le directeur d’un institut de recherche sur le numérique : « Plus le coût est faible, moins l’intérêt de remplacer le travailleur par une machine est élevé[5]. » Désormais l’introduction de logiciels intelligents supprime des emplois de comptables, d’analystes financiers, d’employés de banque ou d’assurance. Il s’agit justement d’emplois qualifiés et plutôt bien payés.
Mais, si la numérisation et l’automatisation suppriment des emplois, combien ont été supprimés par des fermetures d’entreprises suite à des restructurations, des délocalisations, des gains de productivité, sans introduire ni robots ni logiciels intelligents ? Car la principale cause des suppressions d’emplois, ce n’est pas l’automatisation, c’est l’aggravation de l’exploitation dans une économie en crise et en stagnation. Les dizaines de milliers d’emplois supprimés en ce moment par les banques européennes sont autant, sinon plus, le fait du ralentissement économique, des incertitudes de leurs patrons sur l’avenir, que des effets de l’IA.
Introduire des machines permettant de produire plus vite et à une plus grande échelle, pour baisser le temps de production, caractérise le capitalisme depuis ses débuts. Les robots et les systèmes dotés d’une IA sont des machines perfectionnées. À toutes les époques, cette introduction s’est faite dans la douleur pour les travailleurs. Certains étaient rejetés au chômage, tandis que ceux embauchés pour faire fonctionner les nouvelles installations étaient encore plus exploités qu’avant. Tant que le système s’étendait et se développait, de nouveaux emplois étaient créés. Ce qui caractérise la période actuelle, bien plus que la performance des machines dites intelligentes, c’est la stagnation de l’économie et l’incapacité des capitalistes à développer les forces productives, et même à renouveler celles qui s’usent, faute de marchés en perspective.
Tant que les moyens de production appartiendront à des capitalistes privés, les gains de productivité permis par les machines, intelligentes ou pas, ne pourront pas profiter aux travailleurs, et les inventions qui pourraient réduire la pénibilité générale du travail se traduiront par une exploitation plus forte encore de certains travailleurs. Le capitalisme a toujours été le mariage de prouesses scientifiques ou techniques extraordinaires avec la pire exploitation de l’homme.
Pour autant, pas plus que l’introduction des machines au 19e siècle n’a empêché les travailleurs de s’organiser pour se défendre collectivement, l’introduction des robots et de l’IA au 21e ne met un terme à la lutte de classe. Si Luc Ferry, ex-ministre de Sarkozy, a pu dire lors d’un colloque sur le sujet, en 2018 : « Le robot ne boit pas, ne fume pas, n’est pas syndiqué à la CGT et ne fait pas grève. Les patrons en rêvent », il risque d’en être pour ses frais. Les travailleurs qui occupent les emplois sous-payés générés par le numérique, comme ceux qui triment dans les ateliers aux côtés des robots, ou ceux qui participent à leur fabrication, continuent de créer la plus-value et donc les profits des patrons. Ils sont indispensables au fonctionnement de l’économie et cela leur donne un rôle central pour changer la société.
Cela fait plus d’un siècle que l’économie mondiale est mûre pour le socialisme, que tous les éléments de planification existent, mais qu’ils sont mis en œuvre par les grandes firmes, pour leur profit, sans supprimer ni la concurrence entre elles, ni le gâchis qu’elle engendre. Le numérique et l’intelligence artificielle ne sont pas seulement des moyens de faciliter la vie des hommes, de supprimer des travaux pénibles, dangereux ou fastidieux, de démultiplier leurs compétences. Ils sont des outils de planification que Marx ou Lénine n’imaginaient même pas. Ils offrent à l’humanité des instruments puissants pour recenser, à la fois localement et à l’échelle planétaire, les ressources, l’énergie et les besoins de chacun. Ils permettent d’organiser de façon rationnelle et planifiée la production, le transport et la distribution de tous les biens nécessaires à tous, tout en préservant la planète et surtout en réduisant le travail de chaque être humain. Couplés aux capacités de production déjà existantes, ils permettraient de réduire au minimum le travail productif tout en permettant à chaque être humain d’apporter sa contribution au fonctionnement de la société. La formule de Marx, « à chacun selon ses besoins, de chacun selon ses capacités », pourrait enfin devenir réalité.
Mais rien de tout cela n’est possible sans que les travailleurs, toutes catégories confondues, arrachent des mains de la grande bourgeoisie le contrôle sur l’ensemble des moyens de production.
14 janvier 2020
[1] Hubert Krivine, Prévoir sans comprendre, comprendre sans prévoir, Éditions Cassini, 2018.
[2] Bernard Stiegler, L’emploi est mort, vive le travail, Mille et une nuits, 2015.
[3] Carl Benedikt Frey & Michael A. Osborne, The future of employement : how susceptible are jobs to computerisation ? (L’avenir de l’emploi : comment les emplois sont susceptibles d’être informatisés ?), Oxford University Press, 2013.
[4] M. Arntz, T. Gregory, U. Zierahn, Les risques de l’automatisation pour l’emploi dans les pays de l’OCDE, OCDE, 2016.
[5] « Les cinq métiers les plus menacés par l’intelligence artificielle », Les Échos, 21 août 2018.