Auteur: Marius Bertolucci
Editeur: Editions Hermann – 2023 (232 pages)
Lu en mars 2024
Mon avis: Lors de la dernière opération Masse Critique « non fiction » de Babelio, j’avais choisi deux ou trois livres abordant des sujets très différents. L’algorithme de Babelio m’a attribué celui-ci, dont le titre m’avait interpellée. Jusque là j’étais consciente de ce que les facilités amenées par la technologie nous rendaient fainéants et modifiaient nos comportements, mais de là à dire qu’elles nous diminuaient…
Hasard ou pas, à quelques jours d’intervalle, j’apprends, au détour d’un bruit d’un des longs couloirs de l’administration qui m’emploie, que le management réfléchirait à l’implémentation d’une intelligence artificielle en vue « d’aider à la prise de décision ». Je me suis aussitôt empressée de remonter le couloir précité jusqu’à mon bureau et mon ordinateur. Après un bref farfouillage dans l’un et l’autre, je retrouve mon « descriptif de fonction » (le même depuis au moins les dix ans que je travaille pour ladite administration), et devinez quoi : ma tâche principale, comme celle de dizaines de collègues (tous au moins Bac+5 dans le domaine juridique), consiste à préparer, analyser, rechercher, proposer, rédiger, soutenir, conseiller, etc, mon supérieur, bref l’ « aider à la prise de décision ». Le bruit de couloir susmentionné n’ayant encore fait l’objet d’aucune communication « vers la base », j’ignore si mes collègues et moi-même allons être, et dans quel délai, remplacés par un logiciel.
Panique irrationnelle, pensée dystopique et catastrophiste ?
C’est là que Marius Bertolucci ne me rassure pas : « Les effets de ChatGPT sur le remplacement de l’emploi sont inédits. De fait, les cols blancs qui jusque-là n’avaient pas été directement menacés sont dans le collimateur. Plus particulièrement, les cols blancs de niveau intermédiaire comme les rédacteurs de textes juridiques, de communiqués, de résumés, de courriels, etc. » Et dans la mesure où « le travail offre l’une des dernières sources d’identité et de rôle social dans nos sociétés de production », les travailleurs ainsi « remplacés » devront affronter « les conséquences négatives, voire destructrices » de cette perte de sens, le bore-out par exemple.
Evidemment, l’utilisation de l’IA dans le monde du travail n’est pas neuve : elle trie les CV (et recrute en réalité des profils « stéréotypés et proches de ceux déjà existants dans l’entreprise »), elle surveille les travailleurs et les licencie s’ils ne sont pas assez productifs (les livreurs d’Amazon, par exemple), elle prétend même mesurer leur niveau de sourire (filiale chinoise de Canon) ou leurs ondes cérébrales (société Emotiv) pour « informer sur le bien-être, la sécurité et la productivité au travail ».
« Productivité », le mot est lâché et déborde largement le cadre professionnel. Il va de pair avec efficacité et rapidité. Le temps n’est plus que de l’argent. Dans cet univers impitoyable, l’Homme n’est même plus une ressource humaine*, mais un agrégat de données (data) monétisables, phagocytées par l’IA à l’oeuvre derrière les écrans auxquels il est devenu accro et auxquels il abdique toute capacité réflexive pour se contenter de comportements (achats, votes) prédits et produits à un niveau infra-conscient par les algorithmes. Les premiers à foncer dans ce mur cybernétique sont les jeunes nés à partir de 1995, qui n’ont pas connu le monde sans internet.
Pour Marius Bertolucci, l’humanité telle que nous la connaissons est en voie de disparition, plus précisément en voie de cybcogisation, un processus affectant la conscience et le cerveau humains qui aboutit à transformer l’Homme en un « être diminué en voie de machination mentale ». Tout bénéf pour le capitalisme algorithmique, puisque le cerveau cybcogisé ne se rebellera pas mais se comportera « selon les diktats des algorithmes ». Et à ce tarif, c’est toute la civilisation des Lumières qui passe par la case pertes-et-profits de l’IA : si « pour mener une vie bonne, l’Homme doit être capable de penser, de promettre, d’agir, de choisir et d’initier », alors grande est l’inquiétude éthique pour « l’Homme-objet-prédictible », dont la conscience réflexive rétrécit et l’enferme dans le présent, sans plus de capacité à se projeter dans le futur.
Toutes les avancées de l’IA ne sont pas forcément négatives, encore faudrait-il les encadrer strictement et réfléchir sérieusement à leurs conséquences à long terme. Ce qui n’est pas le cas actuellement.
Le tableau de ce futur algorithmique et déshumanisé que dépeint l’auteur est sombre, pour ne pas dire noir, et est porteur de peu d’espoir : « nous n’entrevoyons pas d’autres saluts que celui d’un retour à la fiction de l’humanisme ou la création d’une nouvelle fiction à même d’orienter le soi, les autres et le monde. L’obstacle principal d’un retour aux textes passés ou l’écriture de textes à venir est notre rapport à la langue. Les IA de production du langage anémient en nous la capacité langagière et sapent notre motivation à la lecture ».
Etat des lieux, mise en garde et plaidoyer pour la sauvegarde des fondements de notre humanité, « L’Homme diminué par l’IA » est un ouvrage dense, exigeant, très documenté, interpellant et très intéressant, même si je dois reconnaître que je n’ai pas les bases suffisantes en philo et en technologie pour en appréhender toutes les subtilités. Je n’ai sans doute pas tout compris et à ce titre, je ne me sens pas légitime pour en critiquer le contenu, et notamment pour juger de son degré d’alarmisme. Je me contente donc de rendre compte du propos tel que je l’ai perçu (voyez aussi les citations que j’ai recopiées), et de constater que le livre est convaincant par son argumentation, son raisonnement et les exemples qui l’illustrent.
Qui sait les « prodiges » que nous réserve le développement exponentiel de l’IA, mais ce qui est évident, c’est que, s’il se prive de sa capacité de penser, de réfléchir, de raisonner, d’écrire, de juger, de décider, en s’abandonnant à une technologie aux effets imprévus et imprévisibles, l’Humain se prive de sa liberté.
PS: Chronique générée par ma seule intelligence naturelle, garantie 100% artisanale et humaine (et donc faillible).
En partenariat avec les Editions Hermann via une opération Masse Critique de Babelio.
*j’ai toujours détesté ce vocable : comme si les travailleurs étaient comparables à du charbon, du pétrole ou d’autres ressources naturelles, exploitables jusqu’à épuisement des stocks. En ce qui me concerne, j’estime AVOIR des ressources, pas en ETRE une. Voilà, ça n’a rien à voir, mais j’avais envie de l’écrire haut et fort.
Présentation par l’éditeur:
L’intelligence artificielle derrière nos écrans est devenue omniprésente. Ses capacités progressent à un rythme exponentiel dans des domaines que l’on croyait autrefois réservés aux humains, comme l’art, le langage, les relations interpersonnelles ou la science. Les innombrables IA, telles que ChatGPT, DALL-E 2 ou Midjourney, qui sont accessibles au grand public, mettent en lumière les défis d’une cohabitation incessante avec des algorithmes. En sortons-nous indemnes ? L’homme, qui rêvait de se voir « augmenté » grâce à la technique et de s’affranchir des limites liées aux contraintes biologiques, découvre qu’il risque en réalité d’être assujetti à la condition de cybcog (cybernetic cognition), un être dépendant et piloté par l’IA. Les études sont unanimes : notre exposition constante aux IA diminue nos capacités à créer, à apprendre et à penser, altère nos liens sociaux et notre autonomie.
Cet essai, qui tient compte des innovations et des recherches les plus récentes, nous informe sur les potentialités extraordinaires comme sur les dangers de l’IA, et plaide pour un encadrement strict de ses usages.
Quelques citations:
– Parmi les nouveaux-nés post-2010, une bonne part est issue d’une rencontre orchestrée par un algorithme. Plus largement, ce sont les désirs individuels et collectifs (ou propension collective dans le vocabulaire de Stiegler) qui sont le produit d’un algorithme. […]
Le monde se dessine à partir de l’image d’un puzzle dont chaque pièce serait le fruit d’un algorithme: nos désirs sexuels (Tinder), nos lectures (Amazon), nos fictions (Netflix), nos actualités (Twitter), nos amis (Facebook), nos images (Instagram). Le monde est orchestré.
– [A propos de la capacité de ChatGPT à créer du texte:]
Pour certains, les inquiétudes ne sont que passagères et s’apaiseront le temps que nous nous habituions. C’est le cas du PDG d’OpenAI Sam Altman qui fait l’analogie avec les calculatrices: selon lui, nous nous sommes adaptés jusque dans les cours de mathématiques. D’aucuns ne trouveront rien à redire sur l’utilité et la présence des calculatrices dans les mains des élèves depuis la primaire jusqu’à l’université. Une différence de taille sépare pourtant la capacité de calcul et la capacité du langage dans sa relation à la pensée. Pour reprendre les mots de Wittgenstein, « les limites de mon langage signifient les limites de mon propre monde ». Nous ne disons pas que nos faibles capacités en mathématiques ne sont pas inquiétantes pour aborder le monde, mais nous affirmons que la diminution de nos capacités langagières signifie la diminution de notre humanité, de notre capacité à configurer des mondes possibles, et plus largement à faire société entre semblables au sein d’une société démocratique.
– Le cybcog [pour « cybernetic cognition »: être humain diminué par et dépendant de l’IA, par opposition au cyborg], comme nous l’avons nommé, ne se caractérise pas à partir d’un sujet stable découvrant le monde. Il est un espace de fluctuation évoluant au gré des corrélations algorithmiques qu’il reçoit par divers stimuli issus des dispositifs techniques qui l’entourent. Comme une batterie de smartphone qui se recharge par induction, par contact et sans fil, la cognition d’un cybcog se recharge par contact avec l’écran grâce à l’algorithmisation. En touchant l’écran, nos cerveaux reçoivent leur dopamine comme les pigeons de Skinner recevaient leur récompense.
La technique algorithmique provoque un déplacement du centre de gravité de la philosophie occidentale. Nous assistons à la fin de la parenthèse ouverte avec Descartes sur la centralité du sujet qui culmine avec la phénoménologie. Que devient l’Homme aujourd’hui à l’heure du capitalisme de cybcogisation, après être devenu une ressource humaine (dans les organisations) puis un facteur humain (dans un système)? Le poids ontologique dont jouissait l’Homme après la mort de Dieu s’amenuise avec l’avènement de l’IA. La reconfiguration de ses pensées et de ses comportements grâce à la captation de données massives ouvre une nouvelle voie. […] A l’heure des machines dotées d’une IA avancée, ces questions se posent en de nouveaux termes. Les analyses varient entre le remplacement des individus et une forme exacerbée de prolétarisation, celle-ci étant rendue possible par la dépossession de compétences cognitives des personnes, jusqu’à présent impossible, en vue d’un transfert dans l’IA. Un nouveau chapitre s’ouvre dans l’histoire des sociétés humaines.
– …Kant distingue sans ambigüité le prix qu’on attribue aux diverses choses et la dignité qu’on attribue exclusivement à l’Homme. Il convient d’attribuer un prix marchand aux choses échangées […]. Quant à l’Homme, il détient une valeur absolue, intrinsèque, inaliénable et sans équivalent: la dignité. […] Bien entendu, le salariat a institué l’échange d’un prix contre des activités humaines. Kant en a conscience, puisqu’il indique précisément que la dignité s’effectue dans le champ des qualités morales. Penser moralement et agir moralement sont les constituants de la dignité. En cela, autrui ne doit jamais être tenu comme un simple moyen, même dans le cas d’un salarié. […] S’il est possible d’attribuer un prix à un Homme comme dans le cas de l’esclavage, du point de vue moral c’est inacceptable et ce, peu importe la somme versée et peu importe la volonté de celui qui accepterait de se vendre lui-même. Pourtant, force est de constater que le capitalisme de cybcogisation nous considère uniquement à l’aune de ce que nous lui rapportons. La considération d’autrui comme une chose et la privation de son autonomie de jugement par l’insertion d’une volonté qui lui est extérieure sont autant de refus de traiter autrui comme un être raisonnable, capable d’autonomie et de moralité. In fine, la dignité d’une personne n’est pas considérée quand des acteurs économiques provoquent l’addiction par le truchement des algorithmes de recommandation qui rendent l’Homme monétisable.
– [A propos de l’IA dans le secteur public:]
La question des données se pose immédiatement en termes d’acquisition, de stockage et de qualité. Des données de mauvaise qualité peuvent engendrer des analyses erronées, biaisées ou discriminatoires. La sécurité du stockage est cruciale pour garantir la vie privée des citoyens et le respect de leurs droits. […] L’anonymat demeure une promesse vaine. Des chercheurs ont montré qu’avec 16 attributs démographiques, il est possible d’identifier n’importe qui, partout dans le monde. Les data brokers possèdent donc la capacité d’identifier tout individu. L’un des défis majeurs réside dans la dimension organisationnelle, puisque l’IA bouleverse, de manière disruptive, la culture bureaucratique et administrative. Le déploiement à grande échelle se heurte à divers obstacles, tels que le partage des données entre administrations et les confrontations de logiques institutionnelles, limitant la collaboration. Il incombe aux décideurs et aux gestionnaires de maintenir une veille constante pour suivre les avancées techniques et les retours du terrain.
En ce sens, les compétences techniques requises pour maîtriser l’IA aux niveaux stratégique et opérationnel seront cruciales alors même que le secteur public fait face à une pénurie d’experts en IA et à un déficit d’attractivité pour les recruter. Les enjeux juridiques se dessinent, notamment en ce qui concerne l’impossibilité de justifier les interprétations effectuées par les réseaux de neurones. L’IA présente ainsi un défi pour la transparence due aux citoyens. Plus généralement, les questions d’éthique et de légitimité se posent, en particulier lorsque les décisions affectent directement les individus.
– …si un avion russe largue des tracts en France lors d’une élection pour en modifier le cours, il risquerait fort d’être abattu par les forces armées. Pourtant, une action similaire, mais à l’efficacité renforcée, se déroule dans le cyberespace sans provoquer de réaction.
– Le mode d’apprentissage des IA s’appuie sur l’exploitation du passé dataïfié et régurgité dans les prédictions. De la sorte, désormais, le poids du passé limite les forces créatives et innovantes du développement social. Ce fait s’illustre particulièrement dans le cas de la police prédictive qui a été très tôt utilisée, à partir de la décennie 2010, avec des résultats catastrophiques. Par des effets de boucles auto-réalisatrices, le passé se répète et devient réel. Par exemple, l’IA de la police identifie des zones criminogènes qui sont alors plus surveillées et où mécaniquement plus de délits sont identifiés. L’IA, les Hommes et les Organisations se voient confirmés dans leur croyance d’un tel pouvoir prédictif. Il n’en est que plus difficile pour la société civile de résister à l’effet de bluff technologique. La fascination est de l’ordre du magique quand une prédiction se réalise sous les yeux même si son origine technique est connue. Le seul moyen de résister ne peut être trouvé que du côté d’un fort esprit critique et d’une forte culture mathématique. Malheureusement, ces deux ressources se font rares dans nos esprits, alors même que la machine se renforce et prend l’Homme pour objet de toutes ses intentions, et ne vise qu’à nous modifier et à nous simplifier.
– Une nouvelle humanité se prépare. Nos affinités ne sont plus les nôtres puisqu’elles sont sélectionnées pour nous par des processus automatisés de quelques acteurs économiques aux pouvoirs démesurés sans que les législateurs interviennent. La Technique gouverne tandis que le Politique regarde ailleurs. L’automatisation de notre cognition sous le joug des algorithmes prédictifs qui monétisent nos pensées transforme la société à tous les niveaux, depuis la neurochimie de nos cerveaux jusqu’à nos rapports sociaux. […] Le poids des données massives referme la porte du temple de la liberté politique et économique. La technologie ne façonne pas seulement le monde matériel qui nous entoure, elle refaçonne notre intériorité psychique. La gouvernementalité algorithmique se déroule en plusieurs phases: extraction de données, analyse prédictive, et action sur les comportements. L’extraction est une transmutation du monde humain (symbolisé) sous la forme de données décontextualisées (hors-monde) qui sont ensuite injectées dans les calculateurs. […] Ce hors-monde envahit le monde symbolisé par l’imposition de ses diktats, participant à le désymboliser et donc le déshumaniser.
Bonjour,
Quelle recension ! Je n’ai rien à ajouter si ce n’est que la lecture est sans doute notre seul salut. Bravo Madame pour cet impressionnant travail que vous accomplissez.
Marius Bertolucci
Merci pour votre message! Cela me touche sincèrement, et m’encourage à continuer 🙂