Prolétarisation numérique et IA : comment en sortir


La prolétarisation, nous expliquait le regretté Bernard Stiegler, c’est quand par facilité, on finit par ne plus rien comprendre au numérique, qui rythme pourtant nos journées. Si le philosophe se plaignait déjà du Web à ce sujet, L’IA générative nous fait progresser d’un énorme cran vers ce stade. Dans un monde où les données nous entourent sans que nous les voyions, Laura Sibony propose avec FantasIA (Éditions Grasset) une approche originale : raconter l’histoire de l’intelligence artificielle à travers une mosaïque d’anecdotes littéraires érudites et démonstratives. Du turc mécanique à la naissance du mot « robot », son livre nous invite à regarder différemment ces technologies qui façonnent notre quotidien. J’ai invité Laura à nous parler de son ouvrage, voici le compte-rendu de notre discussion.

Comment sortir de la prolétarisation numérique par l’IA

Prolétarisation numérique par l'IA
La prolétarisation numérique par l’IA – dessin réalisé avec Midjourney

L’autrice établit un parallèle très parlant d’une part entre les oméga-3 et les bifidus que l’industrie agroalimentaire nous vante, et d’autre part les réseaux de neurones de l’IA. Dans les deux cas, nous savons qu’ils existent, nous en percevons les effets, mais ne pouvons ni les voir ni les toucher. Cette invisibilité n’est pas anodine. Elle participe d’une forme de dépossession qui nous amène à une « prolétarisation numérique« .

À la manière du bifidus, nous utilisons les mots du numérique quotidiennement, sans jamais chercher à les comprendre, m’a expliqué Laura. Il est temps que cela change. FantasIA est là pour nous y aider.

Nous allons vers une prolétarisation du monde dans le sens où nous produisons une valeur pour d’autres. Ces données, c’est notre visage, c’est notre voix, ce sont nos préférences, notre réseau d’amis, ce sont nos opinions politiques. Ces informations que nous voyons, que nous « likons », sont celles qui permettent de cibler la publicité. La valeur individuelle de ces données est faible, collectivement, elle est gigantesque.

Prolétarisation numérique : quand nous produisons sans posséder

Le concept de prolétarisation appliqué au numérique mérite qu’on s’y arrête.

L’exemple de Meta est éloquent. « Son chiffre d’affaires annuel équivaut au PIB du Maroc [NDLR ou plus précisément $ 164Mds pour Meta contre $ 144Mds pour le PIB du Maroc], et 98 % de ses revenus proviennent de la publicité ciblée » – c’est-à-dire de l’exploitation de nos données personnelles. C’est nous qui produisons cette valeur par nos actions quotidiennes : nos photos, nos likes, nos recherches, notre géolocalisation. Mais nous ne possédons pas l’outil de production. C’est exactement la définition du prolétaire selon Marx.

 Il faut entendre par prolétaire le salarié qui produit le capital et le fait fructifier, et que M. Capital … jette sur le pavé dès qu’il n’en a plus besoin
Karl Marx, Le Capital, 1867, Garnier-Flammarion, 1969, p. 675 (in Wikipedia)

prolétarisation numérique
Prolétaires de tous les pays du Web, unissez-vous ! Vous êtes en voie de démission face à cette fabrique de pensées artificielles. Image réalisée avec Midjourney qui ne semble pas bien connaître Karl Marx

Cette aliénation aux « géants de la donnée » crée une dépendance inquiétante. Laura Sibony, dans sa rencontre fortuite avec José Bové au Salon du livre, s’est rendu compte qu’ils partageaient le même combat. « lui dénonce la concentration des semences entre les mains de quelques multinationales, je pointe la concentration des données. Dans les deux cas, nous dépendons de cinq ou six entreprises mondiales qui détiennent les clés de secteurs stratégiques ».

Prolétarisation numérique : l’IA en substitut de la pensée

Au-delà de cette dépossession économique existe une forme plus subtile de prolétarisation : celle de la connaissance. Nous utilisons des outils sans les comprendre, exactement comme la plupart des gens utilisent un ordinateur sans connaître son fonctionnement. Cette méconnaissance s’étend aux experts autoproclamés qui multiplient les contenus sur LinkedIn sans réellement maîtriser leur sujet.

L’analogie avec les « filler words » est particulièrement éclairante. Laura Sibony raconte comment, en tant que formatrice en prise de parole publique, elle observait la multiplication des « du coup » dans les discours étudiants. Ces mots de remplissage ne marquaient plus la conséquence. Ils servaient simplement à gagner du temps, à éviter l’effort de formuler sa pensée.

J’ai demandé à Midjourney de nous dessiner le Cheese Master Challenge. En sous-traitant mes capacités de dessinateur à l’IA, suis-je devenu une victime de la prolétarisation numérique ? Cela est bien probable.

ChatGPT et les outils d’IA générative jouent aujourd’hui ce rôle de « filler words de la pensée. Ils facilitent une paresse intellectuelle naturelle, mais jamais autant encouragée« .

Au lieu de faire face à la page blanche et à l’effort créatif qu’elle suppose, nous démarrons avec une production automatique que nous affinons ensuite. Le processus créatif s’en trouve fondamentalement modifié.

L’art de poser les bonnes questions

Cette transformation n’est pas nécessairement dramatique, mais elle appelle à la vigilance. Laura Sibony cite le Ménon de Platon et son paradoxe de la connaissance. Comment peut-on découvrir ce qu’on ne connaît pas déjà ? La réponse platonicienne mise sur la démarche de recherche, sur l’art du questionnement. Ce que Socrate appelait la maïeutique, l’art d’accoucher les idées.

Or, l’IA générative révèle notre tendance à privilégier la quantité de réponses au détriment de la qualité des questions. Nous demandons à ChatGPT « qu’est-ce que tu en penses ? » au lieu de formuler précisément notre demande d’analyse. Nous disons « améliore ce texte » sans spécifier nos attentes, ajoute Laura Sibony.

Comment chercher ce que l’on ne connaît pas ?
(Platon, Ménon, 80d)

La maïeutique, c’est l’art d’accoucher les esprits.
Platon, Théétète, 150b

Cette paresse du questionnement a des conséquences profondes. Une anecdote souvent racontée à propos de Michel-Ange nous éclaire à ce sujet : « on dit que le sculpteur voyait la statue dans le bloc de marbre et la révélait par soustraction. Aujourd’hui, nous partons d’une statue déjà formée que nous modifions par ajouts successifs. Notre rapport à la création s’inverse« , poursuit Laura.

Le piège du « Cheese Master » : la solution en quête de problème

Laura Sibony illustre parfaitement les dérives de l’innovation technologique avec l’exemple du « Google Cheese Master », un canular du 1er avril 2017. Cette fausse innovation, dont la vidéo a été malheureusement retirée, promettait de distinguer un coulommiers d’un camembert grâce à un nez électronique et un système de reconnaissance tactile. « En 2017, cela faisait rire », explique Laura, « aujourd’hui, de tels outils existent réellement ».

Dans la pièce de G.B. Shaw, Eliza, la « créature » du linguiste Higgins qu’il a sorti, par jeu, de sa condition de Cockney (milieu populaire londonien) pour en faire une femme du monde, se rebelle et prend son indépendance. En créant ces programmes bavards qui finissent par parler mieux que beaucoup d’entre nous, les inventeurs des LLMs ne sont-ils pas les Pygamlions du 21e siècle ? — carte postale promotionnelle pour la pièce de George Bernard Shaw, 1914

Cette évolution révèle un travers inquiétant : nous développons des solutions sans identifier les problèmes qu’elles sont censées résoudre. En formation, Laura Sibony constate que les entreprises s’intéressent à l’IA non pas parce qu’elles ont identifié un besoin spécifique, mais parce qu’elles craignent de prendre du retard sur leurs concurrents.

« Don’t Cheese Master it » devient un principe de prudence que je répète souvent : ne pas faire de l’IA pour faire de l’IA, “mais l’utiliser quand elle apporte une vraie valeur ajoutée », ajoute Laura.

Une anecdote illustre cela parfaitement. À l’issue d’une formation, quelqu’un a « embrassé les mains » de Laura Sibony après avoir découvert qu’on pouvait générer des plannings avec ChatGPT. Voilà le bon usage : éliminer une tâche répétitive sans valeur ajoutée pour libérer du temps pour l’essentiel. C’est l’approche que nous avons décrite dans un billet par « aux IA les corvées, aux humains les pensées !« 

Les trois piliers d’une donnée exploitable

L’exemple du Cheese Master permet aussi de comprendre les enjeux du machine learning.

Laura Sibony, autrice de FantasIA

La première étape – capter les données pertinentes – révèle que quantité ne rime pas avec qualité. Laura Sibony raconte l’histoire savoureuse de cette entreprise de semences qui surveillait les nuisibles avec des drones équipés de caméras. Résultat : plus de nuisibles détectés, non pas grâce aux semences, mais parce que le bruit des drones les faisait fuir !

La préparation des données, deuxième étape cruciale, nécessite un travail humain considérable et une conscience aiguë des biais. L’exemple des 400 000 portraits historiques analysés chez Google Arts & Culture est révélateur : cette base contenait un énorme biais racial et social, le portrait étant, aux temps anciens, une preuve de richesse et de statut.

Pour identifier ces angles morts, des équipes aux compétences complémentaires sont essentielles.

Une base de données exploitable doit être cohérente avec l’objectif, complète et sans zone d’ombre et exempte de valeurs absurdes, souvent liées aux conditions de capture des données. Ces critères, évidents en théorie, exigent un travail méticuleux sur le terrain.

Le paradoxe de Moravec et les limites de la simulation

Laura Sibony rappelle opportunément le paradoxe de Moravec 1988 : « il est plus facile pour un ordinateur de simuler un test d’intelligence et de jouer aux dames, que de reproduire les gestes d’un enfant d’un an qui descend les poubelles ». Les facultés cognitives se modélisent mieux que les facultés sensorielles.

Les tâches cognitives complexes (comme les tests d’intelligence ou les jeux de stratégie) sont paradoxalement plus faciles à modéliser pour les machines que les compétences sensori-motrices basiques (comme la coordination d’un jeune enfant).
Hans Moravec, Mind Children: The Future of Robot and Human Intelligence

Cette distinction éclaire les limites actuelles de l’IA. « Une machine peut être dotée d’une mémoire gigantesque, mais les souvenirs – ces liens particuliers avec le réel que Proust décrivait avec sa madeleine – restent liés aux cinq sens, à des expériences incarnées que l’IA peut simuler, mais non ressentir« .

Cette faculté de simulation reste néanmoins impressionnante, particulièrement pour les émotions que les LLMs reproduisent avec un réalisme troublant. Mais comme le souligne Laura Sibony : « Le langage simule la pensée, mais ne la recouvre pas forcément entièrement. »

Un essai littéraire pour parler du présent

Le choix éditorial de publier FantasIA chez Grasset, éditeur littéraire plutôt que technique, n’est pas anodin. Laura Sibony assume cette approche : « C’est le rôle de la littérature de parler du réel et du présent. » Cette démarche narrative permet d’aborder des sujets complexes sans jargon technique, tout en conservant la profondeur de l’analyse.

Vers une réappropriation consciente

FantasIA ne prône pas un retour impossible à l’âge prénumérique.

Laura Sibony ne suggère pas de refaire tout soi-même du début à la fin ce qui prendrait des mois et finirait par coûter très cher, mais de prendre conscience de toute la chaîne de production pour ne pas croire à la magie.

Cette prise de conscience constitue le premier pas vers une réappropriation de notre rapport au numérique. Comprendre les mécanismes de la prolétarisation des données, développer notre capacité de questionnement, exiger la transparence sur les biais des algorithmes : autant de leviers pour sortir de la passivité.

L’enjeu n’est pas de rejeter l’IA mais de la maîtriser, individuellement et collectivement. Cela passe par l’éducation, la régulation, mais aussi par cette vigilance intellectuelle que Laura Sibony appelle de ses vœux. Car derrière chaque « magie » technologique se cache une réalité industrielle, économique et politique qu’il nous appartient de déchiffrer.

FantasIA nous offre les clés de ce déchiffrage. À nous de nous en saisir.

acheter le livre



Source link