La politisation de l’IA est inévitable – FredCavazza.net


Plus les usages de l’IA générative s’intensifient et plus nous comprenons que son impact va bien au-delà des précédentes innovations technologiques, car cela amène maintenant des questions politiques et sociétales. Était-ce prévisible ? Peut-être. Est-ce inévitable ? Certainement. Saura-t-on y répondre ? Pas pour le moment. Autant de questionnements qui me font dire que nous sommes sur un rythme d’évolution et de déploiement trop rapide. Ou du moins trop rapide pour que ça se passe bien.


En synthèse :

  • Les chatbots sont les nouveaux intermédiaires entre les utilisateurs et les innombrables contenus et services disponibles en ligne
  • Le fait que les chatbots fournissent des réponses et non des résultats implique nécessairement des choix qui reposent sur des règles d’alignement, cet alignement relève de la responsabilité des éditeurs des chatbots et assistants numériques
  • Un alignement neutre semble impossible, car la neutralité est subjective et varie d’un pays à l’autre en fonction de carcans socio-politico-culturels
  • L’AI Act européen va forcer les éditeurs à plus de transparence et potentiellement éviter des biais ou déconvenues
  • Seule une compréhension fine de la nature des IA et du fonctionnement des modèles génératifs permettra aux utilisateurs de bien appréhender leur potentiel et leurs limites

Nous avons eu droit la semaine dernière à deux très belles illustrations concrètes de la politisation des IA avec le fiasco du lancement de la fonction de génération d’images de Gemini : dans la mesure où Google est une société cotée en bourse, ils ne peuvent pas se permettre de proposer des services dont il serait possible de détourner les usages (ça donne une mauvaise impression aux actionnaires). Voilà pourquoi un gros travail d’alignement a été mené en amont sur le modèle génératif pour que les images générées ne soient pas biaisées et qu’elles puissent refléter une volonté d’inclusion. Le problème est qu’ils ont poussé le curseur un peu trop loin en forçant la diversité. Il en a résulté des images grotesques de soldats allemands avec différentes couleurs de peau. Un travers aussitôt moqué et dénoncé qui a forcé les équipes à mettre cette fonctionnalité hors ligne : Google Pauses AI-Made Images of People After Race Inaccuracies.

Les fans d’histoire se sont offusqués de constater des erreurs grossières comme l’utilisation de casques de l’armée belge ou d’uniformes de la Hongrie pour représenter des soldats allemands. D’autres ont dénoncé une volonté de réécrire l’histoire en « enrôlant de force » des soldats féminins et d’ethnies variées dans l’armée allemande. Dans tous les cas de figure, ceci illustre bien les limites de l’alignement des modèles sur un courant culturel / politique qui ne plait pas à tout le monde : Google Gemini’s ‘wokeness’ sparks debate over AI censorship.

Et comme si ça ne suffisait pas, des petits malins ont voulu tester la capacité de Gemini de donner son avis sur le Premier ministre de l’Inde avec des résultats croustillants : India confronts Google over Gemini AI tool’s ‘fascist Modi’ responses.

Au cas où vous poseriez la question : non, Gemini n’a pas d’opinion politique, c’est un assistant numérique qui sert d’interface à un modèle de langage qui a été entrainé avec des articles où la politique menée par Narendra Modi est jugée comme très autoritaire et s’apparentant à ce que l’on pourrait qualifier de régime fasciste. Ceux qui sont à blâmer ne sont pas les ingénieurs de Google, mais les auteurs des articles en question. Une subtilité qui a visiblement échappé à l’opinion publique, ce qui a forcé le CEO de Google à s’excuser : ‘Sorry, we are unreliable’: Google apologised to government on Gemini’s results on PM Modi.

Précisons également que ce problème d’alignement n’est pas spécifique à Google, car des ingénieurs de Microsoft dénoncent également des ratés : Microsoft engineer warns company’s AI tool creates violent, sexual images, ignores copyrights.

Tout ça pour dire que les assistants numériques sont un piège politique que personne n’a vu venir, car les éditeurs et les équipes qui conçoivent les modèles sont persuadés d’être dans le camp du bien. Sauf que tout le monde n’est pas culturellement ou politiquement aligné avec les ingénieurs de la Silicon Valley où la tendance sociale / libérale / mondialiste domine.

Les chatbots sont notre fenêtre sur le monde extérieur

Pour la très grande majorité des utilisateurs d’internet, l’accès aux contenus, services et offres en ligne se fait à travers un navigateur ou une application mobile. Dans les deux cas, l’utilisation qui est faite de ces logiciels est de la responsabilité des utilisateurs : personne ne va accuser Google de racisme ou de communisme, car son navigateur sert à aller consulter des sites proposant des contenus racistes ou communistes.

Ainsi, les navigateurs et applications mobiles sont des moyens d’accès neutres à l’ensemble des ressources disponibles en ligne : informations (via les résultats de recherche), actualités (via les flux), contenus (via les nouveautés), produits (via les sélections personnalisées), publications (selon vos centres d’intérêt), conversations (avec vos amis et proches).

Les choses sont différentes avec les chatbots et assistants numériques qui sont les seuls intermédiaires entre les utilisateurs et les fournisseurs de contenus / services / offres en ne fournissant que des synthèses de résultats ou des réponses. Selon ce schéma d’interactions, les questions sont interprétées et les réponses sont uniques, il n’y a plus de choix ou de place pour le libre arbitre.

Ainsi, les chatbots agissent comme des filtres entre les utilisateurs et le reste du monde, que ce soit pour de la recherche d’information, de l’inspiration ou pour prendre des nouvelles d’une personne (l’assistant fournit un résumé des précédentes conversations et une suggestion de message). Il y a donc une grosse responsabilité qui pèse sur l’éditeur du modèle, car c’est lui qui fournit les réponses, peu importe que les questions soient mal posées ou les besoins mal formulés : AI Chat Is Not (Always) the Answer.

Imaginez la responsabilité que ça représente pour les éditeurs de chatbots qui sont utilisés à la fois par les adultes qui souffrent de solitude ou par les ados en recherche de conseils sur leur orientation : ‘He checks in on me more than my friends and family’: can AI therapists do better than the real thing? et Gen Z are turning to ChatGPT for career advice.

Ceci nous amène à nous questionner sur la neutralité des chatbots et sur la nature même de la neutralité.

Les chatbots devraient être neutres, mais la neutralité est une posture politique

Comme nous venons de le voir, les IA génératives reposent sur des modalités d’interaction qui les exposent à la critique (elles fournissent des réponses et non des résultats). Face à ce constat, notre premier réflexe serait de dire qu’il faut une autorité de régulation pour encadrer les usages (les réponses) et distinguer les assistants numériques selon leur alignement.

Mais pour pouvoir faire ça, il faut dans un premier temps avoir un droit de regard sur les modèles en eux-mêmes, donc sur les contenus ayant servi à leur entrainement, ce qui n’est pas gagné : L’embarrassante question de l’origine des données d’entrainement des IA génératives. D’autre part, nous n’avons quasiment aucune emprise sur les modèles propriétaires, si ce n’est avec du paramétrage de surface (ex : custom GPTs).

Pour bien vous faire comprendre toute la difficulté rencontrée par les éditeurs, je vous propose une analogie simple à comprendre : définir un alignement neutre d’un point de vue politique ou sociétal est aussi complexe que de définir quel est le meilleur album de tous les temps. La façon la moins risquée pour y parvenir est l’approche statistique : faire une moyenne. Selon cette approche, le consensus du meilleur album de tous les temps nous oriente vers Sergent Pepper des Beatles ou Thriller de Michael Jackson, mais est-ce que ces albums sont réellement les préférés de tous les utilisateurs ? Tout est question de goût, car il n’y a pas de bons ou mauvais albums, uniquement des préférences et des sensibilités qui sont spécifiques à chaque individu. Personnellement, je considère que le meilleur album de tous les temps est Clandestine d’Entombed, même si j’aime bien Thriller

Cette histoire de neutralité politique résonne avec la demande récente du Conseil d’État de mieux contrôler et d’équilibrer les opinions émises sur les chaînes d’information. Contrôler sur quelle base ? Un contrôle efficace ne peut se faire que si l’on est capable d’évaluer la sensibilité politique des journalistes et éditorialistes qui interviennent à l’antenne, mais ça veut dire qu’il faut au préalable définir un barème avec des critères et des pondérations. Dans la pratique, c’est tout simplement impossible, car les opinions sont parfois mesurées, sans compter le fait qu’un journaliste peut changer d’opinion en cours de route et que la « neutralité politique » est elle-même une couleur du spectre politique (les partis centristes).

Tout ça pour dire que si les ingénieurs de Google se sont cassé les dents sur l’alignement de Gemini, c’est que la tâche est délicate, très délicate dans la mesure où il n’existe pas de bon ou mauvais alignement socio-politico-culturel, uniquement une infinité de points de vue (un par citoyen).

Tout ceci nous amène à reconsidérer l’intérêt des assistants personnels numériques sous un autre angle.

Des assistants numériques qui s’adaptent à nos goûts et opinions

En juin 2012, Google présentait une nouvelle fonctionnalité intégrée à Android : un assistant numérique personnel baptisé Google Now capable de tourner en arrière plan pour analyser les données personnelles des utilisateurs et proposer des informations ou suggérer des actions contextualisées. La promesse était très forte, trop forte certainement, car cette fonctionnalité a été abandonnée en 2018. Le concept d’assistant numérique a néanmoins été réutilisé plus tard avec l’assistant vocal Google Assistant, lui aussi en cours d’abandon au profit de Gemini.

Force est de constater que les équipes de Google se donnent beaucoup de mal pour mettre au point un assistant numérique à la fois performant (utile) et viable (qui ne pose pas de problème). Un chantier titanesque sur lequel se heurtent également les équipes d’Apple et de Meta. Un chantier néanmoins nécessaire, car les assistants numériques sont l’évolution logique des chatbots et permettent potentiellement d’apporter une réponse à la question de l’alignement.

Si l’on reprend le fil des explications précédentes, le scénario le plus probable pour pouvoir fournir des réponses et synthèses qui ne soient pas neutres, mais adaptées aux sensibilités de chacun, serait que les assistants numériques personnels s’alignent sur le profil des utilisateurs et selon leur appréciation des réponses. Une sorte de mécanique de renforcement par feed back, mais à l’échelle individuelle.

Être en mesure de fournir un assistant personnalisé aux goûts, opinions et sensibilités de chaque utilisateur demande des moyens considérables et une architecture technique gigantesque. Cette possibilité est donc pour le moment uniquement envisageable avec les géants numériques qui disposent de beaucoup de moyens et surtout de profils complets (ex : Google, Apple, Microsoft, Meta, Amazon).

La viabilité économique de ces assistants numériques personnels pourrait être assurée par un abonnement payant, mais nous en sommes encore loin, car il y a une culture persistante de la gratuité sur le web. Éventuellement, c’est un principe que nous pourrions envisager avec des utilisateurs professionnels, auquel cas les assistants numériques seraient en partie alignés selon la culture et les priorités de l’entreprise, et en partie selon la fonction, les responsabilités et les objectifs des salariés. Autant de paramètres à prendre en compte qui ne sont pas formalisés, sauf dans le cas bien précis d’environnements numériques de travail intégrés (ex : Viva de Microsoft), mais ça limite le nombre d’acteurs potentiels.

Vous conviendrez que si l’intention est bonne, ça présente un réel défi informatique et un sacré casse tête socio-culturel…

Qui contrôle les contrôleurs politiques de l’IA ?

Comme nous venons de la voir plus haut, la question de la neutralité de l’alignement des chatbots et des IA génératives est très complexe. Et elle le devient encore plus lorsque l’on cherche à trouver des solutions.

S’il est ainsi possible de laisser la main aux utilisateurs sur certaines fonctionnalités comme la consultation et l’effacement des données personnelles dans le cadre du RGPD, cela semble difficilement réplicable avec les gigantesques bases de connaissances des modèles. Il n’est ainsi pas très compliqué d’afficher la liste des préférences publicitaires d’un utilisateur (c’est ce que font Google ou Meta en piochant dans les profils pulicitaires des utilisateurs), mais à quoi devrait ressembler la liste des paramètres qui définissent l’alignement d’un modèle, qu’il soit générique ou individuel ? Pour le moment, tout ce que nous avons sont des représentations visuelles simplifiées des bases de connaissances des modèles de langage, comme celle-ci :

Vous admettrez aisément que ce n’est pas un mode de représentation facile à appréhender. Et quand bien même nous parviendrions à trouver une représentation logique et facile à interpréter, comment les utilisateurs pourraient-ils modifier l’alignement de leur assistant personnel ? Et surtout comment faire pour protéger les modèles ou les versions personnelles des assistants ?

Cette dernière question n’est pas anodine, car des chercheurs ont réussi à mettre au point des virus capables d’infecter des corpus documentaires avec des contenus illicites pour modifier les connaissances d’un modèle de langage et donc son fonctionnement : Researchers create AI worms that can spread from one system to another. Nous avons ici à faire à une toute nouvelle catégorie de cyber-criminalité. Va-t-il falloir développer des antivirus pour les IA génératives ? Qui va le faire ? Qui va payer ? Qui va imposer leur utilisation ? Qui va surveiller et auditer les contenus et modèles ?

En poussant la réflexion plus loin, on se rend compte que l’altération peut survenir à différents endroits de l’infrastructure informatique : sur les contenus collectés (les sources), sur les corpus d’entrainement (les sources triées et raffinées), sur les modèles de fondation (la base de connaissance), sur les modèles spécialisés (les poids), sur les chatbots (les préférences des utilisatuers), sur les agents intelligents (les profils des utilisateurs)… C’est potentiellement toute la chaine qu’il faut surveiller et contrôler à la recherche de vulnérabilité. Et là encore, qui va valider la mise sur le marché de nouveaux assistants numériques ? Sur quels critères ? Doit-il y avoir des règles différentes d’un pays à l’autre ? Devra-t-on appliquer des règles différentes pour les touristes étrangers en France ?

Il y a quelques semaines, les équipes de Thierry Breton se félicitaient de la finalisation d’une première version de la régulation européenne des intelligences artificielles, l’AI Act. Malgré cette première étape importante, j’ai la conviction que le chemin restant est encore très long…

La liste de questions sans réponse est donc très longue, et le pire dans tout ça, c’est que nous ne parlons que du facteur humain. Car figurez-vous que les modèles les plus récents sont maintenant capables de détecter les tests auxquels ils sont soumis : Anthropic’s Claude 3 knew when researchers were testing it. Va-t-on se lancer dans un jeu du chat et de la souris ? Qui va faire le chat et qui va faire la souris ? Encore des questions sans réponse…

Nous ne sommes pas prêts

Quand on constate les difficultés rencontrées par les grands pays pour encadrer les usages des médias sociaux, surtout à l’approche des élections, on se dit que l’encadrement des IA, chatbots et assistants numériques va être encore plus longue et compliquée. D’autant plus qu’aux difficultés techniques et fonctionnelles s’ajoutent les complications d’ordre politique, car ce dont il est question est bien de gouverner pour autrui (définir ce qui est considéré comme la bonne réponse) et d’exercer un pouvoir (masquer certaines réponses).

Si l’on s’en tient à la définition de la politique, fournie par Le Chat de Mistral :

« La politique est une activité qui consiste à gouverner ou à diriger une communauté, une organisation ou un pays. La politique est un moyen pour les gens de travailler ensemble pour prendre des décisions et résoudre des problèmes collectifs. Elle peut être complexe et parfois controversée, mais elle est essentielle au fonctionnement de toute société. »

Le problème d’alignement des modèles génératifs est-il collectif ou individuel ? S’il touche potentiellement tous les utilisateurs, les réponses générées par les IA ne peuvent être considérées comme valide que sur le plan individuel : si elles correspondent au carcan socio-politico-culturel de l’utilisateur, alors elles seront considérées comme valides, sinon ça sera de la faute de l’éditeur du modèle ou de l’opérateur du service…

Tout ceci me fait dire que nous ne sommes pas prêts, que la société n’est pas encore prête pour une généralisation des assistants numériques. Le principe de précaution s’applique nécessairement, c’est d’ailleurs la posture affichée par les grandes institutions comme l’UNESCO, le Forum Économique Mondial ou le G7. Un principe de précaution très certainement issu du retour d’expérience de la montée en puissance très rapide des médias sociaux qui ont complètement bouleversé le paysage médiatique et favoriser la prolifération de contenus haineux et vérités alternatives tout en accentuant la portée du harcèlement. On nous met très clairement en garde contre ce qui pourrait s’apparenter à jeter de l’huile sur le feu (alimenter des débats polarisés avec des contenus synthétiques).

Mais une fois que l’on a dit ça, qu’est-ce qu’on fait : on interdit ? Tout le monde s’est moqué de l’Italie qui avait interdit l’accès à ChatGPT à la fin de l’année 2022. Rétrospectivement, peut-être était-ce la mesure la plus prudente, car nous appréhendons un peu mieux la fragilité d’un éditeur comme OpenAI qui jusqu’à preuve du contraire reste une petite startup de Californie malgré sa valorisation démesurée (OpenAI Completes Deal That Values the Company at $80 Billion), avec une histoire tumultueuse et de fortes dissonances internes : Elon Musk sues OpenAI and Sam Altman over ‘betrayal’ of nonprofit AI mission.

En synthèse : nous ne savons pas où tout ceci va nous mener. Ceux qui prétendent savoir sont des charlatans et des irresponsables.

Y a-t-il un pilote dans l’avion ? Si oui, qui a délivré et contrôlé son brevet ?

Pour conclure cette réflexion, je dirai qu’au final, la responsabilité revient à chacun des utilisateurs. Le problème est que l’IA est un sujet complexe et que les usages autour des modèles génératifs le sont encore plus. Idéalement, il faudrait former les utilisateurs à ce qu’est l’intelligence artificielle, ce que l’on peut faire ou ne pas faire avec, les points forts et points faibles, la façon de s’en servir (notamment les prompts)… Mais qui décide si une formation est valide ou non ? Et qui la finance ? Encore pus de questions…

Cette réflexion me laisse à penser que nous sommes face à un problème insoluble, car nous ne connaissons pas toute l’étendu de ce problème, et car nous n’avons pour le moment pas de solution viable. Peut-être faut-il se poser la question de savoir à qui profite cette fuite en avant (une poignée de sociétés) et si nous devons continuer à laisser faire (à nous réjouir de progrès technologiques sur lesquels nous n’avons aucun contrôle).

Ce dont en revanche je suis absolument certain, c’est que si nous ne savons pas où nous allons, nous y allons. C’est en substance ce que nous explique l’auteur de cet excellent article : Something Like Fire. L’idée maitresse étant que les outils ne sont pas le problème, mais plutôt leur utilisation. Il donne ainsi l’analogie du feu qui peut servir à réchauffer comme à brûler. Puisque l’on parle d’outils, je préfère personnellement l’analogie du marteau qui peut servir à construire comme à détruire.


Ceci nous ramène à la question récurrente : quel est le problème que nous cherchons à résoudre ? Ou du moins : quel problème pouvons-nous bien résoudre avec des IA génératives alignées sur un point de vue socio-politico-culturel américain ? Personnellement, je ne sais pas.

Finalement, la seule chose que nous puissions réellement contrôler est la vitesse de mise sur le marché de nouvelles offres ou de nouveaux outils. Et c’est précisément à ça que va servir l’AI Act : à forcer les éditeurs à plus de transparence. Cette législation va-t-elle freiner l’innovation ? Certainement, mais de quelle innovation parlons-nous au juste ? Car je vous rappelle que l’innovation n’est pas nécessairement synonyme de progrès (progrès pour qui ?) : Des dangers du dogmatisme technologique.

Le fond du problème est toujours le même : le déficit de culture numérique. […] Je milite activement pour une compréhension fine des usages et technologies numériques sans laquelle les débats et raisonnements sont biaisés par de les nombreux dogmes propagés par les techno-populistes.

La seule nouvelle rassurante est que nous avons encore un peu de temps pour nous préparer aux changements induits par l’intelligence artificielle et les modèles génératifs. L’important étant de ne pas chercher à lutter contre le changement et de faire preuve d’un minimum de pragmatisme et de réalisme.



Source link