En à peine un an, les modèles génératifs auront réussis le tour de force d’accaparer l’attention des professionnels, des médias et des politiques. Si le potentiel de l’intelligence artificielle est bien réel, les dérives et utilisations détournées qui peuvent en découler représentent un énorme risque pour les particuliers, les entreprises, mais également pour la démocratie. La classe politique s’efforce logiquement de réguler les usages dans un contexte très tendu, mais la tâche est ardue, car le sujet est complexe et les intérêts divergents. Ne vous y trompez pas, le but n’est pas de brider l’innovation, mais plutôt de protéger notre style de vie.

Cette semaine va être particulièrement chargée pour tout ce qui touche aux IA générative, il y a d’une part la conférence très attendue d’OpenAI, l’éditeur de ChatGPT, et toutes les nouveautés que vont immanquablement annoncer les autres éditeurs pour occuper le terrain médiatique.
À ce sujet, et comme à son habitude, Elon Musk bouscule les codes et a annoncé ce WE la disponibilité prochaine pour les utilisateurs payants de TwitterX de Grok, le chatbot issu de sa nouvelle startup dédiée à l’IA : Musk says X subscribers will get early access to xAI’s chatbot. Inspiré de l’IA loufoque du livre “Le Guide du voyageur galactique“, le futur chatbot de TwitterX va visiblement se démarquer à l’aide d’un ton irrévérencieux et un sacré sens de l’humour : Announcing Grok.

TwitterX revient dans la course et tente de se mettre à niveau avec Meta et Snapchat qui proposent déjà un ou plusieurs chatbots à leurs utilisateurs : Meta is putting AI chatbots everywhere.
Est-ce une bonne chose que les utilisateurs des médias sociaux puissent interagir avec des amis virtuels ? Je ne sais pas. Quels peuvent être les effets psychologiques pour les utilisateurs de ces nouveaux compagnons numériques ? Je ne sais pas. Comment ces chatbots vont s’insérer dans notre quotidien ? Je ne sais pas.
La réalité à laquelle quasiment aucun des prophètes de l’IA n’accepte de se confronter est qu’il y a énormément de choses que l’on ne sait pas, car nous manquons cruellement de recul. Et ça commence à devenir un problème, car le potentiel disruptif des IA est véritablement gigantesque, à tel point qu’il pourrait ébranler notre civilisation s’il n’est pas un minimum encadré.
Les assistants numériques sont les futurs moteurs de l’économie numérique
S’il y a bien une chose dont je suis certain, c’est qu’avec les modèles génératifs, nous n’en sommes qu’au tout début d’une authentique révolution. Oui je sais, on vous a récemment déjà fait le coup de la révolution numérique avec le Web3, le métavers ou l’informatique spatiale, mais les avancées proposées par les modèles génératifs sont bien plus concrètes, abordables et surtout directement exploitables que celles annoncées par la blockchain ou la réalité mixte. En gros, c’est une révolution à portée de main.
Le scénario d’évolution est le suivant : le web et les usages numériques ont connu différentes phases avec des acteurs dominants. Après l’ère des portails et celle des plateformes, les modèles génératifs nous font franchir un nouveau cap d’évolution grâce aux assistants numériques qui seront les prochains acteurs dominant des usages numériques.
Les lecteurs assidus de ce blog noteront que le principe d’assistant numérique n’est pas neuf, car j’en parlais déjà en 2016 en des termes très élogieux : Chatbots et assistants personnels façonnent le web de demain et Comment les interfaces vocales vont accélérer la transformation digitale. La révolution annoncée à l’époque ne s’est pas produite, car les capacités des assistants vocaux étaient encore trop limitées, et car les éditeurs ont peut-être trop misé sur la croissance du marché des enceintes connectées.
8 ans après, les choses ont changé, car le grand public est maintenant sensibilisé aux capacités offertes par les IA génératives, et car des offres sont déjà disponibles chez les big tech (Copilot et Bing de Microsoft, Duet et Bard de Google). Si ces deux offres s’apparentent à des chatbots, des interfaces textuelles pour accéder à un certain nombre de fonctions, il existe d’autres éditeurs qui proposent de véritables assistants numériques capables d’exploiter plusieurs modèles différents comme Poe, Perplexity ou You. L’idée est de proposer un meta-chatbot : un chatbot permettant de piloter d’autres chatbot, et même d’en concevoir pour les monétiser : Poe wants to be the App Store of conversational AI, will pay chatbot creators.

Est-ce bien prudent de proposer au grand public une usine à chatbots qui s’appuie des services et plugins dont on ne connait pas forcément l’éditeur ? Là encore, je ne sais pas. Enfin si, je sais : ce n’est pas une bonne idée, et je ne suis pas le seul à l’avoir compris.
Une ruée (jusque là non contrôlée) vers l’Ouest numérique
Voilà plus d’un an que je m’efforce d’expliquer que les modèles génératifs reposent sur un vide juridique : l’utilisation non-rémunérée de contenus propriétaires lors de la phase d’entrainement. Tout le monde est au courant de cette faille (cf. The scary truth about AI copyright is nobody knows what will happen next), aussi les éditeurs de services et autres “gourous” de l’IA tentent le tout pour le tout avant que la fenêtre de tir se referme. Voilà pourquoi je parle volontairement de ruée vers l’Ouest, parce que ça se passe bien évidemment dans la Silicon Valley, la Californie étant l’état le plus libertaire du pays le plus libertaire.
D’ailleurs, elle est déjà en train de se refermer puisque les ayants droit prennent les devants et commencent à assurer eux-mêmes la défense de leurs intérêts, que ce soit des artistes (Scarlett Johansson takes legal action against use of image for AI), des éditeurs (The authors whose pirated books are powering generative AI) ou des journaux (Quels sites bloquent GPTbot d’OpenAI, Bard de Google et Claude d’Anthropic ?).
Cette bataille juridique semble être le nouveau terrain de jeu des lobbyistes des big techs qui ont peur que l’on casse leur nouveau jouet : AI companies have all kinds of arguments against paying for copyrighted content.

Il y a d’une part ce problème de propriété intellectuelle, mais il y a surtout les innombrables dérives potentielles liées aux modèles génératifs et toutes les possibilités offertes aux hackeurs. Si nous sommes d’accord pour dire qu’il n’y a pas de vie mises directement en danger, comme c’est le cas pour d’autres domaines comme la santé (avec la loi de bioéthique qui remonte à 1994) ou la défense (avec les propositions des Nations Unies pour la régulation des systèmes d’armements autonomes létales : First Committee Approves New Resolution on Lethal Autonomous Weapons), le sujet est tout de même très préoccupant… pour celles et ceux qui font l’effort de s’y intéresser.
Vues de l’extérieur, avec un point de vue de néophyte, les tentatives de régulation définies par les différents gouvernements et institutions semblent précipitées :
Il y a eu tellement de régulations ces derniers mois que le cabinet Ernst & Young a même publié un rapport sur la question : EY report sheds new light on global AI regulatory landscape.

La régulation de l’utilisation de l’intelligence artificielle n’est néanmoins pas un sujet récent, car déjà en 2019 l’OCDE avait obtenu la signature par un nombre significatif de pays de ses principes d’IA éthiques : Forty-two countries adopt new OECD Principles on Artificial Intelligence. Les OECD AI Principles sont un cadre commun plutôt intéressant car ils définissent notamment ce qu’est une intelligence artificielle :

Sachez pour votre information que l’Union Européenne n’est pas en reste, car un texte très ambitieux est en cours de finalisation : L’AI Act (Une approche européenne de l’intelligence artificielle) dont l’objectif est de protéger les citoyens et entreprises européennes contre les risques liés à l’IA.

Garantir la souveraineté numérique des grandes nations à l’aide de régulations contraignantes
Croyez-le ou non, mais nous sommes en train d’assister à des événements historiques, quasiment équivalents à l’Euratom signé en 1957 pour fédérer la recherche nucléaire des pays européens.
La semaine dernière, l’Angleterre a ainsi organisé un sommet international sur l’intelligence artificielle qui a abouti à la Déclaration de Bletchley, une charte de coopération internationale pour encadrer les usages de l’IA : The Bletchley Declaration by Countries Attending the AI Safety Summit.

Le choix du lieu de ce sommet était intéressant, car Bletchley Park était le site qui regroupait pendant la seconde guerre mondiale toutes les équipes de recherche sur la cryptographie, celles qui ont permis de décrypter le code Enigma utilisé par l’Allemagne nazie.
Cette Déclaration de Bletchley porte sur plusieurs points : un accord préalable de coopération international et de partage des connaissances, la définition de standards communs de sécurité et de règles éthiques, l’obligation de transparence et la responsabilisation des éditeurs. OK super, c’est un bon début, mais nous ne parlons pas réellement de régulation précise.
Mais cette Déclaration a le mérite d’exister, et en prime, nos acteurs politiques étaient présents et se sont saisis du sujet, notamment notre ministre de l’économie et de la souveraineté industrielle et numérique :
De même que notre ministre délégué chargé de la transition numérique qui apporte une bonne nouvelle pour la suite des travaux de régulation :
De l’autre côté de l’Atlantique, les choses se sont aussi accélérées avec la publication d’un Ordre Exécutif du président des État-Unis (l’équivalent d’un décret présidentiel) : President Biden Issues Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence. Ce décret est beaucoup plus précis que la Déclaration de Bletchley, car elle intègre entre autres choses une définition de ce qu’est une intelligence artificielle :
A machine-based system that can, for a given set of human-defined objectives, make predictions, recommendations, or decisions influencing real or virtual environments.
Le décret du président Biden porte sur : le respect des brevets et des contenus protégés, le renforcement de la confidentialité, l’encadrement de l’utilisation de l’IA dans un cadre professionnel, la reforme des lois d’immigration pour les collaborateurs étrangers directement impliqués dans les projets d’IA, la préférence nationale pour l’achat de processeurs… cf. Unpacking President Biden’s Landmark AI Executive Order.
Mais la particularité de ce décret est qu’il fixe un périmètre précis : l’Ordre Exécutif impose une déclaration préalable aux éditeurs de très grands modèles de langage, ceux qui ont nécessité une puissance de calcul de 10^26 FLOP (opérations en virgule flottante), soit une limite largement supérieure à celle utilisée pour entrainée GPT-4 ou les autres modèles existants.

La limite particulièrement haute fixée par ce décret étonne les observateurs avertis, car il exclut de fait tous les modèles existants et ne concerne potentiellement qu’une minorité d’acteurs. Il faut en effet énormément de moyens pour constituer un corpus documentaire nécessitant 10^26 FLOP et accessoirement beaucoup d’argent, car le coût de location de machines développant une telle puissance serait équivalent à 250 M$ ! Ceci nous fait dire que ce décret sert avant tout à protéger les géants numériques américains, leur assurer une hégémonie pour les années à venir. La conséquence directe de ce décret est de fermer la porte aux nouveaux entrants, ou du moins de scinder le marché en deux : d’un côté les big tech et startups américaines (ex : OpenAI, Anthropic…) avec des modèles sur-puissants ; et de l’autre, les acteurs plus modestes avec des modèles ne dépassant pas la limite fixée.
Est-ce que ce décret visant à encadrer l’intelligence artificielle est pertinent ? Oui et non. Oui, car il faut bien commencer quelque part. Non, car l’approche est très maladroite. Cet Executive Order aurait ainsi pu porter sur des éléments plus tangibles, comme :
- l’obligation de publier les règles d’alignement d’un modèle(ce qu’il a le droit de dire ou non, son champ de compétences…) ;
- l’obligation de transparence sur les données d’entrainement, l’équivalent de la règle du Know Your Customer de la banque, une sorte de Know Your Data ;
- l’interdiction potentielle de modèles souverains (ex : Falcon édité par les Émirats Arabes Unis).
Bref, tout ça semble avoir été déterminé dans la précipitation et en petit comité. C’est d’ailleurs ce que l’on reproche également au sommet de Bletchley au cours duquel nous avons été le témoin d’une surprenante proximité entre Elon Musk et le premier ministre anglais : Elon Musk is coming to the UK’s big AI safety party. Some people actually building AI say they got frozen out.
Je suis parfaitement conscient du fait que le débat sur l’encadrement de l’intelligence artificielle n’est pas simple et que le processus démocratico-administratif des pays européens est grippé, mais le sujet est plus grave qu’il n’y parait, sur le court et long terme.
Un besoin urgent de réguler pour éviter les dérives dans les médias et fracturer encore plus la société
Pourquoi tant de précipitation dans la régulation dans la mesure où les travaux sur l’IA ont débuté il y a 80 ans ? Tout simplement car c’est la première fois que le grand public est directement exposé à l’intelligence artificielle. Auparavant, l’IA ne concernait que les scientifiques ou les professionnels avec des outils bien spécifiques. Là, n’importe qui avec une connexion web peut interagir avec une IA et utiliser un ensemble de services non régulés.
J’ai déjà eu l’occasion de l’écrire et je le refais : il n’existe AUCUN secteur d’activité où la mise sur le marché d’un nouveau produit ou service n’est pas contrôlée ou à minima encadrée. Que ce soit pour une voiture, un vêtement, un jouet, un album, un film, un hôtel, un restaurant… Tous les nouveaux produits sont soumis à des règles pour éviter les dérives et protéger les consommateurs. Pourquoi cela serait-il différent avec les services en ligne reposant sur les modèles génératifs ? C’est pourtant ce qui est arrivé : des centaines de millions d’utilisateurs peuvent librement utiliser les différents modèles, pour le meilleur et pour le pire.
Il y a donc un réel besoin de régulation, même si l’idée même de réguler divise les professionnels :
Le problème, comme je l’ai mentionné en début d’article est que nous manquons de recul. De plus, l’évolution de la technologie est trop rapide pour pouvoir réguler dans de bonnes conditions. Bonne nouvelle : une étude a été commanditée par le gouvernement britannique à un francophone (au moins nous aurons une traduction de qualité) : Yoshua Bengio chargé par le Royaume-Uni de présider le rapport « State of the Science » sur les capacités et les risques des systèmes d’IA.

Est-il urgent de comprendre les évolutions en cours ? Oui, car la situation est critique pour les médias qui sont les premiers touchés par les modèles génératifs : Les IA génératives annoncent une révolution dans les médias et la publicité. L’urgence vient du fait que si les médias sont déstabilisés (à cause de la désinformation), la société et ses valeurs démocratiques sont elles-mêmes déstabilisées.
L’humain se différencie ainsi des autres mammifères par ses capacités sociales : il peut vivre dans un environnement à très forte densité de population (villes), au sein de groupes d’individus très vastes (pays) et s’organiser autour de structures sociales formelles (lois) et informelles (coutumes). Au siècle dernier, ces structures sociales étaient entretenues à l’échelle locale par les réunions physiques (école, place du marché, église…) et à l’échelle nationale par les médias qui façonnaient les comportements et tendances (ex : mode, alimentation…) et véhiculaient des styles de vie (idéaux). En synthèse : Les médias font la société, à partir du moment où les médias évoluent, la société évolue.
Les médias sont censés nous rassembler, mais aujourd’hui, ils nous divisent. Quand les médias évoluent trop vite, donc ne sont plus maitrisés, les structures sociales sont déstabilisées, notamment par la désinformation et la prolifération sur les médias sociaux de faux prophètes. Il en résulte une société fracturée où les communautés sont montées les unes contre les autres (ex : riches contre pauvres, Paris contre la province, élites contre le peuple, juifs contre musulmans…).

Dans ce tableau bien sombre, l’IA est le plus petit dénominateur commun de l’évolution anarchique des médias et des usages numériques, d’où cet empressement pour réguler des technologies pourtant très complexes à appréhender avant que la situation ne dégénère (encore plus).
Plusieurs défis sont à relever pour que cette régulation soit effective :
- Des défis bien évidemment techniques, notamment sur la vérification de la véracité des contenus (A New Way to Tell Deepfakes From Real Photos: Can It Work?). Peut-être devrions-nous chercher à vérifier les contenus à la source, comme c’est le cas avec le dernier appareil photo de Leica qui intègre un mécanisme d’authentification des meta-données (Leica Launches World’s First Camera with Content Credentials).
- Des défis pratiques, car le phénomène d’hallucination est un problème inhérent à tous les modèles et dont les stigmates sont bien visibles (Fake news and ridiculing the dead, what’s wrong with Microsoft’s AI news). Peut-être est-il souhaitable d’interdire l’utilisation de LLMs sur des portails à grosse audience le temps que les éditeurs apportent la preuve d’un progrès significatif pour lutter contre les hallucinations.
- Des défis socio-politiques, car qui a décidé que les machines devaient se substituer à l’humain dès qu’elles en avaient la possibilité ?
Cette dernière question n’est pas simple, car si rien n’arrête le progrès, nous sommes en droit de nous demander si c’est bien le rôle des machines de donner des conseils santé (chatbots médicaux) ou de générer des contenus sur des questions d’actualité sensibles comme le conflit israélo-palestinien (ex : résumé de l’actualité ou formulation d’un point de vue).
L’intégration d’un modèle génératif dans WhatsApp pour pouvoir créer des stickers à partir de descriptions textuelles est effectivement plutôt simple d’un point de vue technique, les équipes de Meta savent le faire, mais le choix des contenus utilisés lors de la phase d’entraînement font nécessairement ressortir des biais : WhatsApp’s AI shows gun-wielding children when prompted with ‘Palestine’.

Si nous sommes tous d’accord pour condamner cette fonctionnalité, à qui la faute peut-elle être attribuée : aux utilisateurs qui formulent des demandes inappropriées ? Aux équipes de développement qui n’ont pas intégré de mécanisme de modération suffisamment robuste ? À l’éditeur qui n’a pas vérifié la partialité du corpus documentaire ayant servi à l’entrainement ? Aux auteurs des contenus utilisés pendant la phase d’entraînement ? C’est un authentique casse-tête que nous mettrons des années à résoudre, mais pendant ce temps-là, les médias sont à la dérive et la société se déchire petit à petit.
Les techno-optimistes vous dirons que justement, l’IA est à la fois le problème et la solution. À ce sujet, croyez-le ou non, mais il existe un projet financé par les Nations Unies qui ambitionne de trouver des solutions au conflit israélo-palestinien grâce à l’IA : The UN Hired an AI Company to Untangle the Israeli-Palestinian Crisis.
Ces réflexions nous amènent à nous questionner sur le bien-fondé de ces innovations, ou plutôt à nous demander ce qui se passe quand l’innovation technologique devient incontrôlable. C’est ce que nous allons découvrir, espérons que la leçon ne sera pas trop dure à apprendre. À moins que nous décidions d’agir…
L’acculturation numérique pour réduire une fracture vieille de 30 ans
Pour conclure cet article, je vous invite à prendre de la hauteur pour vous extraire des considérations politiques (ex : compétition entre les USA et la Chine, guerre médiatique entre le Hamas et Israël…) et aborder cette question de la régulation de l’intelligence artificielle sous l’angle de la pédagogie.
Le fond du problème n’est pas la régulation en elle-même, mais la fracture numérique qui complique fortement la régulation : les institutions politiques, comme les médias, comme le grand public semblent perdus dans ce débat sur la régulation des usages de l’intelligence artificielle, car c’est un sujet très complexe qui n’est pas maitrisé, voir qui n’est pas compris, du tout.
Ainsi, nous ne parlons même plus de fracture numérique, mais de fossé numérique entre la majorité des utilisateurs qui n’ont qu’une connaissance et maitrise très superficielle des outils numériques et les éditeurs de contenus et services qui sont passés à une nouvelle échelle avec les modèles génératifs.

À une époque, nous parlions des “info-riches” et des “info-pauvres” (ceux qui ont un accès ou non à l’internet), imaginez ce que ça peut donner aujourd’hui avec la puissance des outils exploitant les IA génératives…
Au vu des enjeux, il y a selon moi une réelle urgence à réguler rapidement pour éviter la prolifération anarchique d’outils numériques très (trop ?) puissants, même de façon maladroite et peut-être excessive. Puis dans un second temps, il y a une autre urgence à réduire la fracture numérique chez les citoyens / consommateurs / salariés en diffusant une culture numérique pour mieux comprendre et accepter les usages ainsi que prévenir les dérives potentielles.
Ce travail est déjà en cours, porté par nos institutions qui publient des contenus pédagogiques et mènent des campagnes de sensibilisation, mais il est complexe de s’assurer de sa diffusion à grande échelle, car l’attention des citoyens / consommateurs / salariés est accaparée par d’autres priorités.
Dans la mesure où les citoyens sont libres de s’informer ou non, peut-être qu’une solution serait d’agir dans le cadre d’un lien de subordination : à l’école ou en entreprise. Selon cette optique, il serait de la responsabilité des établissements scolaires et des entreprises de promouvoir et diffuser la culture numérique auprès des élèves et des salariés pour les aider à se projeter dans le XXIe siècle numérique et à mieux appréhender la révolution en cours.
Une façon de (re)faire société dans cette nouvelle civilisation numérique en cours de construction.