Rarement dans l’histoire de l’internet nous n’avons été le témoin d’une course à l’innovation aussi acharnée que celle qui concerne les IA génératives. Après 18 mois de lutte acharnée, les éditeurs de modèles génératifs se retrouvent à la croisée des chemins : proposer plus de puissance ou adopter une approche plus vertueuse ? La réponse à cette question n’est pas simple, car les reproches formulés à l’encontre de l’IA en général, et des modèles génératifs en particulier , sont nombreux. Peut-être est-il temps d’adopter une posture plus réaliste et surtout de formuler des attentes plus responsables ?

Voilà plus d’1 an 1/2 que ChatGPT a été présenté au grand public avec la promesse de démocratiser l’IA générative. Si les bénéfices (théoriques) des modèles génératifs sont encore flous et lointains, les dérives sont déjà là ! Rien que la semaine dernière, nous avons eu trois illustrations notoires d’utilisations détournées de l’IA générative :

Nous pouvons nous rassurer en répétant que ce type d’utilisation détournée de l’IA était un risque largement prévisible, mais le fait de le savoir n’a pas empêché leur réalisation. Tout ceci ne va pas dans le bon sens, car ces dérives ne vont faire qu’accentuer la méfiance du grand public envers les IA et les innovations numériques en général.
Vous noterez que personne n’est indifférent à l’utilisation éthique de l’IA, car c’est un sujet déjà largement commenté, avec une prise de conscience dans les plus hautes sphères, notamment par le Forum Économique Mondial avec la création de la AI Governance Alliance.
The World Economic Forum launches the AI Governance Alliance uniting industry leaders, governments, academic institutions, and civil society organizations to champion responsible global design and release of transparent and inclusive AI systems.
Rajoutez à cela la régulation qui est en train de se mettre en place en Europe (EU countries strike deal on landmark AI rulebook), qui fait des émules dans l’hexagone (Pour une Autorité française de l’IA), et vous aurez un cocktail médiatique particulièrement détonnant : tout ceci génère beaucoup de discussions, largement justifiées, mais qui semblent disproportionnées par rapport à d’autres aspects négatifs des modèles génératifs dont assez peu semblent se soucier : les impacts environnementaux, humains ou économiques.
Est-il trop tôt pour avoir une vision critique de la nouvelle poule aux oeufs d’or ? (je parle bien de l’IA générative, pas de Taylor Swift) Non, car les enjeux sont colossaux, et car l’adoption n’a pas réellement commencé. Je suis même persuadé que c’est le bon moment pour en parler.
Cachez cette IA que je ne saurais voir
Croyez-le ou non, mais les IA sont présentes dans notre quotidien depuis 40 ans, simplement le grand public n’en avait pas conscience. Cela fait ainsi plusieurs décennies que différentes méthodes de machine learning sont utilisées pour lire l’adresse des lettres envoyées par la Poste ou les montants des chèques (OCR), ainsi que pour ajuster en quasi-temps réel le prix des billets de train par la SNCF (yield management).
Les techniques d’apprentissage automatique n’étaient alors pas perçues comme une menace dans la mesure où elles rendaient de très bons services. Puis ChatGPT et consorts (Dall-E, Midjourney…) ont été introduit auprès du grand public et s’en est suivi un véritable raz-de-marée médiatique avec son lot d’espoirs et de craintes, de fantasmes et de phobies : L’intelligence artificielle fait peur, surtout à ceux qui ne font pas l’effort de la comprendre.
Plutôt que de spéculer sur les possibles utilisations détournées de l’IA, nous devrions plutôt nous préoccuper des utilisations détournées de l’outil informatique (emails, fichiers bureautiques…) et des outils numériques (logiciels en ligne, visioconférences…).

C’est pour éviter l’enlisement dans un débat stérile que je milite sur ce blog, à travers mes articles, pour une approche mesurée avec une vision apaisée de l’IA et une réflexion pragmatique sur la bonne utilisation des modèles génératifs :
Les intelligences artificielles trouvent une réelle utilité dans l’encadrement des pratiques de collaboration pour aider les salariés à adopter de nouvelles habitudes, à la fois bénéfiques à la productivité, mais également pour la planète.
Les IA génératives sont comme des épées à double tranchant : les juniors en seront les premiers bénéficiaires, mais également les premières victimes. Avant de vous lancer tête baissée dans une course à l’adoption comme nous en avons connu pour l’email ou les outils bureautiques, et dont nous subissons aujourd’hui les conséquences, il convient de définir un cadre d’utilisation (une combinaison de conseils, bonnes pratiques et règles à ne pas transgresser) et surtout de faire de la pédagogie : expliquer ce que sont les IA (démystifier), ce à quoi elles servent (l’objectif), ce qu’elles savent ou ne savent pas faire (les bénéfices et limites) et la façon dont elles vont s’insérer dans le quotidien professionnel (leur intégration aux processus et habitudes, quitte à en créer de nouvelles).
Vous vous doutez bien évidemment que nous n’en sommes qu’aux tout débuts et qu’il reste un énorme travail pédagogique pour (ré)expliquer ce qu’est l’IA et faire accepter l’idée aux salariés qu’ils vont travailler en binôme avec un assistant numérique (même si c’est déjà le cas avec leur ordinateur). La première étape préalable à un déploiement à très grande échelle de l’IA sera donc de rassurer sur les dérives potentielles et de motiver sur les bénéfices en termes de gains de productivité (avec deux petits bémols : les risques sont toujours présents avec ou sans IA, et les gains ne seront effectifs qu’en changeant nos habitudes de travail).
La seconde étape sera d’éviter de reproduire les erreurs du passé en sensibilisant / formant les futurs utilisateurs à une utilisation responsable des IA. Ce qui nous amène à redéfinir la notion de responsabilité numérique.
Qui est irresponsable : l’IA, ses concepteurs ou ses utilisateurs ?
Oui, les modèles génératifs sont une avancée majeure dans le domaine de l’intelligence artificielle, et non, leur apogée ne pouvait pas plus mal tomber dans la mesure où le prix de l’énergie a explosé avec la guerre en Ukraine (grosse pression sur la production d’électricité et l’exportation de gaz). De ce fait, le « miracle » de l’IA générative a été entaché l’année dernière par des considérations environnementales. Un sujet qui est même plus ancien, car dès 2022 l’OCDE se préoccupait de la sur-consommation d’énergie des applications de l’intelligence artificielle : Measuring the environmental impacts of artificial intelligence compute and applications.
Un aspect négatif des IA générative qui avec également été abordé par les géants numériques, dont Google en 2022 (Good News About the Carbon Footprint of Machine Learning Training), mais largement éludée par OpenAI, le leader du créneau. De ce fait, la question refait surface régulièrement (AI and crypto mining are driving up data centers’ energy use, The Generative AI race has a dirty secret, Environmental Impact of Ubiquitous Generative AI, Managing AI’s Carbon Footprint…
Une consommation excessive largement dénoncée et documentée, comme ici avec une comparaison de la consommation des principaux modèles : Reducing the Carbon Footprint of Generative AI.

Dans ce débat, à qui incombe la responsabilité de cette sur-consommation d’énergie :
- les modèles en eux-mêmes ? À priori non, car les réseaux de neurones artificiels ne sont pas utilisés que pour des usages génératifs ;
- les hébergeurs ? Pas réellement, car la très grande majorité des data centers sont optimisés en terme de consommation d’énergie et compensés ;
- les éditeurs ? Probablement, car les choix de méthodes et données utilisées pour l’entrainement et l’exploitation des modèles influent sur leur consommation d’énergie ;
- les utilisateurs ? Oui carrément, car ce sont eux qui s’amusent à générer tout et n’importe quoi en criant au miracle sans se soucier des conséquences, juste pour la beauté de l’exploit technique.
Cependant, en creusant un peu le sujet, on se rend vite compte que tous les modèles ne consomment pas de la même façon, et surtout que toutes les tâches ne nécessitent pas la même puissance de calcul : Power Hungry Processing: Watts Driving the Cost of AI Deployment?

Pour utiliser une analogie très simpliste : dire que l’IA générative pollue revient à dire que les véhicules polluent. Certains véhiculent sont plus ou moins polluants (en fonction de leur poids et de l’architecture du moteur), avec des conducteurs qui ont des styles de conduite qui consomment plus ou moins d’essence, et des contextes d’usages qui sont plus ou moins justifiés (faire une balade à la campagne en SUV vs. livrer les supermarchés en nourriture).
En creusant encore plus le sujet, c’est-à-dire en prenant le problème de la consommation d’énergie avec plus de recul, on se rend compte que nous sommes à la limite du faux débat : Fears About Skyrocketing Energy Use By AI Are Unfounded, New Report Finds. L’étude mentionnée dans cet article nous amène ainsi un angle de vue tout à fait inédit : si certains modèles génératifs consomment effectivement plus d’énergie que d’autres, cette consommation reste très largement inférieure à celle d’un humain devant réaliser la tâche lui-même (The Carbon Emissions of Writing and Illustrating Are Lower for AI than for Humans).

Est-ce qu’un rédacteur rejette 1.500 fois plus de CO2 qu’un modèle génératif de textes ? Est-ce qu’un illustrateur rejette presque 3.000 fois plus de CO2 qu’un modèle génératif d’images ? Si vous divisez la valeur annuelle moyenne de rejet de CO2 d’un salarié d’un pays occidental par le temps qu’il lui faut pour rédiger un texte ou dessiner une image (plusieurs heures), alors oui, car il ne faut qu’une fraction de seconde à un modèle génératif pour effectuer ces tâches.
Par comparaison, il me faut entre 1 à 2 jours en moyenne pour rédiger un article sur ce blog, alors qu’il ne faut qu’une dizaine de secondes à ChatGPT pour rédiger un article équivalent. Certes, la qualité de la réflexion n’est pas la même, mais ma consommation d’énergie et de nourriture pour deux jours est largement supérieure (surtout si je mange de la viande rouge aux repas). Tout ceci nous amène à questionner l’utilité de ces modèles génératifs, ou plutôt la légitimité de leur utilisation : AI emits Carbon, but how much value do we get in return?
Je ne suis pas en train d’écrire qu’il faudrait interdir les modèles génératifs au même titre qu’il faudrait interdir la viande rouge pour des raisons écologiques, simplement que nous devrions être plus sélectifs dans l’utilisation de ces outils : se restreindre aux cas d’usages les plus pertinents. En résumé : prendre conscience de l’impact de nos choix, mettre un terme aux comportements insouciants dans notre quotidien personnel (L’électricité est le carburant de nos usages numériques) comme professionnel (Une transformation digitale vertueuse à travers la responsabilité numérique des entreprises).

Non, cet article n’est pas une diatribe contre le style de vie des occidentaux, c’est une très modeste contribution à une prise de conscience nécessaire sur l’impact environnemental de nos usages numériques, mais également sur la pauvreté intellectuelle du débat actuel sur l’intelligence artificielle : méfiez-vous des raccourcis, car la réalité est subtile, une réalité dont l’appréhension vous évitera d’e tomber dans le piège ‘adopter une posture manichéenne (cf. Des dangers du dogmatisme technologique).
Comme nous venons de le voir, le sujet de l’impact environnemental des IA est complexe, mais il y a aussi d’autres sujets à prendre en compte comme la transparence, la légalité, la viabilité…
La responsabilité numérique appliquée à l’IA
J’ai déjà eu l’occasion de vous détailler les freins au déploiement rapide des modèles génératifs : Quels scénarios d’adoption pour les IA génératives ? Ainsi la vitesse de déploiement de l’IA générative est principalement conditionnée par trois facteurs : la transparence des modèles, la conformité et la rentabilité.
Concernant la transparence des IA génératives, les modèles open source semblent être la contre-partie unanimement reconnue aux modèles fermés comme celui dd’OpenAI. Problème : distribuer librement un modèle génératif ne risque-t-il pas d’augmenter le nombre de dérives et utilisations détournées ? Pas réellement, c’est en tout cas ce que nous apprend cette étude de l’université de Stanford : Open source AI models pose no greater risks than closed models. J’en profite pour préciser que les images détournées de Taylor Swift mentionnées en début d’article ont été générées avec la nouvelle version du logiciel Paint de Microsoft et sa fonction « Cocreator ».
Concernant la conformité à la législation en vigueur, et notamment l’utilisation de contenus propriétaires pour l’entrainement des modèles ou la propriété des contenus générés par une IA, là encore nous avons un peu plus de recul sur la question, notamment par rapport au droit français : À qui appartiennent les données d’apprentissage et les données générées par les IA ? Ainsi, la directive « Marché unique numérique » du 17 avril 2019 introduit une exception au droit d’auteur et autorise la fouille de textes et de données (le data mining). L’objectif de cette exception était de ne pas freiner le développement de l’open data, mais elle s’est transformée en un vide juridique légalisant le web scraping (extraction automatique de contenus issus de sites web).
En Heureusement, le tout nouveau AI Act européen et les textes complémentaires devraient forcer les éditeurs de modèles à détailler les données utilisées pour l’entrainement et attribuer la paternité d’un contenu généré aux auteurs des contenus ayant servi à l’entrainement du modèle génératif (Understanding the Council of Europe’s Draft Framework Convention on AI, Human Rights, Democracy, and Rule of Law).

Il y a enfin le problème de la viabilité des IA génératives : entrainer et faire tourner un modèle coûte énormément d’argent, car il y a beaucoup des machines à acheter (ou louer) et de l’électricité à fournir. Les modèles de langage ne sont pas forcément viables, car les coûts d’exploitation sont élevés (Capex comme Opex) et surtout car les coûts d’acquisition sont encore plus importants (forte concurrence des startups et géants numériques) : Big Tech Struggles to Turn AI Hype Into Profits. Dans la mesure où les taux d’intérêt sont remontés, il n’y a plus d’argent « gratuit », il faut prouver la rentabilité pour ne pas générer de la dette (ou du moins en créer plus qu’il n’y en a déjà).
Tout ceci nous amène à commencer à envisager une approche plus responsable de l’IA générative, car au-delà de l’exploit technique, il y a une réalité environnementale, sociale, légale et économique que nous ne pouvons plus nous permettre d’ignorer.
Less is more (comme toujours)
Pour mémoire, nous sommes en 2024 et la société est fragilisée par la permacrise (environnementale, sociale, économique…) dont le plus petit dénominateur commun est la raréfaction des ressources. Dans ce contexte, le mot d’ordre du XXIe siècle n’est plus de faire toujours plus (production de masse, distribution de masse…), mais de faire mieux avec moins.
C’est justement la principale promesse des IA génératives : nous aider à optimiser la consommation de ressources précieuses (matières premières, temps, attention…). Selon cette optique, le principal critère de réussite n’est pas la mise au point ou l’utilisation du plus gros modèle de langage possible (la recherche de l’exploit technique), mais l’optimisation effective de l’utilisation des ressources tout en améliorant les résultats. Je salue ainsi le travail des équipes du Ministère de la Transformation et de la Fonction Publique pour les premiers résultats probants obtenus avec l’utilisation de l’IA générative (Services Publics+ : « Avec Mistral 7B, nous avons réduit les délais de réponse de plus de 50% »).
Grâce à l’utilisation de l’IA, aucun commentaire ne reste inexploré : chaque louange et chaque récrimination est soigneusement analysée, ce qui attribue une valeur réelle à chaque retour d’expérience.
Inutile de chercher ou de commander des études à je ne sais quel cabinet de conseil, la solution aux aspects négatifs de l’IA générative est connue de tous : l’utilisation de modèles plus vertueux, c’est-à-dire plus petits (optimisés), plus transparents (open source) et mieux maitrisés (alignés).
La clé ne réside donc pas dans la création de nouveaux modèles reposant sur toujours plus de paramètres (plusieurs centaines de milliards pour le futur GPT-5), mais dans l’optimisation de modèles existants pour les minimiser (Rising Impact of Small Language Models) et pouvoir les faire tourner en local (You Can Run a Generative AI Locally on Your Computer).
Dans la prise de conscience citée plus haut, il nous faut impérativement sortir au plus vite de cette logique de course à l’armement avec les éditeurs américains pour nous concentrer sur des usages à la fois plus vertueux, mais également plus responsables : Quels problèmes essayons-nous de résoudre avec les IA génératives ?
Un brouhaha médiatique où se côtoient promesses délirantes, prévisions farfelues et arguments nébuleux, sans jamais aborder la question de l’utilité. De tout ceci, il ne peut rien ressortir de bon, comme ce fut le cas pour le métavers, un concept protéiforme que l’on nous a servi jusqu’à écœurement, provoquant une réaction logique de saturation et de rejet.
Croyez-le ou non, mais nous avons en France le champion de cette approche « sobre » de l’IA, je parle bien évidemment de Mistral, la startup qui fait beaucoup parlé d’elle grâce à un modèle proposant un ratio performances / consommation imbattable : Mistral AI unveils Mixtral 8x7B, a game-changing AI model, alongside a major funding milestone et Mistral 7B is 187x cheaper compared to GPT-4.

Malheureusement, comme c’est très souvent le cas, l’intensité concurrentielle est très élevée, car d’autres acteurs ont fait le choix d’une approche vertueuse, notamment Microsoft et Meta qui proposent également des modèles compacts et ouverts (Orca-2: Teaching Small Language Models How to Reason et Llama 2 is about as factually accurate as GPT-4 for summaries and is 30X cheaper), mais qui disposent en prime de moyens considérables capacités matérielles, logiciels, humaines…
Lors de la présentation des résultats annuels, le patron de Meta s’est ainsi illustré en mettant en avant une infrastructure matérielle gigantesque, forte de plus de 400.000 processeurs dédiés à l’IA (250K déjà en exploitation et 150K nouveaux en livraison) : Inside Meta’s AI strategy: Zuckerberg stresses compute, open source and training data.

L’ambition de Mark Zuckerberg a d’ailleurs été grandement appréciée par les marchés financiers (Meta surges with record $196 billion gain in stock market value) qui valident ainsi cette stratégie : se différencier des acteurs leaders de l’IA générative grâce à une approche plus vertueuse (ouverte, sobre…).
—
Si 2023 a été marqué par une course au gigantisme des modèles génératifs, avec pour le moment un avantage à Google (Introducing Gemini: our largest and most capable AI model), l’année 2024 devrait être placée sous le signe de la sobriété et de la responsabilité. Le but de la manoeuvre étant de préparer un déploiement à plus grande échelle de l’IA générative : partir à la conquête du premier milliard d’utilisateurs.