Podcast: Play in new window | Download (Duration: 43:48 — 32.9MB)
Subscribe: Apple Podcasts | Spotify | Android | | More
Dans son livre Bonjour ChatGPT, Louis de Diesbach va au-delà de la problématique de l’anthropomorphisme pour souligner que l’IA est probablement la quatrième blessure de l’Humanité. Louis, consultant en technologies numériques et essayiste, examine dans cet ouvrage ce qui fait l’humain et en quoi cela pose problème à une société où on ne veut plus admettre l’altérité. Son point de vue est que l’IA nous challenge désormais intellectuellement, infligeant ainsi à l’humanité sa quatrième blessure narcissique après Galilée (nous ne sommes pas le centre de l’univers), Darwin (nous sommes le fruit d’une évolution) et Freud (nous ne maîtrisons pas notre inconscient). Mais plutôt qu’une humiliation, cette nouvelle réalité nous offre l’opportunité de repenser ce qui fait notre essence : non pas notre supériorité intellectuelle, mais notre capacité unique à tisser des relations authentiques avec autrui. Face à un monde toujours plus technologique, l’enjeu n’est pas tant la performance des machines que la préservation ni le renforcement de nos liens humains. L’auteur nous invite ainsi à réfléchir sur l’avenir de nos relations interpersonnelles.
L’IA est la quatrième blessure de l’humanité ou comment nous devons redécouvrir ce qui fait notre essence
![La quatrième blessure de l'humanité](https://visionarymarketing.com/wp-content/uploads/2025/02/ygourven-a-minimalist-composition-showing-two-human-hands-reach-a986d5a0-755f-4a44-b711-0c8b7f8396b9.jpg)
Tu abordes l’anthropomorphisme dans ton livre par une certaine May Ashworth…
Louis de Diesbach. May Ashworth fait une recherche sur Google vers 2015. Elle voulait savoir comment traduire des chiffres romains en chiffres arabes. Et elle commence sa phrase par « Bonjour » et finit par « Merci ». Son petit-fils, très taquin, trouve ça très drôle, prend la photo et poste ça sur Twitter, et c’est le genre d’histoire dont la toile raffole. C’est une petite vieille qui ne sait pas très bien utiliser Google et qui imagine qu’il y a des humains derrière Google qui vont lui répondre. Et ça fait le buzzLes recommandations, le marketing du bouche à oreille et les réseaux sociaux pour être incontournable..
Cela m’a interpellé. Comment se fait-il qu’il y ait à peine 10 ans, tout le monde se soit amusé de cette petite dame qui dit bonjour, s’il te plaît, et merci à Google et qu’en 2022, environ la moitié des copies d’écrans de ChatGPT postées sur Internet commencent par « Hello, could you please do…? », etc.
Pourtant, les mêmes personnes qui se font un café le matin ne disent ni bonjour ni merci à leur tasse ni à leur machine à café !
Par contre, la tondeuse à gazon de ton beau-père a un petit nom
LdD. C’est exact, nous avons donné un nom, Bernard, au robot-tondeuse de mes beaux-parents. En revanche, je ne lui dis pas bonjour.
C’est un fait, l’anthropomorphisme n’est pas nouveau, on a même toujours anthropomorphisé. On trouve des traces d’anthropomorphisme qui ont plus de 40 000 ans. Et donc, en fait, le fait de dire bonjour à ChatGPT, finalement, ce n’est pas si grave.
![4e blessure de l'humanité](https://visionarymarketing.com/wp-content/uploads/2025/02/lhomme-lion-loewenmensch1.jpg)
Bernard est plus commode que Husqvarna HX430, mais voilà, pourquoi pas juste « HX » ? Pourquoi pas « robot tondeuse » ? Où cela nous mène-t-il ? C’est cela que j’ai voulu creuser.
Certains consultants prétendent que si on est poli avec l’IA, on obtient de meilleurs résultats
LdD. Une étude a démontré cela. En revanche, les gens prennent ça au pied de la lettre et pensent que la machine comprend quand on est gentil ou poli. En fait, quand vous êtes poli, la machine va chercher dans des corpus d’entraînement où les gens parlent comme vous. Et effectivement, les endroits où les gens sont polis sont généralement des endroits un peu plus sérieux. Un forum académique universitaire n’a pas le même niveau de politesse que X, par exemple, ni le même niveau de langage.
Mais est-ce un signe de conscience de la part de la machine ? Pas du tout.
J’ai lu ça aussi, et j’étais plus surpris, que quand on est trop gentil, les résultats finissent par être moins bons. Mais je serais très surpris que des circuits électriques se disent « Oh là, il a l’air très sympa, Louis ». Mais peut-être que je me trompe et qu’il y a une super intelligence qui est en train de se développer. J’ai mes doutes tout de même.
Impact de la politesse sur les IA – points clés
Même Daniel Andler a l’air de douter désormais que les IA soient douées de conscience. Et d’abord, qu’est-ce que la conscience ?
LdD. Premièrement, écouter Daniel Andler est toujours une très bonne chose. Deuxièmement, il a raison de douter. D’abord, parce qu’il est scientifique, et que ce soit en philosophie, en mathématiques ou en sociologie, le doute fait avancer la recherche. Et je doute également.
En y réfléchissant, cela fait 2 000 ans que des philosophes essaient de définir la conscience, et on n’y est toujours pas arrivé et je ne pense pas qu’on va y arriver tous les deux aujourd’hui.
![Quatrième blessure de l'humanité : IA](https://visionarymarketing.com/wp-content/uploads/2025/02/1717354621203-e1717763108385-1.jpg)
Si nous prenons le test de Turing comme date de début (1950), cela fait 70 ans qu’on essaie de savoir si les machines sont capables de penser, ou au moins d’imiter des êtres humains. Car c’est ce dont parle Turing, un « jeu d’imitation », il n’évoque pas la pensée.
Quant à moi, je n’ai aucun souci à aborder la chose de manière extrêmement tautologique : ce qui est humain est humain, et la machine est une machine.
L’Oulipo a pourtant fonctionné en imitant la machine. Loin de Rueil de Raymond Queneau est par exemple un livre mathématique
LdD. Oui, je pense qu’à partir du moment où la machine égale l’humain, cela amène énormément de risques qui, selon moi, nous éloignent des vraies questions.
Oren Etzioni, l’ancien CEO du Allen Institute for AI, qui était loin d’être un technophobe très loin de là, di sait que les discussions sur la superintelligence, ça ne l’intéressait pas beaucoup parce que cela nous éloignait des vrais enjeux.
My catalogue of early warning signals, or canaries, is illustrative rather than comprehensive, but it shows how far we are from human-level AI. If and when a canary “collapses,” we will have ample time before the emergence of human-level AI to design robust “off-switches” and to identify red lines we don’t want AI to cross. AI eschatology without empirical canaries is a distraction from addressing existing issues like how to regulate AI’s impact on employment or ensure that its use in criminal sentencing or credit scoring doesn’t discriminate against certain groups. As Andrew Ng, one of the world’s most prominent AI experts, has said, “Worrying about AI turning evil is a little bit like worrying about overpopulation on Mars.” Until the canaries start dying, he is entirely correct.
Oren Etzioni, How to know if artificial intelligence is about to destroy civilization, MIT Technology Review, 2020
Or ce qui m’intéresse, ce sont les vrais enjeux. En fait, dire bonjour à ChatGPT, ce n’est pas une vraie question. C’est un peu comme quand on disait « Vas-y Titine ! » si ta voiture avait du mal à monter la côte.
La vraie question que j’essaie de creuser dans le livre, c’est quel est l’avenir de la relation humain-humain à une ère où la relation humain-machine prend tellement plus de place et d’importance.
Aujourd’hui, personne ne se plaint qu’on est moins humain parce que la voiture nous dépasse ou qu’elle va plus vite, ou parce que l’ordinateur est meilleur que nous aux échecs. Car cela n’est pas l’essence même de notre humanité.
Justement, les LLM s’emparant du langage, la civilisation est-elle en danger ?
LdD. Mettre en danger la civilisation, ça ferait un bon titre « putaclic ». Chomsky est un révolutionnaire, ce que je ne suis pas du tout. Et donc, dans sa tribune pour le New York Times, il revient aussi sur le fait qu’il y a une maîtrise du langage, mais une maîtrise du langage qui n’est pas nôtre, et qui est porteuse de toute une vision du monde, que lui appelle aussi une certaine fascisation du monde.
Note, for all the seemingly sophisticated thought and language, the moral indifference born of unintelligence. Here, ChatGPT exhibits something like the banality of evil: plagiarism and apathy and obviation. It summarizes the standard arguments in the literature by a kind of super-autocomplete, refuses to take a stand on anything, pleads not merely ignorance but lack of intelligence and ultimately offers a “just following orders” defense, shifting responsibility to its creators.
Noam Chomsky, New York Times, the false promise of ChatGPT, 2023
Je ne sais pas si j’irais jusque-là. Est-ce que c’est la fin de notre civilisation ? Je ne le pense pas. Nous assistons plus à un tournant qu’une révolution. L’intelligence artificielle nous offre de nouveau l’opportunité de nous recentrer sur ce qui nous définit.
Et pendant très longtemps, ce qui nous définissait était cette capacité à mettre notre empreinte sur le monde, à le dominer, par notre intelligence supérieure.
L’IA, quatrième blessure de l’humanité ?
Je vois cela, comme une quatrième blessure narcissique de l’humanité. Freud a théorisé cela dans son introduction à la psychanalyse (1916).
- La première grande blessure, c’était Galilée et Copernic, car nous n’étions plus le centre du monde.
- La deuxième grande blessure, c’était Darwin, puisque nous n’avons pas été créés parfaits, puisque nous sommes le résultat d’une évolution.
- Freud se voyait comme la troisième grande blessure narcissique de l’humanité, puisque nous ne sommes même pas maîtres de nous-mêmes, mais les victimes de nos inconscients.
Beaucoup de penseurs parlent maintenant d’une sorte de quatrième blessure narcissique. En effet, nous sommes dépassés par la machine jusque dans notre production intellectuelle. Et je pense que c’est vrai. Nous sommes arrivés à ce quatrième tournant.
Or je ne pense pas qu’il s’agisse d’une humiliation, ni d’une réduction de l’humanité ou de l’espèce humaine. Est-ce que l’espèce humaine est humiliée parce qu’elle est le résultat d’une évolution et qu’elle n’a pas été créée par Dieu ? Je ne crois pas. Est-ce que l’espèce humaine est humiliée parce qu’elle n’est pas le centre du monde ? Je ne crois pas. En revanche, c’est une opportunité de repenser ce qui fait notre humanité.
Peut-être que pendant très longtemps, on a cru que ce qui faisait notre humanité, c’était cette capacité intellectuelle qui nous permettait de mettre notre empreinte sur le monde et de dominer jusqu’à un certain point la nature. Mais peut-être qu’en fait, être humain, ce n’est pas ça.
Ce trait caractéristique de l’humain ne serait pas plutôt le doute ?
LdD. Je l’espère. Le doute est en effet important. Ce qui nous définit vraiment selon moi en tant qu’humains, ce qui nous permet de révéler notre humanité, c’est le rapport à autrui.
Et c’est vraiment ce que j’ai voulu révéler, ce que j’ai voulu écrire dans Bonjour ChatGPT. On ne peut vraiment être humain que dans notre rapport à autrui et dans cette acceptation du rapport à l’autre. Cela veut aussi dire qu’il faut accepter une certaine forme de vulnérabilité puisqu’on vient s’ouvrir à autrui, ce qui est de plus en plus difficile, du fait de l’intermédiation de la technologie. La question est de savoir si on a envie, même si le terme est galvaudé, de vivre ensemble. François Saltiel a décrit la société du sans contact. Pour moi. Payer sans contact, c’est très bien. Mais voulons-nous d’une société sans friction ?
Cette civilisation sans contact peut-elle être sauvée et comment ?
LdD. Je ne pense pas qu’elle soit en train de dépérir. Je suis contre les discours catastrophistes, car ils ne nous font pas avancer et ne sont pas vrais.
Je pense qu’il y a énormément de très belles initiatives, de choses qui se mettent en place et je pense que c’est très chouette. Agnès Fabre par exemple, mène un collectif d’éducation raisonnée pour qu’on enlève les écrans des collèges et des lycées afin de permettre aux professeurs de rentrer en contact avec les élèves et aux élèves de rentrer en contact avec leurs professeurs et leurs pairs.
Il ne faut pas rester à ne rien faire, il faut se prendre en main.
Est-ce que toi, tu utilises ChatGPT pour écrire ?
LdD. J’utilise ChatGPT tous les jours, ou presque, dans ma vie professionnelle. Je suis consultant dans les questions technologiques, et donc, je l’utilise assez régulièrement pour ça. En revanche, je ne l’utilise pas pour écrire, et ceci pour deux raisons.
La première et la principale, c’est parce que j’adore écrire. L’auteure polonaise Joanna Maciejewska a déclaré « Vous savez quel est le plus gros problème de tout ce battage autour de l’IA ? Cela va dans le mauvais sens. Je veux que l’IA fasse la lessive et la vaisselle pendant que je me consacre à l’art et à l’écriture, et non que l’IA produise de l’art et des textes à ma place pour que je puisse faire la lessive et la vaisselle ». Elle a tout résumé.
You know what the biggest problem with pushing all-things-AI is? Wrong direction.
I want AI to do my laundry and dishes so that I can do art and writing, not for AI to do my art and writing so that I can do my laundry and dishes.— Joanna Maciejewska (MoSS is on preorder now!) (@AuthorJMac) March 29, 2024
La deuxième raison pour laquelle je ne l’utilise pas pour écrire, c’est par honnêteté intellectuelleenvers les lecteurs et lectrices. Je viens d’expliquer qu’il faut réussir à se recentrer sur ce qui est profondément humain. Dans la relation que j’ai envie de tisser avec autrui, il me semble capital de ne pas trop accorder d’importance à la Tech [NDLR à ce sujet, lire le billet sur après la Tech réalisé avec Stéphane Schultz]
Dans ton livre, tu mentionnes que ChatGPT échoue sur le fameux test de logique d’Alice et ses sœurs. Mais ce n’est plus vrai avec la nouvelle version
LdD. Effectivement, il progresse, et c’est une bonne chose. Mais on trouvera toujours des points sur lesquels il est moins bon, et d’autres pour lesquels il s’est amélioré.
Mais la vraie question c’est « est-ce que l’objectif doit être impérativement de renverser toutes ces limites ? » Je n’en suis pas certain. Ne pourrait-on décider de s’arrêter une fois atteint un niveau de performance acceptable?
Deux choses me semblent cruciales. D’une part la fiabilité et la confiance dans la machine, et la sécurité des données personnelles. Et d’autre part, la frugalité alors que ces modèles sont excessivement gourmands.
Nous sommes comme des hamsters dans une roue. Nous n’allons faire que courir jusqu’à nous épuiser. Et le problème, c’est que tu n’épuises pas que toi. Tu épuises des ressources naturelles, tu épuises des gens, tu épuises des capitaux qui pourraient être utilisés pour d’autres choses. C’est cela la vraie question autour de la Tech.
Comment arrêter cet emballement et avec l’aide de qui ? Cela semble mal parti
LdD. Je peux donner des pistes, mais c’est quand même très compliqué. Il faudrait notamment une gouvernance mondiale, on le sait très bien, si on veut éviter cette course à l’armement technologique entre la Chine, les États-Unis, la Corée du Nord, et également l’Iran, la Russie et l’Europe à certains niveaux.
Ursula Von der Leyen proposait de faire un GIEC de l’IA, ce n’est pas inintéressant. Si on les écoute autant que le GIEC aujourd’hui, il n’est pas certain que ça vaille la peine, mais pourquoi pas ?
Je prêche pour ma part pour trois grandes choses
- Une gouvernance mondiale de l’IA
- Une véritable pluridisciplinarité
- Et enfin une véritable formation, pas uniquement technologique, mais également logique, pour être capable de discerner le vrai du faux.
Nos questions philosophiques vont-elles faire frémir les technolâtres ?
LdD. Peut-être pas. Pour ma part, je suis à la fois pro-Tech et prorégulation. Il y a beaucoup de secteurs, l’industrie pharmaceutique ou agroalimentaire par exemple, où on fait beaucoup de tests avant de lancer un produit sur le marchéLa notion même de marché B2B ou B2C est au cœur de la démarche marketing. Un marché est la rencontre d’une offre et d’une demande.
Je ne comprends pas pourquoi ce n’est pas pareil pour la Tech.
Par exemple, Mark Zuckerberg, même s’il est un peu bizarre, n’a sans doute pas eu l’objectif de polariser la société en lançant son premier Facebook. C’est une sorte de conséquence inattendue d’un business modèle basé sur l’algorithmique, une sorte d’économie d’attention qui a mené à la polarisation. Si on avait fait un peu plus de tests, on se serait peut-être rendu compte que cela avait des effets délétères.
![](https://visionarymarketing.com/wp-content/uploads/2025/02/ygourven-a-dramatic-photo-of-a-wounded-ancient-greek-statue-wit-9d6035b9-cfbd-4f59-a250-2ccd81f1d150.jpg)
ChatGPT est sorti le 30 novembre 2022 sans la moindre consigne, sans manuel d’utilisation, sans mise en garde, alors que personne ne savait comment ça marchait. Comment est-ce possible de faire ça ?
Certains LLM sont volontairement débridés, comme Grok. Faudrait-il une norme CE de la technologie ?
LdD. C’est ce sur quoi l’Union européenne travaille. Et je pense que c’est une très bonne chose et que cela ne va pas tuer notre compétitivité. Soit les grandes entreprises de la Tech s’alignent et on est gagnant, soit elles ne s’alignent pas et cela permettra l’émergence de géants européens, et on sortira gagnants.
Avec le mode conversationnel de ChatGPT, on est dans le comble de l’anthropomorphisme, c’est Her de Spike Jonze
LdD. OpenAI a même recopié le film. Ils ont demandé deux fois à Scarlett Johansson s’ils pouvaient prendre sa voix, elle a refusé deux fois. Ils en ont donc pris une autre, mais quand on l’écoute, les deux voix sont très proches.
Quand Her est sorti en 2013 [NDLR voir ci-dessus] , tout le monde a vu ce film en se disant, « Quelle horreur, ça va nous servir d’avertissement, ne faisons jamais ça… ! ». Tous ont vu ça comme une dystopie à part, peut-être, Sam Altman qui a déclaré que c’était son film préféré parce qu’il le trouve incroyablement prophétique.
Et pourtant, moins de dix ans plus tard, on est sur quelque chose d’à peu près similaire. Que s’est-il passé ?
N’est-ce pas plus facile de collaborer avec une machine qui ne dit jamais non, que de travailler avec des humains qui ne sont pas d’accord avec toi ?
LdD. Bien entendu, et c’est bien ce qui amène le fait que les gens se referment sur eux-mêmes. Pourquoi en arrive-t-on là ? Pourquoi est-ce que cela devient difficile quand quelqu’un n’est pas d’accord avec nous ?
John Stuart Mill écrivait dans un livre qui s’appelle De la liberté, à quel point il est essentiel que les gens puissent se dire qu’ils ne sont pas d’accord. Cela permet de réfléchir à ce qui a été dit et d’augmenter sa perspective, et même d’en changer si on se rend compte qu’on avait tort.
“He who knows only his own side of the case knows little of that. His reasons may be good, and no one may have been able to refute them. But if he is equally unable to refute the reasons on the opposite side; if he does not so much as know what they are, he has no ground for preferring either opinion.”
On Liberty — John Stuart Mill 1859
NDLR Par transparence, précisons que nous nous sommes servis de perplexity.ai pour retrouver les citations originales et les sources des ouvrages cités par Louis de Diesbach, prouvant ainsi que l’intelligence artificielle peut également servir la curiosité et l’apprentissage et ainsi contribuer à la connaissance, pour peu qu’on se donne un peu de mal.