GPT, Deepseek, Mistral, Claude… quelle IA choisir ?


L’intelligence artificielle générative et en particulier les modèles de LLM (Large Language Models ou grands modèles de langage) bouleverse le paysage numérique actuel. Depuis l’arrivée fracassante de ChatGPT, le public découvre ces outils aux capacités impressionnantes. Du fait de cette abondance d’offres (ChatGPT, Deepseek, Mistral, Claude), il devient compliqué de choisir le meilleur outil adapté à ses besoins. Numerikissimo a organisé le 22 avril 2025 une conférence Web pour démêler ces outils, leurs usages réels, leurs atouts et limites. Elle a regroupé des experts reconnus du secteur numérique et avait pour but de guider entreprises et professionnels dans leurs choix technologiques. L’accent est mis sur l’expérimentation pratique, la sécurité des données et les impacts opérationnels concrets en entreprise. Un échange clair et pragmatique pour faciliter l’adoption réfléchie de ces nouveaux outils.

GPT, Deepseek, Mistral, Claude… quelle IA choisir ?

Modèles LLM
L’intelligence artificielle générative et en particulier les modèles de LLM (Large Language Models ou grands modèles de langage) bouleverse le paysage numérique actuel. Mais quel modèle choisir ? Telle est la question à laquelle ce webinaire a tenté de répondre.

TL; DR : recommandations pour les lecteurs pressés

  • Il est recommandé de choisir les outils selon les usages précis plutôt que leur popularité.
  • Et de tester régulièrement pour optimiser l’outil choisi (sans pour autant perdre tout son temps à tout tester, ce qui est impossible).
  • ChatGPT est apprécié pour sa simplicité générale.
  • Claude est jugé excellent pour le développement et l’écriture précise.
  • Les critères de choix essentiels : coût, sécurité des données et la conformité RGPD.
  • Les plateformes émergentes (Gemini, Mistral, Deepseek) avec des bénéfices variés.
  • Nous allons assister à une transformation profonde des métiers via l’IA générative.
  • C’est déjà largement le cas des métiers du développement.
  • Pour cela, il faudra accompagner les collaborateurs, ce sera indispensable.
  • Il faut s’attendre à des progrès attendus dans les interfaces conversationnelles et agents autonomes.

Présentation des intervenants (par ordre alphabétique des prénoms)

  • David Fayon : Expert numérique, initiateur de Numerikissimo, responsable innovation numérique à La Poste.
  • Emilie Marquois (animatrice de la réunion) : Free-lance spécialisée médias sociaux depuis 15 ans, membre de Numerikissimo.
  • Guillaume Calfati : Consultant en IA et automatisation, ancien responsable IA générative chez Stellantis.
  • Sarah Martineau : Cofondatrice et directrice des opérations chez Ideta, spécialisée en chatbots multi-IA.
  • Yann Gourvennec : Fondateur de Visionary Marketing, auteur et consultant

Points à retenir de la conférence Web

Voici en quelques points assez succincts les principaux enseignements à tirer de ce webinaire. Il est néanmoins conseillé de se référer à l’enregistrement intégral de cette conférence pour en savoir plus. Par transparence, et aussi pour la pertinence de l’exercice vis-à-vis du thème de la conférence, nous nous sommes aidés de Gladia pour la transcription de la conférence, et de ChatGPT 4.5 pour analyser cette transcription. L’ensemble a néanmoins été relu, corrigé et augmenté par nos soins, prouvant ainsi une fois de plus que la machine peut aider dans les corvées (transcription, correction des fautes de frappe ou de transcription…), mais que l’humain doit toujours garder la main sur le résultat final et ajouter sa propre valeur ajoutée et son analyse.

Modèles de LLM
Charles Handy nous décrivait déjà comme des « analystes symboliques » il y a 30 ans, alors que nous étions encore très loin du niveau d’abstraction atteint aujourd’hui. Raison de plus pour savoir choisir ses outils, et en particulier les modèles de LLM, et garder la main dessus.

Le phénomène ChatGPT et l’explosion de l’IA générative

ChatGPT a démocratisé les chatbots en les rendant compréhensibles pour tous. Selon Sarah Martineau : « Avec ChatGPT, tout le monde comprend désormais ce qu’est un chatbot ». Yann Gourvennec note aussi que ce n’est pas le premier outil de ce type, mais sa facilité d’usage a provoqué l’adhésion massive du public.

Cette adhésion massive impose de clarifier les outils, en termes de modèles et d’interfaces. À ce sujet, Sarah Martineau explique que « Le modèle et l’interface sont deux choses bien distinctes ».

Le modèle génère le contenu tandis que l’interface facilite l’interaction. Elle précise que les agents IA automatisent des tâches spécifiques grâce aux modèles d’IA.

Sarah Martineau

Performances et spécificités techniques

Chaque outil excelle dans certains domaines, ont déclaré unanimement les experts de la conférence. Claude d’Anthropic, comme l’indique Sarah Martineau, est « particulièrement performant dans le code ». En revanche, ChatGPT reste un bon compromis pour un usage général, comme le souligne Yann Gourvennec : « ChatGPT est moyen partout, mais facile à utiliser ».

Mais quels sont les critères pratiques pour bien choisir ses modèles de LLM préférés ? Ces critères ne peuvent être uniquement ceux des performances techniques. David Fayon souligne ainsi que la sécurité des données et le respect du RGPD sont essentiels : « Certains outils comme Deepseek, par exemple, peuvent être bloqués en entreprise à cause de leur origine géographique ».

Impact des modèles de LLM sur les organisations

Guillaume Calfati insiste sur la nécessité d’une veille constante : « Il faut absolument tester en permanence, c’est mon métier d’y consacrer plusieurs heures chaque jour ». La veille permet d’identifier rapidement les meilleures solutions à adopter. Il ne faut pas cependant passer sa vie à tester, a insisté Yann Gourvennec. Si Guillaume en a fait son métier, ce n’est pas le cas de tout le monde. Il est donc indispensable selon lui de maintenir le focus sur son métier principal et se satisfaire des outils qui répondent au besoin sans toujours aller chercher mieux.

Quel est l’impact sur les entreprises ? Les entreprises adaptent souvent ces technologies à leurs besoins spécifiques, créant ainsi leurs propres interfaces. Guillaume Calfati note :

Aujourd’hui, les entreprises créent leurs propres solutions basées sur ces outils, ce qui modifie profondément leur fonctionnement interne

Guillaume Calfati

Cela entraîne une réorganisation des directions informatiques (DSI) nous explique Guillaume.

Le cas particulier du développement logiciel

Selon Guillaume, l’IA change totalement la manière de coder : « Aujourd’hui, on utilise simultanément plusieurs outils d’IA pour coder ». Il ajoute que cette pratique devient la norme et transforme le métier même de développeur. Il précise aussi que ces technologies simplifient grandement les processus internes en automatisant des tâches auparavant complexes.

Conclusion

Cette conférence souligne l’importance d’une adoption pragmatique et raisonnée des outils d’IA générative. Tester régulièrement et assurer une veille continue restent les clés d’une utilisation efficace. Si les capacités techniques des outils sont cruciales, leur adéquation aux besoins réels, la sécurité des données et le respect réglementaire demeurent indispensables.

Quelques réflexions sur les imites et la fiabilité des IA génératives

Malgré leur puissance, ces outils ne sont pas exempts de défauts. David Fayon rappelle l’importance des contrôles de véracité : « L’IA générative est encore à l’origine de nombreuses erreurs, il est essentiel de contrôler les résultats ». Guillaume Calfati abonde dans ce sens : « Il faut souvent vérifier les résultats avec d’autres outils pour garantir leur exactitude ».

Ajouter son intelligence à l’artificiel

On pourrait ajouter à cela que l’humain peut aussi ajouter son intelligence (cf. article ci-dessous), c’est même un de mes principaux conseils aux élèves, apprenants et à nos lecteurs. Si l’IA permet d’aller vite, comme pour la production de ce résumé, elle n’est pas exempte de défauts. Les modèles de LLM actuels ont toujours autant de mal à compter. Demander à ChatGPT ou ses clones de compter 2 000 mots relève de l’exploit.

Comment écrire avec intelligence mais sans artifice ?

Dans le cas présent, il a fallu le pousser dans ses retranchements pour produire un résumé correct d’environ 1 000 mots. Mais la quantité de contenu n’est pas le seul critère, loin de là. Les modèles de LLM ont encore une fâcheuse tendance à éviter les points importants dans un résumé comme celui-ci. Les anecdotes, qui font pourtant le sel de l’apprentissage en B2B, sont souvent occultées par les modèles de langage, même les plus sophistiqués. Et il n’est pas rare qu’ils passent à côté de nombreux points pourtant importants.

La culture est plus importante que la technique

Cela est compréhensible. Déjà entre humains, nous ne serions pas d’accord pour décréter ce qui est et n’est pas important dans un texte. Nous avons tous des expériences différentes et des expertises complémentaires, des centres d’intérêt différents et des points de vue divergents. Mais les modèles de LLM n’ont quant à eux ni point de vue, ni expertise, ni expérience du terrain. Leur manière de résumer un texte et de synthétiser s’apparente plus de la technique du pique-nique que de celle de la contraction de texte, discipline fortement technique et intellectuelle, que nous avons apprise sur les bancs des classes préparatoires quand celles-ci faisaient encore la part belle à la culture et aux sciences humaines.

Sans ce vernis culturel, les lecteurs du futur devront redoubler de vigilance et ne pas se laisser endormir par les prouesses technologiques, de plus en plus extraordinaires de ces outils. En ce sens, les agents intelligents comme Manus, bien embryonnaires et lacunaires aujourd’hui, mais prometteurs demain, mettront nos esprits critiques à rude épreuve dans les années qui viennent.

Pour rejoindre l’annuaire des top acteurs du numérique 2025

Rejoindre le Top acteurs du numérique 2025



Source link