Anthropic bloque des tentatives de piratage visant à détourner Claude AI pour le cybercrime


Anthropic affirme avoir déjoué plusieurs tentatives de hackers cherchant à transformer son intelligence artificielle Claude en outil de cyberattaque. L’entreprise met en garde contre l’exploitation croissante des modèles d’IA par des acteurs malveillants et appelle à renforcer les mesures de sécurité dans tout le secteur.

Ce qu’il faut retenir :

  • Des hackers ont tenté d’utiliser Claude AI pour rédiger des e‑mails de phishing et du code malveillant.
  • Anthropic a détecté et bloqué ces usages abusifs avant qu’ils ne causent de dommages.
  • Les comptes concernés ont été bannis et les filtres de sécurité renforcés.
  • L’affaire relance le débat sur la régulation des systèmes d’IA à l’échelle internationale.

Claude AI ciblé par des cybercriminels

Anthropic a révélé avoir intercepté plusieurs tentatives de détournement de son modèle Claude AI, utilisées pour générer du contenu illégal ou nuisible. Les pirates auraient cherché à contourner les filtres de sécurité pour rédiger des courriels d’hameçonnage, ajuster du code malveillant ou encore concevoir des campagnes d’influence utilisant des messages persuasifs à grande échelle.

L’entreprise, soutenue par Amazon et Alphabet, a expliqué que ses systèmes internes avaient identifié ces comportements à temps. Les utilisateurs impliqués ont été exclus de la plateforme, et de nouvelles barrières techniques ont été mises en place pour prévenir toute récidive.

Un phénomène en pleine expansion

Selon Anthropic, ces attaques illustrent une tendance inquiétante : l’usage croissant de l’IA pour automatiser et amplifier des activités criminelles. Les chercheurs en cybersécurité alertent sur la capacité des modèles génératifs à produire des messages plus crédibles, à écrire plus rapidement du code ou à simuler des échanges humains de manière convaincante.

Les experts redoutent que cette dynamique n’accélère le passage à une cybercriminalité « industrialisée », où les outils d’IA serviraient de multiplicateurs de puissance pour des hackers, même peu qualifiés.

Une réponse collective attendue

Anthropic souligne suivre des protocoles stricts, incluant des audits externes et des tests réguliers de ses garde‑fous. La société prévoit aussi de publier d’autres rapports sur ce type d’incidents, afin de partager les bonnes pratiques et sensibiliser le secteur.

De leur côté, les gouvernements agissent : l’Union européenne poursuit la mise en place de son AI Act, tandis que les États‑Unis renforcent les engagements volontaires de sécurité imposés aux géants du numérique comme Microsoft, Google et OpenAI.



Source link