Une vulnérabilité qui aurait pu drainer 2 millions de dollars d'un protocole de prêt décentralisé a été repérée par un auditeur d'IA. L'audit a été réalisé par Sherlock AI, faisant partie d'une vague de systèmes automatisés entrant dans le processus de sécurité.Une vulnérabilité qui aurait pu drainer 2 millions de dollars d'un protocole de prêt décentralisé a été repérée par un auditeur d'IA. L'audit a été réalisé par Sherlock AI, faisant partie d'une vague de systèmes automatisés entrant dans le processus de sécurité.

L'Auditeur IA Signale un Bug de 2M$ dans un Smart Contract Avant son Lancement

2025/10/02 00:27

Une vulnérabilité qui n'a jamais atteint le Mainnet

Quelques semaines avant le lancement d'un protocole de prêt décentralisé de premier plan, un auditeur IA a signalé une vulnérabilité qui aurait permis aux attaquants de siphonner discrètement des fonds.

La faille était simple dans sa conception mais grave dans son impact. La fonction de retrait arrondissait les transactions minuscules à "zéro" dans les soldes des utilisateurs tout en continuant à envoyer des jetons depuis les réserves. En répétant l'action dans une boucle automatisée, un attaquant aurait pu vider entièrement le pool - près de 2 millions de dollars en valeur totale verrouillée (TVL), même avec un solde nul.

Si le bug avait atteint le mainnet, les conséquences auraient été immédiates. Les retraits auraient échoué, les prêts se seraient bloqués, et les déposants auraient découvert que les réserves ne correspondaient plus aux dépôts. Dire que les conséquences auraient été mauvaises serait un euphémisme.

Au lieu de cela, l'exploit a été corrigé avant le déploiement. La découverte n'est pas venue d'une équipe humaine, mais de Sherlock AI, qui fait partie d'une vague de systèmes automatisés entrant désormais dans le processus de sécurité.

Comment fonctionne généralement l'audit de Smart Contract

Les audits de smart contract sont un rituel standard avant le lancement dans la DeFi. Les protocoles engagent des ingénieurs humains pour examiner le code, fonction par fonction, à la recherche de faiblesses. Ces audits ont empêché d'innombrables vulnérabilités d'atteindre la production, mais ils sont limités : coûteux, chronophages et finalement dépendants de l'attention humaine.

Avec des protocoles qui augmentent en taille et en complexité (et des milliards de dépôts d'utilisateurs en jeu), l'industrie a été forcée de chercher de nouvelles approches.

Entrée de l'auditeur IA

Les systèmes d'IA abordent le problème différemment. Ils peuvent scanner le code en continu, signalant les bizarreries mathématiques, les erreurs logiques et les cas limites négligés à vitesse machine. Ils ne remplacent pas les examinateurs humains, mais ils ajoutent une autre paire d'yeux qui ne se fatigue jamais et peut être exécutée sur chaque nouveau commit.

Le bug de prêt de 2 millions de dollars illustre la valeur de ce modèle. Ce qui semblait être un calcul d'arrondi inoffensif aurait été catastrophique en pratique. Un système d'IA l'a signalé avant que les attaquants n'aient eu la chance de l'exploiter.

Sherlock comme étude de cas

Sherlock a été parmi les premières entreprises à opérationnaliser l'audit par IA. Son système a produit un rapport structuré sur le bug de prêt : où l'erreur est apparue, comment elle pourrait être exploitée, et à quoi pourrait ressembler les retombées financières.

"La détection de ce problème a montré que les auditeurs IA changent déjà les résultats", a déclaré un membre de l'équipe Sherlock. "Ils ne sont plus théoriques. Ils font remonter des erreurs que les audits humains pourraient ne pas détecter."

Bien que Sherlock ait fourni l'exemple, l'histoire plus large concerne l'arrivée d'une nouvelle catégorie. Tout comme les cabinets d'audit professionnels sont devenus la norme pour les projets DeFi, les auditeurs IA commencent à se tailler une place dans le processus.

Pourquoi l'industrie devrait y prêter attention

La DeFi a déjà perdu des milliards à cause de bugs et de failles logiques. Chaque incident non seulement vide les portefeuilles mais érode la confiance dans la blockchain dans son ensemble. La promesse des auditeurs IA n'est pas la perfection, mais une défense supplémentaire - un moyen de faire remonter les erreurs à grande échelle et de réduire les chances que des vulnérabilités dommageables passent inaperçues.

La combinaison de l'examen humain et de la supervision par IA pourrait bientôt devenir la nouvelle norme. La découverte de 2 millions de dollars sert comme l'un des premiers points de preuve publics de ce changement.

Perspectives d'avenir

Le bug n'a jamais touché le mainnet, mais il pourrait marquer un point d'inflexion. Pour les protocoles, les auditeurs IA produisent déjà des résultats tangibles, prévenant les pertes et remodelant la façon dont les équipes pensent à la sécurité avant le lancement.

Ce moment pourrait être moins mémorable pour le bug lui-même que pour ce qu'il représente : l'émergence des auditeurs IA comme une nouvelle catégorie dans la sécurité Web3.

À propos de Sherlock

Sherlock se décrit comme un partenaire de sécurité pour tout le cycle de vie des smart contracts, combinant chercheurs, tests adversariaux, systèmes d'IA et couverture financière. L'entreprise soutient les protocoles depuis la construction jusqu'au lancement et aux mises à jour continues, traitant la sécurité comme un processus continu plutôt qu'un événement unique. La semaine dernière, Sherlock a ajouté Sherlock AI à sa suite, introduisant une revue de code automatisée conçue pour renforcer les audits humains avec une surveillance constante.

:::tip Cette histoire a été publiée comme communiqué de presse par Btcwire dans le cadre du Programme de blogging d'affaires de HackerNoon. Faites vos propres recherches avant de prendre toute décision financière.

:::

\ \

\n

Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter [email protected] pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.