Quelques semaines avant le lancement d'un protocole de prêt décentralisé de premier plan, un auditeur IA a signalé une vulnérabilité qui aurait permis aux attaquants de siphonner discrètement des fonds.
La faille était simple dans sa conception mais grave dans son impact. La fonction de retrait arrondissait les transactions minuscules à "zéro" dans les soldes des utilisateurs tout en continuant à envoyer des jetons depuis les réserves. En répétant l'action dans une boucle automatisée, un attaquant aurait pu vider entièrement le pool - près de 2 millions de dollars en valeur totale verrouillée (TVL), même avec un solde nul.
Si le bug avait atteint le mainnet, les conséquences auraient été immédiates. Les retraits auraient échoué, les prêts se seraient bloqués, et les déposants auraient découvert que les réserves ne correspondaient plus aux dépôts. Dire que les conséquences auraient été mauvaises serait un euphémisme.
Au lieu de cela, l'exploit a été corrigé avant le déploiement. La découverte n'est pas venue d'une équipe humaine, mais de Sherlock AI, qui fait partie d'une vague de systèmes automatisés entrant désormais dans le processus de sécurité.
Les audits de smart contract sont un rituel standard avant le lancement dans la DeFi. Les protocoles engagent des ingénieurs humains pour examiner le code, fonction par fonction, à la recherche de faiblesses. Ces audits ont empêché d'innombrables vulnérabilités d'atteindre la production, mais ils sont limités : coûteux, chronophages et finalement dépendants de l'attention humaine.
Avec des protocoles qui augmentent en taille et en complexité (et des milliards de dépôts d'utilisateurs en jeu), l'industrie a été forcée de chercher de nouvelles approches.
Les systèmes d'IA abordent le problème différemment. Ils peuvent scanner le code en continu, signalant les bizarreries mathématiques, les erreurs logiques et les cas limites négligés à vitesse machine. Ils ne remplacent pas les examinateurs humains, mais ils ajoutent une autre paire d'yeux qui ne se fatigue jamais et peut être exécutée sur chaque nouveau commit.
Le bug de prêt de 2 millions de dollars illustre la valeur de ce modèle. Ce qui semblait être un calcul d'arrondi inoffensif aurait été catastrophique en pratique. Un système d'IA l'a signalé avant que les attaquants n'aient eu la chance de l'exploiter.
Sherlock a été parmi les premières entreprises à opérationnaliser l'audit par IA. Son système a produit un rapport structuré sur le bug de prêt : où l'erreur est apparue, comment elle pourrait être exploitée, et à quoi pourrait ressembler les retombées financières.
"La détection de ce problème a montré que les auditeurs IA changent déjà les résultats", a déclaré un membre de l'équipe Sherlock. "Ils ne sont plus théoriques. Ils font remonter des erreurs que les audits humains pourraient ne pas détecter."
Bien que Sherlock ait fourni l'exemple, l'histoire plus large concerne l'arrivée d'une nouvelle catégorie. Tout comme les cabinets d'audit professionnels sont devenus la norme pour les projets DeFi, les auditeurs IA commencent à se tailler une place dans le processus.
La DeFi a déjà perdu des milliards à cause de bugs et de failles logiques. Chaque incident non seulement vide les portefeuilles mais érode la confiance dans la blockchain dans son ensemble. La promesse des auditeurs IA n'est pas la perfection, mais une défense supplémentaire - un moyen de faire remonter les erreurs à grande échelle et de réduire les chances que des vulnérabilités dommageables passent inaperçues.
La combinaison de l'examen humain et de la supervision par IA pourrait bientôt devenir la nouvelle norme. La découverte de 2 millions de dollars sert comme l'un des premiers points de preuve publics de ce changement.
Le bug n'a jamais touché le mainnet, mais il pourrait marquer un point d'inflexion. Pour les protocoles, les auditeurs IA produisent déjà des résultats tangibles, prévenant les pertes et remodelant la façon dont les équipes pensent à la sécurité avant le lancement.
Ce moment pourrait être moins mémorable pour le bug lui-même que pour ce qu'il représente : l'émergence des auditeurs IA comme une nouvelle catégorie dans la sécurité Web3.
Sherlock se décrit comme un partenaire de sécurité pour tout le cycle de vie des smart contracts, combinant chercheurs, tests adversariaux, systèmes d'IA et couverture financière. L'entreprise soutient les protocoles depuis la construction jusqu'au lancement et aux mises à jour continues, traitant la sécurité comme un processus continu plutôt qu'un événement unique. La semaine dernière, Sherlock a ajouté Sherlock AI à sa suite, introduisant une revue de code automatisée conçue pour renforcer les audits humains avec une surveillance constante.
:::tip Cette histoire a été publiée comme communiqué de presse par Btcwire dans le cadre du Programme de blogging d'affaires de HackerNoon. Faites vos propres recherches avant de prendre toute décision financière.
:::
\ \
\n


