Wochen bevor ein führendes dezentrales Kreditprotokoll starten sollte, meldete ein KI-Prüfer eine Sicherheitslücke, die es Angreifern ermöglicht hätte, still und leise Gelder abzuschöpfen.
Der Fehler war einfach im Design, aber schwerwiegend in der Auswirkung. Die Auszahlungsfunktion rundete winzige Transaktionen in Benutzerkonten auf "Null" ab, während trotzdem Token aus den Reserven gesendet wurden. Durch Wiederholung dieser Aktion in einer automatisierten Schleife hätte ein Angreifer den Pool vollständig leeren können - fast 2 Millionen Dollar an gesamtem gesperrten Wert (TVL), selbst mit einem Nullsaldo.
Hätte der Fehler das Mainnet erreicht, wären die Folgen unmittelbar gewesen. Auszahlungen würden fehlschlagen, die Kreditvergabe würde zum Erliegen kommen, und Einleger würden feststellen, dass die Reserven nicht mehr mit den Einlagen übereinstimmen. Zu sagen, dass die Auswirkungen schlecht gewesen wären, wäre eine Untertreibung.
Stattdessen wurde die Sicherheitslücke vor der Bereitstellung behoben. Die Entdeckung kam nicht von einem menschlichen Team, sondern von Sherlock AI, Teil einer Welle automatisierter Systeme, die jetzt in den Sicherheitsprozess eintreten.
Smart Contract Audits sind ein Standard-Ritual vor dem Start in DeFi. Protokolle beauftragen menschliche Ingenieure, Code Funktion für Funktion zu überprüfen, auf der Suche nach Schwachstellen. Diese Audits haben unzählige Sicherheitslücken davon abgehalten, jemals in die Produktion zu gelangen, aber sie sind eingeschränkt: teuer, zeitaufwändig und letztendlich abhängig von menschlicher Konzentration.
Mit Protokollen, die in Größe und Komplexität wachsen (und Milliarden an Benutzereinlagen auf dem Spiel stehen), war die Branche gezwungen, nach neuen Ansätzen zu suchen.
KI-Systeme gehen das Problem anders an. Sie können kontinuierlich Code scannen und mathematische Eigenheiten, logische Fehler und übersehene Randfälle mit Maschinengeschwindigkeit kennzeichnen. Sie ersetzen keine menschlichen Prüfer, sondern fügen ein weiteres Paar Augen hinzu, das nie müde wird und bei jedem neuen Commit eingesetzt werden kann.
Der 2-Millionen-Dollar-Kreditfehler veranschaulicht den Wert dieses Modells. Was wie eine harmlose Rundungsberechnung aussah, wäre in der Praxis katastrophal gewesen. Ein KI-System hat es markiert, bevor Angreifer überhaupt die Chance hatten.
Sherlock gehört zu den ersten Unternehmen, die KI-Auditing operationalisiert haben. Sein System erstellte einen strukturierten Bericht über den Kreditfehler: wo der Fehler auftrat, wie er ausgenutzt werden könnte und wie die finanziellen Folgen aussehen könnten.
"Die Entdeckung dieses Problems zeigte, dass KI-Prüfer bereits Ergebnisse verändern", sagte ein Sherlock-Teammitglied. "Sie sind nicht mehr theoretisch. Sie bringen Fehler ans Licht, die menschliche Audits möglicherweise nicht entdecken."
Während Sherlock das Beispiel lieferte, geht es in der breiteren Geschichte um die Ankunft einer neuen Kategorie. So wie professionelle Prüfungsunternehmen einst zum Standard für DeFi-Projekte wurden, beginnen KI-Prüfer, ihren Platz im Prozess zu finden.
DeFi hat bereits Milliarden durch Fehler und logische Mängel verloren. Jeder Vorfall leert nicht nur Geldbörsen, sondern untergräbt auch das Vertrauen in die Blockchain als Ganzes. Das Versprechen von KI-Prüfern ist nicht Perfektion, sondern zusätzliche Verteidigung - eine Möglichkeit, Fehler im großen Maßstab aufzudecken und die Wahrscheinlichkeit zu verringern, dass schädliche Sicherheitslücken durchrutschen.
Die Kombination aus menschlicher Überprüfung und KI-Überwachung könnte bald zur neuen Normalität werden. Die 2-Millionen-Dollar-Entdeckung dient als einer der ersten öffentlichen Beweise für diese Verschiebung.
Der Fehler hat das Mainnet nie berührt, könnte aber einen Wendepunkt markieren. Für Protokolle produzieren KI-Prüfer bereits greifbare Ergebnisse, verhindern Verluste und gestalten neu, wie Teams über Sicherheit vor dem Start denken.
Dieser Moment könnte weniger für den Fehler selbst in Erinnerung bleiben als für das, was er repräsentiert: das Aufkommen von KI-Prüfern als neue Kategorie in der Web3-Sicherheit.
Sherlock beschreibt sich selbst als Full-Lifecycle-Sicherheitspartner für Smart-Contracts, der Forscher, gegnerisches Testen, KI-Systeme und finanzielle Abdeckung kombiniert. Das Unternehmen unterstützt Protokolle vom Aufbau über den Start bis hin zu laufenden Updates und behandelt Sicherheit als kontinuierlichen Prozess und nicht als einmaliges Ereignis. Letzte Woche fügte Sherlock seiner Suite Sherlock AI hinzu und führte eine automatisierte Code-Überprüfung ein, die darauf ausgelegt ist, menschliche Audits durch ständige Überwachung zu verstärken.
:::tip Diese Geschichte wurde als Pressemitteilung von Btcwire im Rahmen des Business Blogging Programms von HackerNoon veröffentlicht. Führen Sie Ihre eigene Recherche durch, bevor Sie finanzielle Entscheidungen treffen.
:::
\ \
\n

