CertiK führt AI Auditor mit 88,6 % Trefferquote und rauscharmer Erkennung ein

CertiK, ein Web3-Sicherheitsdienstleister, hat die Veröffentlichung seines AI Auditors zusammen mit einer Reihe von Open-Source-Integrationen für AI-Coding-Agenten angekündigt, heißt es in einer mit Finbold am 7. April geteilten Ankündigung. Das System, das ursprünglich als internes Tool für die Auditoren von CertiK entwickelt wurde, ist nun nach mehr als sechsmonatigen Tests unter realen Bedingungen öffentlich verfügbar. Nach Angaben des Unternehmens wurde AI Auditor anhand von 35 realen Web3-Sicherheitsvorfällen aus dem Jahr 2026 bewertet und erreichte eine kumulative exakte Trefferquote von 88,6 % bei gleichzeitig niedrigem Niveau an Fehlalarmen. Die Einführung spiegelt einen umfassenderen Wandel hin zur direkten Einbettung von Sicherheitstools in Entwicklungsabläufe wider, sodass Teams Schwachstellen früher im Entwicklungsprozess identifizieren und beheben können. CertiK sagte, das System sei darauf ausgelegt, sich in bestehende Umgebungen zu integrieren, Sicherheitseinblicke in Echtzeit zu liefern und die Reaktionszeiten auf potenzielle Bedrohungen zu verkürzen. „Die Frage ist nicht mehr nur, ob KI Schwachstellen finden kann, sondern ob sie Entwicklungsteams wirklich dabei helfen kann, die Sicherheitsprobleme, die es wert ist, früher anzugehen, früher aufzudecken“, sagte Ronghui Gu, Mitbegründer von CertiK. „Durch das Herausfiltern endloser Fehlalarme liefert unser AI Auditor signalstarke, umsetzbare Klarheit – und verwandelt die Sicherheit von einem traditionellen Engpass in einen nahtlosen Beschleuniger für Web3-Teams.“ Das Herzstück des Systems ist eine mehrschichtige Architektur, die auf einem MultiScanner-Framework und einem proprietären Multi-Stage-Validator basiert. Der MultiScanner führt mehrere Erkennungsmodelle parallel aus, um die Abdeckung zu erhöhen, während der Validator Ergebnisse durch Deduplizierung und semantische Auswertung verarbeitet, um irrelevante Warnungen herauszufiltern und umsetzbare Probleme zu priorisieren. CertiK sagte außerdem, dass das System durch eine kontinuierlich aktualisierte Wissensdatenbank unterstützt wird, die Daten aus realen Exploits, Prüfergebnissen und neuen Angriffsmustern enthält. Dadurch kann der AI Auditor bei der Analyse aktuelle Bedrohungsinformationen anwenden. Die Plattform soll menschliche Prüfer ergänzen, indem sie die Basiserkennung, die Triage vor der Prüfung und die kontinuierliche Überwachung übernimmt. Nach Angaben des Unternehmens können sich Sicherheitsteams dadurch auf komplexere Schwachstellen und Risiken auf Protokollebene konzentrieren. Laut CertiK kann der AI Auditor an unterschiedliche Projektanforderungen angepasst werden, einschließlich Variationen in Programmiersprachen, Systemarchitektur und Risikoprofilen, sodass er für dezentrale Finanzen (DeFi) und institutionelle Anwendungsfälle anwendbar ist. Die Veröffentlichung ist Teil der umfassenderen KI-fokussierten Strategie des Unternehmens. Es wird erwartet, dass zusätzliche Funktionen die Sicherheit weiter in Entwicklungstools und Compliance-Workflows integrieren. Ausgewähltes Bild über Shutterstock.