Google „Big Sleep“: Když AI chrání dřív, než útočníci zaútočí
Umělá inteligence se čím dál více uplatňuje v obraně proti kyberhrozbám. Nedávný příklad nástroje Googlu jménem „Big Sleep“ ukázal, že AI může odhalit kritickou zranitelnost dříve než hackeři – a tím předejít masovému zneužití.
Co se stalo?
V červenci 2025 identifikoval Big Sleep zranitelnost CVE‑2025‑6965 v open‑source databázi SQLite, kterou používají miliony aplikací napříč platformami. Vada by umožnila útočníkům spustit škodlivý kód přes speciálně upravený SQL dotaz.
Google nečekal na veřejné odhalení – nález oznámil tvůrcům SQLite a ti obratem vydali bezpečnostní aktualizaci. Vše proběhlo předtím, než exploit unikl na internet.
Jak Big Sleep funguje?
Nástroj využívá kombinaci:
-
LLM modelů trénovaných na zranitelnostech a kódu
-
automatizovaného fuzz testování
-
prediktivního hodnocení rizika na základě známých útokových vektorů
AI jako aktivní hráč
-
Rychlost – AI dokáže najít díru v kódu během hodin, místo týdnů
-
Proaktivita – odhalení ještě před zneužitím
-
Škálovatelnost – možnost testovat tisíce open-source knihoven paralelně
Tato událost ukazuje, že AI již není jen obranný štít, ale aktivní hráč na poli prevence.