TOP

KYBEZ

Vliv umělé inteligence na kybernetickou bezpečnost

Autor obsahu – Michaela Petrášová

V posledních letech má rychlý rozvoj umělé inteligence zásadní dopad na různá průmyslová odvětví. Jedním z odvětví, které bylo výrazně ovlivněno, je kybernetická bezpečnost. Umělá inteligence tak způsobila revoluci ve způsobu zavádění a řízení opatření kybernetické bezpečnosti.

 

Revoluční AI v kybernetické bezpečnosti: Odhalování hrozeb, automatizace úkolů a predikce budoucích útoků

Díky využití umělé inteligence v oblasti kybernetické bezpečnosti jsou organizace schopny účinněji a efektivněji odhalovat kybernetické hrozby a reagovat na ně.

S pomocí analýzy obrovského množství dat v reálném čase mohou systémy kybernetické bezpečnosti poháněné umělou inteligencí rychle identifikovat vzorce a anomálie, které mohou naznačovat potenciální kybernetický útok. To organizacím umožňuje přijmout proaktivní opatření k prevenci nebo zmírnění dopadu takových útoků.

Kromě toho může umělá inteligence pomoci při automatizaci rutinních úkolů kybernetické bezpečnosti, jako je “záplatování” (patching) systémů a skenování zranitelností, což snižuje zátěž bezpečnostních analytiků, dává jim tak prostor soustředit se na složitější a strategičtější úkoly.

Mimo to může AI také pomoci při vývoji pokročilých prediktivních analytických modelů, které mohou předvídat budoucí kybernetické hrozby a předcházet jim. Například algoritmy strojového učení se mohou neustále učit z nových dat a přizpůsobovat své modely tak, aby udržely náskok před vyvíjejícími se technikami útoků.

 

Odvrácená strana AI

Jak tomu již u některých věcí bývá, je i nakládání s AI dvojsečný meč. V případě kyberbezpečnosti mohou škodliví aktéři využívat stejné nástroje umělé inteligence, které jsou určeny pro dobro lidí, k páchání škodlivých činů, jako jsou podvody. Za příklad si můžeme vzít již známý ChatGPT, který vzal svět útokem, a ač je regulován na rozpoznání škodlivých záměrů uživatelů, je stále relativně snadno zmanipulovatelný k získání postupu, jak například hacknout systémy. Mimo jiné má pro tyto činnosti vytvořené i svoje “”temné” dvojče, WormGPT, přímo specializované na generování postupu kyberútoků dle požadavků uživatele.

 

Nebezpečí phishingu s využitím umělé inteligence

Umělá inteligence může posílit také postavení kyberzločinců a hackerů, zejména v oblasti sociálního inženýrství, protože již mají možnost, včetně skupin ransomwaru, využívat AI k efektivnějším kybernetickým operacím, jako je phishing, což je klíčový prvek kyberkriminality. Děje se tomu tak, že generativní umělá inteligence (GenAI) je schopna vytvářet přesvědčivé, personalizovanější interakce a lákavé dokumenty bez typických chyb při phishingu a chatovací boti také mohou generovat přirozeně znějící jazyk, čímž se vyhnou detekci phishingových útoků na základě jazyka, a ztíží ještě více jejich identifikaci. Ochrany v chatovacích botech mohou být také přepracovány tak, aby umožňovaly phishingové útoky, čímž se tradiční metody detekce stávají méně účinnými.

Dle odhadů se předpokládá, že tento trend přetrvá i po roce 2025.

 

Malware a hrozba strojového učení

Boom s AI přinesl lepší prostředky pro kyberzločince k urychlení a vylepšení jejich útoků i mimo sociální sféru. Generativní umělá inteligence a chatovací boti mohou tedy sloužit i jako prostředník při útoku, jsou schopni psát kód pro efektivnější vývoj nových variant malwaru a zadních vrátek (backdoor), tím se myslí jakýkoliv přístup, kterým mohou oprávněné i neoprávněné osoby obejít standardní bezpečnostní protokoly a získat zvýšená uživatelská oprávnění (běžně známá jako root přístup) v počítačovém systému, síti nebo softwarové aplikaci.

 

Čemu dnes věřit?

AI může zásadním způsobem ovlivnit i rovinu, jakou jsme vystaveni šíření dezinformací v kyberprostoru. Odhodlaní útočníci mohou do systémů umělé inteligence vnést špatné informace, což vede k dezinformacím a falešným údajům.

Na to navazuje i vzestup tzv.”deep fakes”, tedy faktoidů, které mohou ovlivňovat veřejné mínění o důležitých záležitostech, hýbat s cenami akcií či napáchat problémy o ještě razantnějších dopadech. Systémy umělé inteligence dokáží vytvářet tyto padělky, které napodobují podobu, hlas a chování jednotlivců, což může vést k šíření těchto falešných informací a to následně ztěžuje ověřování důvěryhodných zdrojů.

 

Jsou má data v bezpečí?

Systémy AI často sumarizují data z webů, zahrnující i osobní údaje uživatelů, neboť představují základní vzdělávací materiál pro trénování modelů AI nebo k personalizování zkušenosti zákazníků. S větším kvantem dat je umělá inteligence taky schopna lepší adaptace a efektivnějšího učení. Z toho však mohou plynout otázky o bezpečnosti svých údajů poskytujícím AI, která si tyto data archivuje, včetně předchozích konverzací z chatů s AI.

Často tedy i nevědomky poskytnutá citlivá informace, pokud nejsou data dostatečně ošetřená, může hrát roli pro aktivitu kyberzločinů např. při úniku dat.

I přes vědomí této hrozby a veškeré snahy organizací posílit svou ochranu proti ransomwaru se zdá, že případy ztráty nebo úniku dat pravděpodobně vzrostou. Rostoucí závislost na SaaS platformách, které ukládají citlivá data jako součást aplikačních služeb, může být klíčovým faktorem, který hackeři budou zkoušet zneužít.

S tímto se dostává do hledáčku hackerů cloud computing, který nabízí model SaaS. Se vzestupem GenAI rostou i náklady pro provoz, které mohou růst až k desítkám milionů dolarů. Cloud s přístupem ke zdrojům pro manipulaci AI tak přestavuje vidinu velkého bohatství pro kyberzločince.

 

ZDROJE:

Artificial Intelligence in Business: From Research and Innovation to Market Deployment, Soni et al., 2020

https://www.malwarebytes.com/backdoor

https://www.youtube.com/watch?v=cjy5jpRS_S0

https://www.rmol.cz/novinky/rok-2024-podle-check-pointu-ai-v-rukou-kyberzlocincu-vzestup-hacktivismu-i-kybervalek

https://www.root.cz/clanky/postrehy-z-bezpecnosti-umela-inteligence-na-draze-zlocinu/

https://www.itsecurityguru.org/2023/11/16/top-5-risks-of-artificial-intelligence/