Umělá inteligence v poslední době zažívá razantní růst ve schopnostech i v globálním využití. A to jak velké jazykové modely, tak i generativní AI.
Umělá inteligence v poslední době zažívá razantní růst ve schopnostech i v globálním využití. A to jak velké jazykové modely, tak i generativní AI.
Nezahálejí však ani kyberzločinci, kteří podle výzkumníků Avastu už v tuto chvíli aktivně testují nástroje, jako je ChatGPT od společnosti OpenAI.
AI zdokonalí sociální inženýrství, s malwarem ale nepomůže
Generativní AI a další formy umělé inteligence pomohou kyberzločincům vytvářet bezchybné a snáze uvěřitelné vícejazyčné texty, které poskytnou lepší možnosti pro pokročilejší sociální inženýrství. Právě gramatické chyby nebo nepřirozený jazyk jsou totiž jedním ze základních znaků pro rozpoznání podvodu. V budoucnu tak uvidíme více na míru uzpůsobeného phishingu, nejrůznějších podvodů, malvertisingu (tj. škodlivých reklam) nebo podvodných „deepfake“ videí na YouTube zneužívajících známé osobnosti.
Útočníci také využívají popularitu názvu ChatGPT, a to například při tzv. typosquattingu, kdy lákají na podobně vypadající adresy URL nebo dávají do obchodů s aplikacemi podobně pojmenované nástroje. Objevují se i falešná rozšíření do prohlížečů zneužívající název ChatGPT, která uživateli ve skutečnosti nainstalují škodlivý software. Do stejné kategorie lze zařadit i vyskakující zprávy o nové aktualizaci AI nástroje.
Výzkumníci Avastu však neočekávají, že by generativní umělá inteligence v současné podobě kyberzločincům výrazněji pomohla při psaní malwaru jako takovém. Ačkoli to intenzivně testují, stále je potřeba relativně komplikovaný přístup, který se ve srovnání s existujícími jednoduššími postupy nevyplatí. Dobrou zprávou je také to, že samotné nástroje umělé inteligence se umí před zneužitím do jisté míry bránit a dokáží uživatele upozornit na nevhodné požadavky. To jejich použití pro tvorbu spambotů, příspěvků na sociální sítě či falešných recenzí na nákupní portály značně limituje.
AI versus kyberzločinci
Umělá inteligence pomáhá i bezpečnostním výzkumníkům v boji s kyberútočníky, například s identifikací a popisováním detekcí. Není to však zadarmo. Kromě vysokých finančních nákladů (mnohdy i vyšší stovky tisíc dolarů denně) musí výzkumníci dbát i na ochranu soukromí, protože zadané informace se používají k dalšímu trénování nástroje. I zde se navíc projevuje zatím těžko opravitelný problém halucinování umělé inteligence, která v některých případech neposkytuje správné výstupy.
KOMENTÁŘE