Kyberhrozby založené na AI postupně narůstají

DomůKyberbezpečnost

Kyberhrozby založené na AI postupně narůstají

Umělá inteligence v poslední době zažívá razantní růst ve schopnostech i v globálním využití. A to jak velké jazykové modely, tak i generativní AI. 

Průzkum: 90 procent startupů chce umělou inteligenci nabídnout v produktu
Značky se zabydlují v Metaverzu: Nike, Adidas, Red Bull nebo Coca Cola
IT firmy hledají rovnováhu mezi AI inovacemi a klíčovými technologiemi
Jakub Pavlák: Ve vývoji Y Soft používáme týmové programování i online interakci

Umělá inteligence v poslední době zažívá razantní růst ve schopnostech i v globálním využití. A to jak velké jazykové modely, tak i generativní AI. 

Nezahálejí však ani kyberzločinci, kteří podle výzkumníků Avastu už v tuto chvíli aktivně testují nástroje, jako je ChatGPT od společnosti OpenAI.

AI zdokonalí sociální inženýrství, s malwarem ale nepomůže

Generativní AI a další formy umělé inteligence pomohou kyberzločincům vytvářet bezchybné a snáze uvěřitelné vícejazyčné texty, které poskytnou lepší možnosti pro pokročilejší sociální inženýrství. Právě gramatické chyby nebo nepřirozený jazyk jsou totiž jedním ze základních znaků pro rozpoznání podvodu. V budoucnu tak uvidíme více na míru uzpůsobeného phishingu, nejrůznějších podvodů, malvertisingu (tj. škodlivých reklam) nebo podvodných „deepfake“ videí na YouTube zneužívajících známé osobnosti.

Útočníci také využívají popularitu názvu ChatGPT, a to například při tzv. typosquattingu, kdy lákají na podobně vypadající adresy URL nebo dávají do obchodů s aplikacemi podobně pojmenované nástroje. Objevují se i falešná rozšíření do prohlížečů zneužívající název ChatGPT, která uživateli ve skutečnosti nainstalují škodlivý software. Do stejné kategorie lze zařadit i vyskakující zprávy o nové aktualizaci AI nástroje.

Výzkumníci Avastu však neočekávají, že by generativní umělá inteligence v současné podobě kyberzločincům výrazněji pomohla při psaní malwaru jako takovém. Ačkoli to intenzivně testují, stále je potřeba relativně komplikovaný přístup, který se ve srovnání s existujícími jednoduššími postupy nevyplatí. Dobrou zprávou je také to, že samotné nástroje umělé inteligence se umí před zneužitím do jisté míry bránit a dokáží uživatele upozornit na nevhodné požadavky. To jejich použití pro tvorbu spambotů, příspěvků na sociální sítě či falešných recenzí na nákupní portály značně limituje.

AI versus kyberzločinci

Umělá inteligence pomáhá i bezpečnostním výzkumníkům v boji s kyberútočníky, například s identifikací a popisováním detekcí. Není to však zadarmo. Kromě vysokých finančních nákladů (mnohdy i vyšší stovky tisíc dolarů denně) musí výzkumníci dbát i na ochranu soukromí, protože zadané informace se používají k dalšímu trénování nástroje. I zde se navíc projevuje zatím těžko opravitelný problém halucinování umělé inteligence, která v některých případech neposkytuje správné výstupy.

KOMENTÁŘE

WORDPRESS: 0
DISKUZE 0