Bezpečnostní rizika využívání ChatGPT ve firmách

DomůKomentáře

Bezpečnostní rizika využívání ChatGPT ve firmách

Generativní umělá inteligence se stává běžnou součástí pracovních postupů ve firmách i mezi jednotlivci. Stejně jako každá jiná technologická novinka je i tato doprovázena potřebou naučit se nové postupy. Týká se to i kybernetické bezpečnosti.

Matyáš Rezek novým obchodním ředitelem iBusiness Thein
J&T Thein SICAV, podfond Digital, zdvojnásobil tržby v kyberbezpečnosti
Budníkův Thein zakládá divizi pro Kyberbezpečnost
Vlastimil Chramosta střídá Martina Hance na pozici CEO v Thein Digital

Generativní umělá inteligence se stává běžnou součástí pracovních postupů ve firmách i mezi jednotlivci. Stejně jako každá jiná technologická novinka je i tato doprovázena potřebou naučit se nové postupy. Týká se to i kybernetické bezpečnosti.

Generativní AI jako je ChatGPT, Bing Chat či Bard jsou založeny na konverzací s umělou inteligencí. Pokládané dotazy mohou ale velmi často obsahovat důvěrné informace, ať už osobní nebo firemní. Při využití pro programování částí nebo celého kódu může být nevhodné ho poskytovat mimo firmu. Ať už z pohledu důvěrnosti kódu nebo například toho, že může obsahovat přihlašovací a jiné zneužitelné údaje.

Rizikové to může být hned ze dvou důvodů. Konverzace odeslané do ChatGPT (a dalších) se ukládají u provozovatele a pokud někdo získá přístup k vašemu účtu v ChatGPT, získá přístup i k tam uloženým konverzacím. Stejně tak mohou být tam uložené informace ohroženy bezpečnostní chybou, zneužity někým u provozovatele.

“Umělé inteligence se navíc ze získaných dotazů i odpovědí mohou učit kód či informace poskytnutý uživatelem se tak mohou stát součástí modelu a dostat se tak k dalším uživatelům. Rizikové je i sdílení konverzací, které ChatGPT podporuje. Pro přístup ke konverzacím stačí znalost odkazu a pokud se nějaká citlivá konverzace dostane na veřejnost, vzniká další zásadní riziko. V ChatGPT je možné zamezit ukládání konverzací, ale není to dostatečné, ze systémů budou mazány až po 30 dnech,” varuje Irena Hýsková, ředitelka Thein Security.

Rizikový může být i samotný účet, který v placené podobě je spojen s údaji o platební kartě a může být odcizen. Lze se tomu, alespoň u ChatGPT, bránit nastavením dvoufaktorového ověření. Zásadní problém může být únik přihlašovacích údajů u přístupu k API, kde útočník může čerpáním API způsobit finanční škodu.

Množící se výskyt podvodných ChatGPT aplikací v App Store i Google Play ukazuje i na další zásadní riziko. Zaměstnanci i jednotlivci mohou uvedením v omyl a stažením podvodné aplikace přijít nejen k úhoně finanční, ale vzniká zde i další riziko v podobě nejistoty kam ještě takové aplikace posílají dotazy i odpovědí.

Zásadním rizikem pro firemní prostředí budou i snahy tvůrců malware či phishingu/spear phishingu a sociálního inženýrství využívat popularitu ChatGPT (a dalších). Hrozby se budou navíc určitě do budoucna objevovat i v pluginech, rožšířeních, které ChatGPT podporuje.

Stejně tak rizikové může být využití kódu generovaného umělou inteligenci bez důkladného prověření funkčnosti a bezpečnosti.

Jak rizika řešit?

Nejspolehlivější řešení výše uvedených rizik ve firemním prostředí by bylo využití komerčních řešení kde generativní Ai je nasazena jako izolovaná služba jen pro konkrétní firmu. Něco takového je možné například u Microsoftu a rozhodně se vyplatí to zvažovat tam, kde budete využívat AI ve velkém.

Jako všude i zde platí, že účty je nutné chránit, tedy kvalitní silná hesla, aktivované dvoufaktorové ověření a vyvarovat s sdílení přístupů.

Důležitou roli zde hraje i vzdělávání uživatelů. Stejně jako u základní kybernetické bezpečnosti je nutné uživatele naučit jak mají AI používat, jaké údaje je možné AI předávat, jasně nastavit pravidla, poskytnout řadu praktických příkladů.

V situacích kdy hrozí, že by do generativní AI mohly z firmy odcházet zásadně důvěrné či nebezpečné informace je namístě zvážit kompletní nebo částečné omezení přístupu ke generativním inteligencím. Součástí opatření by mělo být i aktivní monitorování sítí na komunikaci, včetně všech mobilních zařízení používaných zaměstnanci. A rozhodně nezapomenout i na často mírně opomíjená rizika práce z domova.

Poslední vhodné zmínit je i to, že generativní umělé inteligence jsou známy i pro generování výmyslu, občas se tomu říká, že “halucinace”. A jakkoliv tento aspekt nesouvisí s kybernetickou bezpečností, jde o další riziková faktor. Jednotlivci i firmy mohou být právně odpovědné za případné výmysly generované umělou inteligenci. Do vzdělávání o AI je tedy nutné přidat i důslednou nutnost naučit se výstupy ověřovat.

Zdroj: Thein Security

KOMENTÁŘE

WORDPRESS: 0
DISKUZE 0