Pro používání ChatGPT si firmy musí stanovit pravidla.
V poslední době se výrazně zvyšuje popularita aplikací využívajících velké jazykové modely (Large Language Models – LLM) jako je ChatGPT společnosti OpenAI, Bing AI od Microsoftu nebo Bard od Google.
Tyto nástroje jsou rychlé, snadno použitelné a dostupné pro všechny. Proto není překvapivé, že je začali využívat zaměstnanci jak velkých, tak malých firem. Na tom není nic špatného, avšak nesmí se zapomenout na jednu důležitou věc.
ChatGPT a podobné aplikace založené na strojovém učení se začínají ve velkém prosazovat ve firemním prostředí, a to k různým účelům:
- Tvorbě obsahu – dokáží připravit kvalitní prezentaci, napsat překvapivě dobrý projev, blogový příspěvek, e-mail nebo komentář.
- Generování kreativních nápadů – během několika sekund dokáže vygenerovat seznam možných otázek nebo odpovědí na dané téma a pomoci s návrhem názvu článku, prezentace nebo dokonce podnikatelského záměru.
- Kontrole a revizi textů – opravuje nejen gramatické chyby, ale rovněž může zkrátit nebo rozvést informace podle přání uživatele, změnit styl na formálnější či hovorovější a celkově zlepšit kvalitu textu.
- Vyhledávání informací – podobně jako Google nebo Wikipedie slouží k vyhledávání informací.
- Programování – stává se častým nástrojem pro tvorbu a kontrolu programového kódu.
„Systémy využívající LLM již nyní přispívají ke zlepšování firemního obsahu, pomáhají zaměstnancům s různými úkoly, a dokonce se podílejí na rozhodovacích procesech,“ vyjmenovává Martin Lohnert, specialista pro oblast kyberbezpečnosti
v technologické společnosti Soitron. Nicméně s přijetím těchto revolučních technologií přicházejí i určitá rizika, které si jak uživatelé, tak organizace často neuvědomují, z důvodu prvotního nadšení.
Rizika používání ChatGPT ve firemním prostředí
Okamžitý přínos nástrojů využívajících LLM je natolik velký, že zvědavost a nadšení z nich převažují nad opatrností. Existuje několik rizik spojených s používáním ChatGPT ve firmách:
- Ochrana osobních a citlivých údajů – při používání ChatGPT v podnikovém prostředí může docházet k nechtěnému sdílení osobních či důvěrných údajů. Uživatelé často do nástroje vkládají tyto údaje bez povědomí, že jsou poskytnuty třetí straně. Byl již zaznamenán případ, kdy chyba v ChatGPT umožnila uživatelům vidět zpracovávaná data jiných uživatelů, např. historii chatu.
- Duševní vlastnictví – trénování LLM je založeno na zpracování velkého množství různorodých a neznámých dat, která mohou obsahovat i materiály chráněné autorskými a vlastnickými právy. Použití výstupů z těchto dat může vést ke sporům o vlastnictví a licencování mezi společností a vlastníky obsahu, který byl použit při trénování ChatGPT.
- Škodlivý či zranitelný kód – počítačový kód generovaný umělou inteligencí (AI) může obsahovat zranitelná místa nebo škodlivé komponenty, což může vést k jejich následnému použití a šíření zranitelnosti ve firemních systémech.
- Nesprávné a nepřesné výstupy – aktuální generace AI nástrojů občas poskytuje nepřesné nebo úplně nesprávné informace. Byly zaznamenány případy, kdy výstupy obsahovaly zkreslený, diskriminační nebo nelegální obsah.
- Etická a reputační rizika – použití nesprávných výstupů ChatGPT ve firemní komunikaci a jejich následné sdílení může vést společnost k etickým a reputačním rizikům.
Nezbytnost firemní politiky pro používání ChatGPT
S ohledem na tato rizika je nezbytné definovat pravidla, jak zaměstnanci mohou (a mají) používat ChatGPT při plnění svých pracovních úkolů. „Firemní politika by měla sloužit jako kompas, který provede společnost a její zaměstnance labyrintem systémů umělé inteligence eticky, zodpovědně a v souladu se zákony a vyhláškami,“ uvádí Martin Lohnert.
Při definování firemní politiky je nutné si nejprve stanovit, jakých technologií se má týkat. Má se politika vztahovat specificky na ChatGPT? Nebo obecně na nástroje generativní umělé inteligence? Zahrnuje také nástroje třetích stran, které mohou obsahovat prvky AI nebo dokonce vývoj podobných řešení?
Co by měla politika používání ChatGPT obsahovat
Politika používání ChatGPT by měla začínat závazkem ochrany osobních údajů a bezpečnosti při práci s podobnými nástroji a stanovovat hranice tím, že dojde k jasnému definování přijatelné a nepřijatelné použití technologií.
Měla by definovat způsoby použití, které budou v organizaci povoleny bez omezení. „Může se jednat například o různé typy marketingových aktivit, jako je revize materiálů pro veřejné použití, generování nápadů nebo základů materiálů pro další zpracování,“ vyjmenovává Martin Lohnert. Přitom je však třeba pečlivě zvážit právní aspekty duševního vlastnictví a dávat pozor na známé úskalí nepřesností a dezinformací.
Druhou skupinou pravidel by měly být scénáře, ve kterých je použití povoleno, ale s dodatečnou autorizací. Typicky se jedná o případy, kdy musí být výstup z ChatGPT před jeho dalším využitím posouzen odborníkem (např. v případě počítačového kódu).
A třetí kategorií jsou scénáře, které jsou úplně zakázány. Sem by měly patřit všechny ostatní způsoby použití, zejména ty, kde uživatelé do ChatGPT vkládají cokoli obsahující citlivé údaje (obchodní tajemství, osobní údaje, technické informace, vlastní kódy atd.).
Dobrý sluha, ale zlý pán
Politika využívání LLM by měla být „ušitá“ na míru každé společnosti poté, co důkladně identifikujete související potenciální rizika, hrozby a jejich dopady. „Tím umožníte společnosti rychle využít potenciál přicházejících nástrojů s prvky umělé inteligence a současně hledat a formulovat strategii pro jejich začlenění do stávajícího firemního prostředí,“ zakončuje Martin Lohnert.
KOMENTÁŘE