Moltbook kvůli chybné konfiguraci omylem zpřístupnila celou svou databázi v Supabase. To umožnilo komukoli přistupovat ke všem datům platformy nebo je upravovat.
Společnost ESET komentuje aktuální případ zpřístupnění databáze sociální sítě Moltbook pro AI agenty.
Moltbook, rychle rostoucí sociální síť pro AI agenty, kvůli chybné konfiguraci omylem zpřístupnila celou svou databázi v Supabase. To umožnilo komukoli přistupovat ke všem datům platformy nebo je upravovat. Týkalo se to i 1,5 milionu API tokenů agentů, tisíců e‑mailových adres uživatelů, soukromých zpráv (některé obsahovaly API klíče) a živých příspěvků.
Počet agentů na platformě byl navíc zavádějící – 1,5 milionu agentů ovládalo pouze asi 17 000 lidí. Problém vznikl kvůli tzv. „vibe codingu“, kdy zakladatel spoléhal na AI při vývoji platformy bez řádné bezpečnostní kontroly.
Incident zdůrazňuje bezpečnostní rizika u rychle vytvářených aplikací generovaných pomocí AI a potřebu bezpečných výchozích nastavení.
Komentář ESET:
„Když jsou platformy poháněné umělou inteligencí vyvíjeny velmi rychle, základní prvky kybernetické bezpečnosti a ochrany soukromí bývají často tím prvním, na co se zapomene. A tento aktuální incident to nemohl ilustrovat výmluvněji. Skutečné riziko ale nepředstavují samotní AI agenti, nýbrž infrastruktura, která je za nimi. Tam mohou odhalené databáze a ledabylé ověřování totožnosti proměnit drobné přehlédnutí v závažné narušení bezpečnosti,“ říká Vítězslav Pelc, mluvčí české pobočky společnosti ESET.
„AI služby vždy začínají se standardními či obecnými daty, ale jakmile se přiblíží citlivým oblastem, jako jsou finance nebo zdravotnictví, podobné případy budou jen podkopávat důvěru v technologie. Umělá inteligence může vývoj zrychlit a zlepšit, ale nikdy by neměla nahradit princip ‚security by design‘. Spustit službu rychle bez základních bezpečnostních opatření může být velmi drahá chyba,“ dodává Pelc.
Společnost ESET ve své predikci pro rok 2026 očekává, že AI agenti budou hluboce integrováni do podnikové infrastruktury, avšak jejich zabezpečení bude alarmujícím způsobem slabé. To dramaticky rozšíří útočnou plochu, jelikož i základní chyby v konfiguraci mohou způsobit právě vážné úniky dat. Rizika se skrývají i v samotných modelech a jejich možném zneužití.
Ekosystém veřejně dostupných AI modelů bude zažívat další boom, ale mnohé budou distribuovány s neznámou vnitřní logikou, což zvyšuje riziko útoků přes dodavatelský řetězec. V oblasti sociálního inženýrství pak pravděpodobně dojde k nárůstu vysoce kvalitních deepfakes a AI generovaných podvodů, které umožní i méně zdatným útočníkům provádět masivní kampaně. Velkou výzvou budou také pokročilí online boti, schopní ovlivňovat veřejné mínění, volby či automatizované náborové procesy.


KOMENTÁŘE