EU zakáže AI svlékací aplikace: Nové povinnosti pro platformy od prosince 2026

Stačí fotografie z firemního LinkedIn profilu nebo soukromý snímek z dovolené, aby se z reálné osoby stala oběť tzv. svlékací aplikace — nástroje, který během několika sekund vygeneruje sexualizovaný snímek bez jakéhokoli souhlasu. Pro zobrazenou osobu to znamená dlouhé měsíce vymáhání práva proti anonymním uživatelům, pochybným serverům a algoritmům, které šíří obsah rychleji, než soudy stihají rozhodovat. Pro provozovatele platforem, kteří k takovému obsahu poskytují jakoukoli infrastrukturu, to nově znamená přímou regulatorní odpovědnost. Evropský parlament a Rada EU dospěly 12. května 2026 k politické dohodě na zákazu aplikací umělé inteligence umožňujících vytváření sexualizovaných snímků a videí skutečných osob bez jejich souhlasu. Účinnost nového režimu byla nastavena na 2. prosince 2026. Pro firmy podnikající v oblasti AI, sociálních sítí a online platforem tím začíná velmi konkrétní compliance odpočet.
Politická dohoda a její rozsah
Předmětem dohody, kterou vyjednavači Evropského parlamentu a členských států uzavřeli v noci na úterý 12. května 2026, je úprava balíčku k legislativě o umělé inteligenci, který Evropská komise předložila v listopadu 2025. Klíčovou součástí je výslovný zákaz uvádění na unijní trh systémů AI, jejichž účelem je vytváření sexualizovaných snímků a videí konkrétních osob bez jejich souhlasu. Stejně tak má být zakázáno uvádět na trh systémy, které sice tento účel nemají jako primární, avšak postrádají přiměřená bezpečnostní opatření zabraňující právě takovému zneužití.
Dohoda explicitně zmiňuje dvě kategorie cílového obsahu: jednak materiál zachycující sexuální zneužívání dětí, jednak materiál zobrazující intimní partie identifikovatelné dospělé osoby nebo její zachycení při sexuálně explicitních činnostech bez jejího souhlasu. Definice je vědomě široká — pokrývá nejen specializované „svlékací aplikace“, ale i univerzálnější AI nástroje, které tuto funkcionalitu nabízejí jako jednu z mnoha možností.
Zákaz prosadila do návrhu z pozice stínové zpravodajky ve výboru pro občanské svobody česká europoslankyně Markéta Gregorová. Evropský parlament věc podpořil již na březnovém plenárním zasedání 2026, kdy poslanci dali zelenou trialogickému vyjednávání s členskými státy. Politická dohoda z 12. května 2026 představuje jeho výstup; před nabytím účinnosti ji ještě musí formálně potvrdit obě instituce. Podle tiskové zprávy EP se tak má stát před 2. srpnem 2026, kdy měla původně začít platit některá ustanovení AI Act.
Co musí prověřit provozovatelé platforem a AI nástrojů
Pro vývojáře AI nástrojů, provozovatele sociálních sítí, marketplace a další online platformy znamená nový režim okamžitý compliance úkol. Klíčové otázky, na které je třeba odpovědět ještě před 2. prosincem 2026, lze rozdělit do tří okruhů.
Vlastní funkcionalita nabízeného AI nástroje. Pokud firma sama vyvíjí nebo distribuuje AI systém schopný generovat obrazový obsah z fotografií reálných osob, musí prověřit, zda mezi výstupy mohou vznikat sexualizované snímky bez kontroly uživatele. Pokud ano, je nutné nasadit technická opatření — od filtrů na vstupu (rozpoznávání obličejů reálných osob) přes filtry na výstupu (detekce nahoty a sexuálního obsahu) až po jejich kombinaci. Záměrem regulace není zakázat AI generování obrazu jako takové, ale postihnout absenci přiměřených ochranných mechanismů.
Distribuce cizích AI nástrojů. Provozovatelé app store, marketplace, hostingových služeb a podobných platforem se musí zabývat tím, jaké aplikace nabízejí svým uživatelům ke stažení nebo používání. Aplikace explicitně marketované jako „deepnude“, „nudify“ či podobný nástroj jsou nepochybně zakázané; větší výzvou jsou nástroje, které mají legitimní funkce, ale dovolují i zneužitelné použití. Standardní postup compliance bude vyžadovat aktualizaci interních pravidel pro schvalování aplikací, screening podle klíčových slov a manuální review podezřelých případů.
User-generated content na platformách. Pro provozovatele sociálních sítí a hostingových služeb regulace AI doplňuje již existující povinnosti podle nařízení o digitálních službách (DSA). Praktický důsledek: notice-and-action mechanismy musí být připraveny řešit oznámení o deepfake sexualizovaném obsahu prioritně a efektivně. Pokud platforma takový obsah pasivně toleruje navzdory oznámení, vystavuje se nejen riziku podle DSA, ale od prosince 2026 i v rámci nového režimu k AI.
Přímým dopadem je nutnost revidovat AI use-case katalog, smluvní dokumentaci s dodavateli AI funkcionalit (rozdělení odpovědnosti za technická opatření) a podmínky služby vůči koncovým uživatelům. Firmy, které využívají AI nástroje od třetích stran v rámci svých služeb (typicky integrace přes API), by si měly písemně potvrdit, jaká bezpečnostní opatření má dodavatel nasazena a kdo nese odpovědnost za jejich aktualizaci.
Posílení obrany obětí — vrstva ochrany osobnosti a GDPR
Nový režim není primárně procesním nástrojem v rukou obětí, ale tržně-regulačním zákazem mířícím na provozovatele. Přesto jeho účinky výrazně posilují stávající obrannou paletu, která se v českém právním řádu opírá zejména o tři pilíře.
Prvním je ochrana osobnosti podle § 81 a násl. občanského zákoníku. Vytvoření a šíření sexualizovaného deepfake snímku reálné osoby je typickým zásahem do podoby (§ 84 OZ), důstojnosti a soukromí (§ 81 odst. 2 OZ). Soud může nařídit zdržení se dalšího zásahu, odstranění obsahu z konkrétních platforem a v závažných případech přiznat přiměřené zadostiučinění v penězích podle § 2956 OZ. Procesní problém dosud spočíval zejména v identifikaci žalovaného a v rychlosti šíření obsahu, který bylo třeba odstraňovat z desítek serverů paralelně.
Druhým pilířem je ochrana osobních údajů podle GDPR. Podoba reálné osoby a v některých případech i biometrické rysy podle čl. 9 nařízení patří mezi zvláštní kategorie osobních údajů. Zpracování bez souhlasu nebo jiného právního titulu zakládá nárok na náhradu škody podle čl. 82 GDPR a pravomoc Úřadu pro ochranu osobních údajů uložit sankci provozovateli platformy.
Trestněprávní rovinu doplňují ustanovení o pomluvě, neoprávněném nakládání s osobními údaji, šíření pornografie a — v případech, kdy je obětí dítě — výroba a šíření dětské pornografie. V odborné diskusi rezonuje úvaha o doplnění specifické skutkové podstaty mířící přímo na AI-generovaný sexualizovaný obsah.
Nový režim EU přidává k těmto vrstvám čtvrtou — administrativně-regulatorní tlak na provozovatele a vývojáře. Praktický důsledek pro oběti je významný: část obrany se přesouvá z pomalého soudního vymáhání proti anonymním pachatelům do předem nastavených povinností hráčů s identifikovatelným sídlem a značnou tržní motivací zákaz dodržet. Pro klienty kanceláře, kteří se obrátí o pomoc po zveřejnění deepfake obsahu, to znamená rozšířenou paletu dopisů, podnětů a žalob — vůči konkrétní platformě, vůči provozovateli AI nástroje a paralelně i podle dosavadních institutů.
Odložení dalších částí AI Act jako součást zjednodušení
Politická dohoda z 12. května 2026 obsahuje vedle zákazu svlékacích aplikací i druhý významný blok — odložení účinnosti řady ustanovení AI Act. Důvodem je tlak na zjednodušení regulatorního rámce a poskytnutí firmám delšího prostoru na compliance přípravu. Konkrétně:
- Povinnost opatřovat audiovizuální obsah vygenerovaný umělou inteligencí vodoznakem byla odložena na 2. prosince 2026.
- Povinnosti pro vysoce rizikové systémy AI výslovně uvedené v nařízení AI Act byly odloženy na 2. prosince 2027.
- Povinnosti pro systémy AI, na něž se vztahují sektorové právní předpisy EU o bezpečnosti a dozoru nad trhem, byly odloženy na 2. srpna 2028.
Pro firmy, které právě finalizují AI compliance projekty (audity datasetů, dokumentace risk managementu, FRIA, sledovatelnost rozhodnutí), tento odklad neznamená oddech v podobě „povinnost přijde později, nemusíme se tím zabývat“. Znamená spíše posun deadlinu, který využijí seriózní firmy ke kvalitnější přípravě a méně zodpovědné firmy k odkládání problému. Pro management to vytváří specifickou rizikovou situaci — odložení zákonné účinnosti nesnižuje smluvní a reputační očekávání zákazníků, investorů ani obchodních partnerů.
Zároveň se odklad netýká zákazu svlékacích aplikací. Ten nabývá účinnosti k 2. prosinci 2026, tedy v relativně krátkém horizontu. Firmy, které v této oblasti potřebují připravit compliance kroky, mají na vše zhruba sedm měsíců.
Praktické kroky pro firmy
Pokud firma vyvíjí, distribuuje nebo provozuje jakýkoli AI nástroj umožňující zpracování obrazů reálných osob, doporučujeme začít s následujícími kroky ještě před letní pauzou:
- Inventarizace AI nástrojů. Zmapovat všechny AI komponenty, které generují, modifikují nebo analyzují obraz osob — vlastní vývoj, integrace přes API, plug-iny, položky v marketplace.
- Risk assessment pro každý nástroj. Posoudit, zda lze nástroj zneužít k vytvoření sexualizovaného obsahu bez souhlasu. Pokud ano, definovat technická opatření (filtry, content moderation, age verification, detekce reálných obličejů).
- Aktualizace smluv s dodavateli AI. Doplnit záruky bezpečnostních opatření, sdílení odpovědnosti a oznamovací povinnost při změnách funkcionality, která by mohla zákaz aktivovat.
- Notice-and-action procesy. Připravit interní pravidla pro rychlou reakci na oznámení o deepfake sexualizovaném obsahu — nejlépe s definovanou SLA do 24 hodin pro odstranění a paralelní zachování důkazu pro orgány činné v trestním řízení.
- Pravidla pro koncové uživatele. Aktualizovat podmínky služby, AUP a komunitní pravidla — výslovně zakázat generování sexualizovaného obsahu bez souhlasu zobrazené osoby.
Zákaz AI svlékacích aplikací představuje další krok v evropské strategii regulace AI, který kombinuje ochranu základních práv s tržně-regulatorním nástrojem proti vývojářům a distributorům. Pro klienty advokátní kanceláře z toho plyne dvojí zpráva: kdo provozuje AI nástroje nebo online platformy, na něž nový režim může dopadnout, má do 2. prosince 2026 nezanedbatelné penzum compliance práce. Kdo se stal obětí zneužití AI vůči vlastní osobě, dostává vedle stávajících žalob o ochranu osobnosti a podnětů ÚOOÚ další páku — regulatorní tlak na provozovatele s identifikovatelnou tržní odpovědností.
V obou rovinách jsme připraveni klientům poradit — od auditu AI use-cases a nastavení smluv s dodavateli až po koordinovanou ochranu obětí napříč civilním, regulatorním a trestněprávním řízením.
Zdroj: Advokátní deník, 12. 5. 2026 — EU zakáže svlékací aplikace, shodli se zástupci Evropského parlamentu a států; tisková zpráva Evropského parlamentu.
Potřebujete právní poradenství?
Jsme připraveni vám pomoci s jakýmkoli právním problémem. Neváhejte nás kontaktovat pro nezávaznou konzultaci.



