Grok svléká, Evropa brzdí. Největší firemní riziko ale dál sedí u klávesnice
Evropský parlament schválil zákaz nástrojů, které dokážou generovat sexualizovaný obsah bez souhlasu zobrazených osob. Účinnost začne v prosinci 2026. Mezitím však AI nástroj Grok, provozovaný společností xAI Elona Muska, tuto schopnost nabízí už dnes. Bezpečnostní experti upozorňují, že samotná regulace nestačí, skutečnou bariérou je až vzdělání zaměstnanců.
Grok dokáže z běžných fotografií reálných lidí vytvářet věrohodné sexualizované snímky. Funkce zůstává aktivní i poté, co Evropský parlament v rámci revize AI Actu dohodl její zákaz. Nová pravidla, prosazená mimo jiné českou europoslankyní Markétou Gregorovou, vstoupí v platnost 2. prosince 2026. Do té doby se takzvané nudifier aplikace pohybují v právním vakuu.
Španělská ministryně pro mládež už požádala generální prokuraturu o prověření, zda provoz podobných nástrojů nenaplňuje skutkovou podstatu trestného činu. Elon Musk mezitím po čtyřech měsících opustil pozici poradce americké vlády pro efektivitu a vrátil se k řízení Tesly. Grok funguje dál, beze změny.
Regulace nezastaví to, co zastaví vzdělání
Legislativa řeší jen nejviditelnější část rizik. V každodenní firemní praxi se odehrává něco mnohem závažnějšího. Zaměstnanci vkládají důvěrné smlouvy do veřejných chatbotů, přebírají výstupy AI bez ověření a stávají se cílem sofistikovaných phishingových útoků generovaných jazykovými modely.
„Zákon nezakáže vašim zaměstnancům vkládat citlivá firemní data do veřejných AI modelů. Zákon nezakáže slepě přijímat halucinace jako fakta. To dokáže jen vzdělání,“ říká Aleš Pilný, CEO vzdělávací a konzultační akademie TAYLLORCOX.
Podle dat McKinsey & Company, Bain & Company a World Economic Fora dnes AI pravidelně využívá 88 procent firem, 74 procent zaměstnanců s ní pracuje každý den, ale jen třetina prošla formálním školením. A 55 procent nemá žádné vzdělání v oblasti bezpečnosti dat. Jinými slovy, ve většině organizací dnes lidé denně manipulují s citlivými informacemi v prostředí, jehož rizikům nerozumějí. V případě incidentu nese odpovědnost firma, nikoliv nástroj.
ISO 42001: systém, ne jen zákon
Mezinárodní norma ISO 42001 jde dál než legislativa. Neřeší seznam zakázaných nástrojů, ale nastavuje systém řízení umělé inteligence, jasné odpovědnosti a auditní stopu. Umožňuje organizacím doložit, že AI aktivně řídí, nikoliv nekontrolovaně adoptují.
„Vzdělání ochrání vaši firmu dřív, než to udělá zákon. Dva dny investice do vzdělání jsou méně než jeden incident,“ dodává Pilný.
TAYLLORCOX, jediná organizace v ČR a SR s trojitou akreditací ATO, ACO a RCB podle ISO/IEC 17021‑1, spustila program AI Core™ (AI|C). Jde o dvoudenní intenzivní kurz s 23 praktickými laboratořemi zaměřenými na bezpečnou práci s AI, prompt engineering, detekci syntetických médií a kritické vyhodnocování výstupů jazykových modelů. Program je zakončen mezinárodní certifikací dle ISO/IEC 17024.
Grok bude mít od 2. prosince 2026 v EU se „svlékáním“ legislativní utrum. Otázku, zda vaši zaměstnanci zítra ráno otevřou AI nástroje s porozuměním jejich bezpečnostním implikacím, však žádný zákon nevyřeší.
O TAYLLORCOX S.R.O.
TAYLLORCOX je přední česká a slovenská akreditovaná vzdělávací a konzultační akademie s trojitou akreditací ATO, ACO a RCB. Působí v Praze a Bratislavě a reprezentují ji zejména Aleš Pilný a Radek Nedvěd. Jako jediná organizace v ČR a SR drží tuto kombinaci akreditací. Nabízí akreditované kurzy, certifikace, audity, assessmenty a konzultace v oblastech ITSM, projektového řízení, kybernetické bezpečnosti a umělé inteligence.