CENTURY 21
Ze světa AI

AI zákon je tady. Těchto 5 věcí vás ale možná překvapí.

AI act: víc než jen paragrafy

O Aktu o umělé inteligenci (AI Act) od Evropské unie se mluví všude. Je to první komplexní regulace svého druhu na světě a slibuje zásadní změny v tom, jak se AI vyvíjí a používá. Většina diskuzí se točí kolem právního jazyka a složitých povinností pro firmy. Ty nejdůležitější a nejvíce překvapivé důsledky se ale neskrývají v paragrafech, nýbrž v nečekaných dopadech na reálný svět a v čerstvých legislativních zvratech.
Zatímco se všichni soustředí na původní text zákona, Evropská komise už navrhuje zásadní úpravy v rámci návrhu známého jako „Digital Omnibus“. Toto je první signál, že AI Act není statický text, ale živá, vyvíjející se regulace. Tento článek se ponoří pod povrch a na základě nejnovějších dat a legislativních návrhů odhalí pět nejvíce protiintuitivních a zároveň nejzásadnějších zjištění, která mění pohled na celou regulaci AI.

Než se rozběhne, už brzdí: Proč EU odkládá nejpřísnější pravidla pro AI

Ačkoliv AI Act oficiálně vstoupil v platnost, Evropská komise už přišla s návrhem na odklad termínů pro splnění nejpřísnějších pravidel. Konkrétně se jedná o vysoce rizikové systémy AI, jejichž regulace měla původně naběhnout v letech 2026 a 2027.
Jádrem tohoto překvapivého kroku, který je součástí návrhu „Digital Omnibus“, je pragmatické zjištění: nezbytná podpůrná infrastruktura zkrátka není hotová. Chybí harmonizované technické standardy, oficiální pokyny a dostatečně funkční dozorové orgány v členských státech. Bez těchto nástrojů by firmy musely plnit komplexní požadavky zákona v podstatě „na základě dohadů“.

Nový návrh proto posouvá vymáhání pravidel pro vysoce rizikové systémy s tím, že bude navázáno na dostupnost harmonizovaných standardů. Nejzazší termíny jsou však stanoveny pevně: pro systémy spadající pod přílohu III. na 2. prosince 2027 a pro systémy dle přílohy I. dokonce až na 2. srpna 2028. Tento krok neodhaluje slabost AI Actu, ale spíše obrovskou složitost samotné regulace. Nejde o oslabení zákona, ale o „strukturální rekalibraci“, která má zajistit, aby bylo jeho dodržování v praxi vůbec reálné. A tato praktická realita se netýká jen termínů, ale i původně ambiciózních požadavků na samotné firmy.

Povinné školení o AI pro zaměstnance? Možná nakonec nebude

Jedna z prvních povinností, která měla podle původního plánu platit už od února 2025, se týkala AI gramotnosti. Zaměstnavatelé měli zajistit, aby jejich zaměstnanci, kteří pracují se systémy AI, prošli odpovídajícím školením a rozuměli rizikům i principům této technologie.

Nyní přichází protiintuitivní zvrat, návrh „Digital Omnibus“ usiluje o zrušení této přímé povinnosti pro firmy. Místo toho by se odpovědnost za podporu AI gramotnosti přesunula na Evropskou komisi a jednotlivé členské státy. Ty by pak měly firmy ke školení povzbuzovat prostřednictvím nezávazných iniciativ, jako je sdílení dobré praxe nebo informační kampaně.

Proč je to tak významné? Zde se ukazuje klíčový posun regulační zátěže. Tento krok signalizuje, že EU reaguje na tlak ze strany podniků, které upozorňovaly na praktické a finanční obtíže spojené s plošným zavedením takové povinnosti. Regulátor tak zjevně hledá rovnováhu mezi ideálem vzdělané pracovní síly a realitou firemního prostředí. Stejně jako se EU potýká s realitou implementace, nejnovější výzkumy odhalují, že se musíme potýkat i s překvapivou realitou lidského chování.

 

Paradox digitálních domorodců: Proč mladí hůře poznají deepfake než jejich rodiče

Panuje všeobecný předpoklad, že nejmladší generace, tzv. „digitální domorodci“, jsou z podstaty věci technologicky zdatnější a lépe se orientují v online světě. Výzkum CEDMO Trends však tento mýtus boří jedním z nejvíce šokujících zjištění posledních let. Při rozpoznávání deepfake videí si věková skupina 18–24 let vedla hůře než starší generace.
Výzkum jasně oddělil dva klíčové faktory detekce. Prvním byly technické anomálie (Faktor 1). Zde se ukázalo, že mladí lidé ve věku 18–24 let hůře rozpoznávali vady jako „podivné pohyby úst, blikání obrazu, nepřirozený hlas.“ Naopak věková skupina 35–44 let byla úspěšnější v posouzení druhého faktoru: důvěryhodnosti a přesvědčivosti samotné informace (Faktor 2). Hierarchická regresní analýza odhalila klíčové charakteristiky spojené s horší schopností detekce technických anomálií:

• Věk 18–24 let.
• Vysoká míra osobnostního rysu „otevřenosti k novým zážitkům“.
• Silný nesouhlas s cenzurou.

Toto zjištění odhaluje nebezpečnou propast mezi digitální plynulostí (schopností technologie používat) a kritickou digitální gramotností (schopností rozumět kontextu a rizikům). Mladí lidé, kteří tráví v online světě nejvíce času, mohou být paradoxně těmi nejzranitelnějšími.

 

Skutečné riziko není jen AI, ale naše závislost: Alarmující data o mladé generaci

Zatímco se soustředíme na regulaci samotných AI systémů, možná nám uniká mnohem naléhavější krize: náš vztah k digitálním platformám, kde AI primárně operuje. Data z výzkumu CEDMO Trends odhalují, že problémové užívání sociálních sítí se extrémně koncentruje v nejmladší věkové skupině 16–24 let. Statistiky jsou více než znepokojivé.

• Téměř čtvrtina (24,1 %) mladých ve věku 16–24 let zažila preokupaci – neschopnost myslet na nic jiného než na sociální sítě.
• Přes dvě pětiny (41,8 %) přerušují kvůli sociálním sítím běžné denní činnosti (práci, studium).
• Více než 15 % se v noci budí, aby si zkontrolovali sociální sítě.

Tato data neukazují jen na špatné návyky. Preokupace vykazuje závažný kognitivní symptom závislosti a přerušování denních činností značí narušení studijních, pracovních nebo domácích návyků. Právě tato zranitelnost dělá z mladé generace ideální cíl pro AI řízenou manipulaci, dezinformace a další rizika, kterým se AI Act snaží předcházet. Regulovat stroje je jedna věc, ale posílit odolnost populace, která vykazuje znaky digitální závislosti, je výzva zcela jiného řádu.

 

Česká cesta „na pohodu“: Proč je náš zákon o AI záměrně minimalistický

Jak Česká republika přistupuje k implementaci takto komplexního evropského nařízení? Zvolila cestu, kterou lze popsat jako záměrně „minimalistickou“. Český adaptační zákon se vyhýbá přidávání jakýchkoli dalších povinností nad rámec toho, co AI Act přímo vyžaduje.

V praxi to znamená, že zákon se soustředí pouze na nezbytné institucionální a procesní záležitosti. Jeho hlavním úkolem je určit, kdo bude na dodržování pravidel v Česku dohlížet. Strategická logika za výběrem hlavního dozorového orgánu, kterým byl jmenován Český telekomunikační úřad (ČTÚ), je zřejmá: ČTÚ již dohlíží na Akt o digitálních službách (DSA) a mnoho případů, například AI řízené doporučovací systémy, spadne pod obě nařízení. Tím se předejde kompetenčním sporům a zvýší se efektivita dohledu. V oblastech své specializace ho doplní Česká národní banka (ČNB), Úřad pro ochranu osobních údajů (ÚOOÚ) a Veřejný ochránce práv.
Tento přístup, který se vyhýbá tzv. „gold-platingu“, je pragmatickou volbou. Cílem je splnit evropské povinnosti, ale zároveň zbytečně nezatížit podniky a státní správu. Tato česká strategie je tak v souladu s celoevropským trendem, který jsme viděli u odkladu termínů a rušení povinnosti školení: po počátečním maximálním nadšení přichází fáze pragmatické kalibrace a snahy o snížení regulační zátěže.

Regulujeme stroje, ale rozumíme sami sobě?

Příběh AI Actu je mnohem složitější než jen soubor technologických a právních pravidel. Poslední vývoj ukazuje, že je hluboce propojen s lidskou psychologií, generačními propastmi a skutečnou připraveností naší společnosti. Odklady a změny v zákoně odhalují obrovskou praktickou výzvu, zatímco data o chování mladých lidí bijí na poplach a zpochybňují naše představy o digitální gramotnosti.

Stojíme před obrovským úkolem regulovat umělou inteligenci. Nezapomněli jsme ale při tom na mnohem složitější výzvu – pochopit a posílit naši vlastní lidskou odolnost v digitálním světě?

 

Napsáno dne 2. leden 2026