20. 10. 2025
Umělá inteligence a kyberprevence. Jak ji využít ve třídě a na co si dávat pozor
Lucie Gregůrková & Daniela Kramulová
Rychlý nástup generativní umělé inteligence znamená pro učitele i žáky mnoho příležitostí k učení, ulehčení práce, ale i nespočet výzev a rizik. Jaké jsou ty hlavní, na co si dávat pozor a jak pracovat s AI ve třídě, to se dozvíte v rozhovoru s prof. Kamilem Kopeckým, ředitelem Institutu pro výzkum a vzdělávání v oblasti digitálních technologií a kyberbezpečnosti a vedoucím projektu E-Bezpečí.
Umělá inteligence je zábavná i inspirující, ale má svá rizika
Co vás na fenoménu umělé inteligence nejvíc baví?
Pokud se umělá inteligence využívá vhodně a smysluplně, dokáže zásadně zlepšit naši produktivitu a ušetřit drahocenný čas. Zároveň nabízí neomezené možnosti pro náš vlastní rozvoj, dokáže nás přivádět na nové myšlenky, navrhovat řešení složitých problémů, nabídnout nám nové úhly pohledu, učit nás novým věcem, dokáže nám pomoci realizovat naše nápady… Navíc se neustále vyvíjí a každý měsíc se objevují nové zajímavé novinky, které lze okamžitě začít využívat. Je to zkrátka neomezený zdroj inspirace, zábavy a poučení. A to mě na ní baví. Současná umělá inteligence přináší nejen technologické výhody, ale i zásadní výzvy.

Z úst odborníků slýcháme varování před neuváženým nasazováním AI systémů v různých oblastech, pokud je doprovázeno nedostatečnými znalostmi a podceňováním rizik. Jaké jsou největší problémy spojené s umělou inteligencí?
Jedním z hlavních problémů je tzv. „black box“ efekt – ani samotní tvůrci často nedokážou přesně vysvětlit, proč AI dospěla ke konkrétnímu závěru a jak přesně funguje. To ztěžuje její využití v oblastech, kde je vyžadována transparentnost a odpovědnost, například ve zdravotnictví nebo ve finanční sféře. I když se systémy postupně zlepšují a snižuje se četnost tzv. halucinací (vymyšlených informací), jejich úplné odstranění je zatím nereálné. Podle mě problém představují například také iterace – při stejném zadání dostáváme různé odpovědi, které nemusí být vždy zcela obsahově totožné. Používání AI přináší samozřejmě celou řadu dalších problémů, spojených například s tvorbou dezinformací, podvodů, závislostním chováním, diskutuje se také o negativním vlivu AI na lidské myšlení apod.
Může AI ovlivnit i společnost nebo demokratické principy?
Umělá inteligence bude mít (a již nyní má) výrazný dopad na společnost a mezilidské vztahy. Zavádění AI do některých profesí vede ke změnám na pracovním trhu a může přispět k nezaměstnanosti. K tomu dnes už nepochybně dochází, všimněme si třeba mohutného nástupu AI chatbotů, kteří plní úlohu asistentů a komunikují s klienty různých firem či bank. Ohroženy mohou být také juniorní pozice, AI zasahuje samozřejmě i do kreativních profesí – proč bychom si měli kupovat fotografie ve fotobankách, když si je dokážeme s pomocí AI vyrobit během několika minut téměř zadarmo? AI také zasahuje do každodenní komunikace – stále častější využívání chatbotů a virtuálních asistentů může měnit (a mění) způsoby, jakými lidé navazují a udržují vztahy. Již dnes u některých dětí vidíme, že využívají AI jako blízkého kamaráda, se kterým se radí a kterému se svěřují, a dokonce komunikaci s AI preferují. Umělá inteligence samozřejmě zasahuje i do oblasti školství – na jedné straně mohou AI chatboti dětem výrazně pomoci s pochopením učiva (existují například study mode režimy AI, určené vyloženě pro podporu vzdělávání) a také učitelům, na druhé straně však AI dokáže nahradit samotnou práci dítěte. Může za něj třeba napsat úkol, vypočítat slovní úlohu nebo vypracovat test. A to je špatně.
Umělá inteligence již narušuje demokratické principy, AI razantně zasahuje do voleb. V USA se v rámci prezidentských voleb kupříkladu objevily deep fake fotografie, fake AI telefonáty, docházelo k manipulacím s veřejným míněním prostřednictvím sociálních sítí. Podobnou zkušenost má i Slovensko, kde se před volbami objevilo video s naklonovaným hlasem jednoho z politických kandidátů, které tohoto politika poškodilo. V Rumunsku během volem manipulovala AI s algoritmy, podobné věci se děly i v Estonsku a dochází k nim také u nás. Existuje řada deep fake videí, která mají poškodit konkrétní politiky a politické strany. Toto se děje už několik let. Proto nutně potřebujeme digitálně a mediálně gramotnou společnost.
Jak jsou na tom čeští učitelé a žáci?
Před dvěma lety jste v rámci celorepublikového projektu E-Bezpečí zjišťovali, jak čeští učitelé vnímají umělou inteligenci a jaké mají zkušenosti s jejími nástroji. V čem se podle vás situace od té doby změnila?
Náš výzkum České školy a umělá inteligence, který realizovala pedagogická fakulta Univerzity Palackého v Olomouci ve spolupráci s Microsoftem, se snažil zachytit počátky zavádění umělé inteligence – především velkých jazykových modelů (LLM) – do práce učitelů. Už tehdy bylo z dat čitelné, že učitelé se o AI zajímají, zkoušejí její možnosti a snaží se ji zapojit do výuky, není jich však většina a tvoří spíše ostrůvky pozitivní deviace (33 % učitelů v roce 2023 deklarovalo, že využívají AI aktivně ve své profesi). Tehdy však ještě učitelé neměli v této oblasti dostatečnou podporu (školení, materiály) a velká část práce s AI bylo spíše experimentování než systematické a promyšlené vzdělávání.
V současnosti samozřejmě vzrostl počet učitelů, kteří nástroje AI ve školní praxi využívají. Podle našich dat, která jsme získali od žáků v roce 2024, AI denně ve výuce využívalo kolem 26 % žáků ZŠ a 25,7 % žáků SŠ (přehledně zpracované výsledky výzkumu jsou zveřejněny na stránce https://e-bezpeci.cz/vyzkum), k tomu pak můžeme připočítat i to, že učitel může s pomocí AI například plánovat výuku, připravovat vzdělávací materiály, chystat si vlastní přípravy, testy apod. Předpokládejme tedy, že AI nástroje využívají pedagogové daleko více než v roce 2023. Navíc masově vzrostla metodická podpora pedagogů – existuje celá řada vzdělávacích materiálů, příruček, online i offline kurzů. Nabízí je jak neziskový (AI dětem) nebo univerzitní sektor (E-Bezpečí UPOL), tak i státní sektor (NPI ČR a jeho kurzy). Kdo se tedy chce v této oblasti vzdělávat, má mnoho příležitostí.

FAQ - nejčastější dotazy
o generativní umělé inteligenci
Jsou podle vás pedagogové spíš zvídaví, nebo mají obavy?
Učitelé, stejně jako každá jiná profesní skupina, nemají na AI jednotný názor. Najdeme mezi nimi optimisty, kteří AI masově využívají pro širokou paletu aktivit, realisty, kteří si uvědomují, pro jaké aktivity AI využít, a kdy je naopak její využití nevhodné, a také pesimisty, kteří své zažité postupy nebudou měnit a AI odmítají. Podle mě je skutečně důležité oddělit situace, kdy má použití AI smysl a je efektivní, od situací, kdy by AI jen nahrazovala práci žáků a může být efektivnější naopak s AI nepracovat.
Propojení umělé inteligence s kyberprevencí je žádoucí
Je v souvislosti s riziky důležité propojení témat kyberprevence a umělé inteligence?
Jednoznačně ano. Umělá inteligence je dnes běžnou součástí života žáků – pomáhá jim s učením, ale současně může být zneužita k rizikovým aktivitám. Proto je důležité, aby byla kyberprevence s tématem AI úzce propojená. Neučíme děti jen používat AI nástroje, ale i chápat jejich limity, rizika a etické souvislosti. Umělá inteligence je skutečně jen nástrojem, který je tak dobrý, jak dobře s ním umíme pracovat.
A jak by se podle vás mělo s AI ve škole pracovat?
Mělo by jít o dlouhodobý proces, který kombinuje praktické dovednosti (tedy schopnost s AI dobře pracovat, zadávat funkční prompty atd.), kritické myšlení (zdravě o výstupech AI pochybovat a ověřovat si je) a prevenci, ke které patří i nastavení etických mantinelů. Pokud AI použijeme, měli bychom to přiznat, neměli bychom s její pomocí vytvářet plagiáty ani AI zneužívat k útokům na jiné. Učitelé potřebují jasný rámec a praktické návody, aby mohli s žáky o AI mluvit srozumitelně a systematicky. A v současnosti mají celou řadu možností, existuje velké množství kurzů i materiálů.
Jaké informace v souvislosti s kyberprevencí a AI učitelé nejvíce potřebují?
Kyberprevence v souvislosti s AI má několik hlavních vrstev, se kterými je třeba seznámit jak učitele, tak i žáky:
Ochrana vlastních dat a bezpečnosti Žáci i učitelé musí vědět, co do AI nástrojů nezadávat – osobní údaje, hesla, citlivé dokumenty, fotografie. Tato data mohou být využita k tréninku modelů nebo se mohou stát cílem úniku.
Etické a neetické chování Patří sem problematika generování deep nudes, klonování hlasu či fotografie jiných lidí, ale také manipulace s veřejným míněním a ovlivňování voleb. Do této oblasti spadá i plagiátorství a zneužívání AI k podvádění ve škole. V oblasti výzkumu pak třeba padělání výzkumných dat, „aby to dobře vycházelo“.
Limity AI Sem patří například „halucinování“ či AI bias – měli bychom si tedy být dobře vědomi toho, že AI může generovat nesprávné odpovědi, může „lhát“, zkreslovat realitu. Proto je klíčové výstupy AI vždy posuzovat kriticky, vše si ověřovat a pracovat s primárními zdroji. To všechno má vliv na efektivní kyberprevenci.
Rizikové chování a kyberkriminalita AI může být nástrojem pro podvodné praktiky (deep fakes, phishing, scam), kyberšikanu, vydírání či vyhrožování. Učitelé a žáci potřebují znát základní scénáře, měli by umět je rozpoznat a vědět, jak reagovat. Pokud budou žáci vědět o tom, že se AI zneužívá například v rámci podvodných investic pro generování fiktivních videí známých osobností, které doporučují „zázračný finanční produkt“, zvýší se jejich odolnost vůči podvodům a současně vzroste jejich mediální a digitální gramotnost. A to chceme!
Právo a pravidla Zahrnuje právní limity práce s AI – co je a není legální, jak funguje ochrana autorských práv, pravidla citování a hranice plagiátorství. Sem bych zařadil také poctivou práci se zdroji. Jestliže píšeme odbornou práci, měli bychom přesně vymezit, k čemu a jakým způsobem jsme AI během psaní využívali, například uvést do práce, že nám AI pomáhala s rešeršemi či s formulací výzkumných otázek.
Prevence a řešení incidentů Škola by měla nabízet preventivní aktivity (diskuse, ukázky, workshopy) a mít připravený systém kroků, jak reagovat, pokud k incidentu ve spojení s AI dojde – od interních opatření až po zapojení policie či odborných institucí. Pomoci jí mohou například metodická doporučení MŠMT, ale také materiály NPI ČR, E-Bezpečí či dalších organizací.

Kurz Kyber a AI z pohledu prevence učitelům pomůže
Jak můžeme učitelům pomoci se ve fenoménu AI co nejlépe zorientovat?
Myslím si, že nejprve je potřebné učitelům vysvětlit, co nástroje AI (především velké jazykové modely jako LLM) jsou a jak fungují, kde jsou jejich limity, k čemu jsou vhodné, a k čemu naopak ne. A potom je seznámit se způsoby, jak AI využít v konkrétních situacích. Například k přípravě na výuku, v samotné výuce, k reflexi apod. Je důležité být co nejkonkrétnější a reagovat přímo na požadavky učitelů. Mohou potřebovat třeba přípravu do hodiny, sestavit test pro žáky, vytvořit text s úkoly na procvičení, vytvořit od AI argumentaci, aby žáci mohli hledat protiargumenty apod. Kromě tvorby textů je samozřejmě dobré učit pedagogy vytvářet také obrázky či videa, která mohou rovněž využívat. Naprosto zásadní je naučit pedagogy správně tvořit prompty – AI je třeba poskytnout co nejvíce vstupních informací (kontext), aby pak generovala kvalitní výstupy. Ostatně tvorba funkčních promptů by měla být novou dovedností, kterou by měli ovládat jak pedagogové, tak i samotní žáci. A samozřejmě nesmíme zapomenout na rizika, která jsou s AI spojena.
V současné době už existuje mnoho kurzů, které se AI věnují, učitelé tak mohou sáhnout třeba po kurzech NPI ČR, E-Bezpečí, AI dětem a dalších organizací.
Co se učitelé dozvědí a naučí v novém kurzu NPI ČR Kyber a AI z pohledu prevence, který jste s kolegy připravili?
Učitelé se v kurzu prakticky seznámí s hlavními riziky generativní umělé inteligence a s tím, jak s nimi pracovat ve výuce a prevenci. Získají přehled o tom, jak AI ovlivňuje soukromí, jak fungují její chyby a zkreslení a jak mohou tato témata smysluplně předávat žákům.
Naučí se zejména:
- chápat rizika spojená se zadáváním osobních údajů do AI a umět je vysvětlit žákům,
- rozpoznat a analyzovat „halucinace“ a nebezpečné rady AI,
- ilustrovat AI bias na příkladech (například při generování historických scén) a diskutovat na toto téma,
- ukázat, kde jsou etické limity AI a jak může jejich obcházení vést k nebezpečným výstupům,
- vysvětlit, jak může být AI zneužita k tvorbě dezinformací, hoaxů, vyděračských dopisů,
- pochopit rizika klonování hlasu a tvorby deep fake fotografií a videí, včetně etických a právních souvislostí,
- řešit případy narušení soukromí pomocí AI (například deep nude, manipulace s fotografiemi) a pracovat s reálnými kazuistikami,
- využívat konkrétní nástroje a metody, které lze zapojit do hodin k posílení mediální gramotnosti a kritického myšlení žáků.
Důraz je kladen na didaktickou transformaci témat – učitelé získají praktické ukázky, jak tato citlivá témata bezpečně a vhodně zpracovat ve třídě, aby žákům pomohla lépe porozumět AI, chránit vlastní soukromí a rozvíjet odpovědný a kritický přístup k technologiím.

Abeceda kybernetické bezpečnosti
Co byste učiteli, který je v práci s AI začátečníkem, doporučil jako další krok po absolvování kurzu?
Především si aktivně nástroje využívající AI vyzkoušet a osahat. Jedna věc je kurz, který má limitovaný čas a obsahuje velké množství témat (pro učitele často zcela nových), druhá věc je vlastní osobní zkušenost s AI nástrojem. Podle mě je klíčové skutečně s AI pracovat na konkrétních úkolech, ověřit si, na co je vhodná, a na co ne, vyzkoušet si vygenerovat s pomocí AI něco, co je využitelné ve výuce atd. A nebát se o těchto tématech komunikovat s žáky. Samozřejmě doporučuji sledovat a odebírat různé online kanály a sledovat komunity, jež se problematice AI věnují, a stáhnout si podpůrné materiály, které jsou volně k dispozici.
Žáci a podvádění – jak k tomu přistupovat
Koncem roku 2024 zveřejnilo E-Bezpečí zprávu z výzkumu, jak AI využívají čeští žáci. Kromě řady dobrých příkladů ukázala, že až třetina žáků (zejména na SŠ) nechává svůj domácí úkol kompletně vyřešit AI, tedy že ji využívají k podvádění. Zakázat práci s AI asi není řešením. Jak mají učitelé v těchto případech postupovat?
Začal bych tím, že část žáků podváděla vždy – jen se mění nástroje. V minulosti to byly papírové taháky, schované v lahvi na pití nebo ruce a popsané miniaturním písmem, dnes je to často mobil a nástroje umělé inteligence. Rozdíl je v tom, že AI dokáže během několika vteřin vyřešit celý test, napsat slohovou práci nebo připravit překlad, který odpovídá věku žáka. To je nová kvalita problému. Zakázat AI ve škole by ale podle mě moc nefungovalo. Jednak proto, že žáci zákaz snadno obejdou, a jednak proto, že bychom se připravili o možnost učit žáky s AI pracovat eticky a efektivně. Ostatně naše data prokazují, že většina škol AI nezakazuje, maximálně ji reguluje.
Jak by tedy měl učitel s žáky pracovat, aby se učili využívat nástroje AI eticky a bezpečně?
Doporučil bych učitelům postupovat následovně:
Otevřená diskuse se třídou
Žáci by měli slyšet, proč je samostatná práce důležitá a jak může AI sloužit jako pomocník – pro nápady, pro přípravu osnovy, pro inspiraci, ale ne jako nástroj k úplnému nahrazení vlastního myšlení. Pokud budou žáci využívat AI jako náhradu za svoji vlastní mentální činnost, pak je to problém, AI má myšlení a tvořivost podporovat, nikoli je nahrazovat.Stanovení jasných pravidel
Škola by měla mít rámcová pravidla pro využívání AI – například které úkoly smí AI podpořit (vyhledání informací, kontrola pravopisu) a kde je zakázána (například u testů či esejí, které slouží k hodnocení samostatného výkonu). Samozřejmostí je také zákaz zneužívání AI pro útoky na jiné žáky či pedagogy.Etická výchova a digitální gramotnost
Žáci si musí osvojit nejen technické aspekty práce s AI, ale také chápat její limity, rizika a etické souvislosti: plagiátorství, citování AI, ochranu soukromí.Práce s výstupy AI ve výuce
Učitel může zadat úkoly, kdy budou žáci porovnávat svůj vlastní výstup s výstupem AI, hodnotit kvalitu výstupů, hledat chyby. Tím se učí kriticky myslet a využívat AI jako nástroj, ne jako náhradu za svoji práci. Velmi vhodné je ukázat žákům příklady, kdy se velké jazykové modely (LLM) mýlí, případně dokonce některé informace cenzuruje (viz například čínský DeepSeek), a výstupy AI ověřit.Podpora pozitivních a bezpečných scénářů
Je dobré ukazovat příklady, kdy AI pomáhá – například při vysvětlení složitého jevu, generování ilustrací nebo při překladu textu, a vést žáky k uvědomění, že AI může být skvělým pomocníkem, pokud ji používají zodpovědně. Zde doporučuji seznámit žáky s různými typy režimů určených pro podporu studia (v případě ChatGPT je to režim Studium a učení), které jsou přímo zaměřeny na řízené samostudium žáků a vysvětlování učiva.
AI do škol patří, ale musíme si udělat jasno v tom, k čemu a kde ji použít, a ve kterých situacích je naopak její použití nežádoucí.
Jak využít nedostatky AI ve výuce
Dají se současné nedostatky AI systémů využít při rozvíjení kritického myšlení a chápání principů fungování AI?
Určitě ano. Současné nedostatky AI můžeme ve výuce využít jako velmi účinný prostředek pro rozvoj kritického myšlení a pochopení principů fungování těchto technologií. Ukázky chyb a omezení AI pomáhají žákům lépe porozumět tomu, že nejde o „chytrého kamaráda, který všechno ví“, ale o statistický model, který vytváří výstupy na základě dat, ze kterých se učil, takže může dělat chyby. Velká část modelů je navíc trénována tak, že jsou „motivovány“ k tomu, aby uživatelům daly nějakou odpověď (třeba i nepravdivou), místo toho, aby přiznaly, že odpověď neznají.
Tzv. „halucinování“ si můžeme ukázat třeba na promptech: Napiš vyjmenovaná slova po P. Protože jsme v zadání explicitně neuvedli, že model nemá „lhát“ a že má vypsat úplně všechna vyjmenovaná slova po P, hrozí, že si začne vymýšlet nebo nevypíše všechna slova, ale jen některá.
Velmi dobře se osvědčuje práce s tzv. cílenými halucinacemi AI, kdy AI systém formuluje tvrzení, která nejsou pravdivá, a žák je má ověřit. Můžeme třeba zadat: Vytvoř text o nějaké historické události a cíleně v něm udělej několik faktických chyb. Žáci pak mohou informace ověřovat a učí se, že není bezpečné slepě věřit výstupům AI. Stejně přínosné je seznamování s příklady AI biasu, tedy zkreslení, které vzniká při učení s využitím nevyvážených nebo stereotypních dat. Při analýze obrázků nebo textů, které AI generuje, si žáci uvědomí, jak zásadní roli hraje kvalita a diverzita dat.
S pomocí AI můžeme také testovat argumentační chyby či přímo neetické chování, které je spojeno třeba s předvolebními kampaněmi politických stran, ale i s běžnou reklamou. K těmto účelům můžeme využít například nástroj FactNinja, jehož jsem autorem a který analyzuje obrazový materiál (třeba fotku billboardu s reklamou), vyhledá neetický obsah a poté jej popíše. Nástroj si můžete vyzkoušet na webu www.factninja.cz.
Vyzkoušet si můžeme i to, jak některé nástroje cenzurují obsah. Typickým příkladem je čínský DeepSeek, který cenzuruje historické události, jež jsou pro Čínu „nepříjemné“. Faktický výstup AI je v těchto případech nahrazen propagandistickým textem. Zkuste například prompt pro DeepSeek: Co se stalo na náměstí Nebeského klidu v Číně v roce 1989? Nebo: Způsobil Mao Ce-tung smrt milionů lidí? Napadla Čína Tibet?
Práce s nedostatky AI vede žáky k tomu, aby si uvědomovali, jak technologie fungují, dokázali rozpoznávat potenciální rizika a přemýšleli nad tím, jak AI využívat zodpovědně. Zároveň rozvíjí jejich mediální a digitální gramotnost, což je v době rychlého rozvoje generativních nástrojů klíčová dovednost.

Jak učit a hodnotit v době AI
Jak žáky naučit bránit se deep fake a manipulacím
Většina učitelů se asi shodne, že žáci by se měli orientovat v tématu deep fake a manipulací, které generuje umělá inteligence.
Zdůraznil bych, že každý člověk má právo na ochranu své osobnosti a soukromí. Nikdo by proto bez jeho výslovného souhlasu – až na výjimky vymezené zákonem – neměl pořizovat ani šířit jeho fotografie, videa či deep fake materiály. Toto základní etické a právní východisko je klíčové, protože žáci často vnímají deep fake jen jako nevinnou AI „zábavu“, aniž by si uvědomovali možné dopady na lidskou důstojnost, soukromí a bezpečí. Podle dat víme, že zhruba 7 procent českých žáků zažilo situaci, kdy někdo jiný zneužil jejich podobu a vygeneroval s AI falešný materiál (fotografii nebo video), přičemž část pachatelů tvořili spolužáci. A ty můžeme pozitivně ovlivnit.
Někdy se doporučuje, aby si žáci takovou aktivitu ve třídě vyzkoušeli. Ale tady možná leckterý pedagog zaváhá. Co a proč podle vás může být vhodné, a co naopak ne?
Pokud chceme téma deep fake a manipulací (třeba s obrazem či lidským hlasem) ve třídě uchopit prakticky, je velmi důležité pečlivě vymezit, co je vhodné a co už je za hranicí bezpečné výuky. Vhodné jsou například ukázky a modelové situace, které nepracují s podobou spolužáků, učitelů nebo konkrétních žijících osob. Lze využít volně dostupné předpřipravené deep fake ukázky (například falešná vystoupení politiků či historických osobností) nebo anonymizovaný materiál. Žáci se pak mohou učit rozpoznávat známky manipulace, zkoumat, jak se deep fake vytváří, a diskutovat o důsledcích jeho šíření. Dobré je rovnou využít tématu podvody s deep fake a předvést si, jak může být například podoba prezidenta Petra Pavla zneužita k vylákávání finančních prostředků a ovládnutí bankovních účtů.
Naopak nevhodné je, aby žáci sami vytvářeli deep fake obsah s využitím podob spolužáků či učitelů. Taková aktivita může snadno sklouznout k porušení soukromí, kyberšikaně nebo emocionální újmě, a tím zcela minout vzdělávací cíl. Stejně tak není vhodné nechat žáky tvořit obsah, který by mohl být považován za citlivý nebo urážlivý.
Žáci se prostřednictvím těchto aktivit učí chápat principy digitálních manipulací s pomocí AI, jejich technické možnosti a limity, ale také právní a etické aspekty. Rozvíjejí schopnost kriticky hodnotit informace, posuzovat důvěryhodnost digitálního obsahu a uvědomují si dopady svého jednání na druhé.
Aby měla aktivita ten správný dopad, nesmí chybět:
bezpečný rámec a jasná pravidla (například nepoužívat fotografie spolužáků či učitelů, viz výše),
etický a právní kontext (diskuse o právu na ochranu osobnosti, o odpovědnosti za šíření manipulací),
reflexe emocí a postojů – žáci by měli mít prostor vyjádřit, jak na ně manipulace působí a proč je škodlivá a jak mohou emoce ovlivnit náš zdravý úsudek,
propojení s mediální gramotností – tedy s dovedností ověřovat zdroje, analyzovat motivace tvůrců manipulací a chápat širší společenské dopady.
Takto vedená výuka může být nejen zajímavá a srozumitelná, ale i hluboce formativní. Pomáhá žákům rozvíjet zodpovědný a eticky ukotvený přístup k moderním technologiím. A to je myslím velmi smysluplný cíl.