3. 10. 2025

Přínosy i rizika AI (nejen) ve škole

Generativní umělá inteligence proniká do všech oblastí našeho života. Pokud chceme děti a mladé lidi naučit v tomto novém světě bezpečně a odpovědně žít, je nutné, aby se téma umělé inteligence stalo nedílnou součástí vzdělávání – a to nejen jako technologická novinka, ale především jako výzva ke kritickému myšlení, etice a mediální gramotnosti. Jak na to, se můžete dozvědět v kurzu NPI Kyber a AI z pohledu prevence.

Raketový nástup generativní AI  

Od roku 2022, kdy firma OpenAI spustila model GPT 3.5, překračují nástroje umělé inteligence další a další hranice. Kromě generování textů a obrázků umějí také skládat hudbu či zpracovávat data, ale i napodobit lidský hlas, měnit podoby lidí na fotografiích či vytvářet falešné videozáznamy. Generativní umělá inteligence tak s sebou přináší obrovské příležitosti, ale zároveň také rizika, na která jako společnost musíme reagovat. Nestačí už jen mluvit o technologiích samotných. Dnes je potřeba diskutovat o tom, jakou roli hraje AI v našem životě, protože její schopnosti otevírají řadu etických, právních i bezpečnostních otázek, mění způsob, jak přemýšlíme o informacích, vztazích, o pravdě a skutečnosti. To jsou výzvy, se kterými se musí vypořádat školy.  

Problematické „chování“ nástrojů AI 

Jedním z problémů AI systémů, které odborníci sledují už delší dobu, je „halucinování“ umělé inteligence. I nejmodernější systémy si občas vymýšlejí. Předkládají informace, které zní věrohodně, ale nejsou pravdivé. Například model GPT 3.5 při uvádění zdrojů halucinoval až ve 40 % případů, novější model GPT 4.0 pak ve 29 %. Na druhou stranu platí, že čím jsou jazykové modely větší a lépe vytrénované, tím méně chyb dělají. Dle odhadu plynoucího z analýzy zlepšování modelů by se dokonce mohly přiblížit k úplné pravdivosti a bezchybnosti již v únoru roku 2027. 

V každém případě můžeme toho, že nástroje AI dosud nejsou dokonalé a dělají chyby, lze s úspěchem využít ve školním prostředí. Žáci mohou například s využitím běžných primárních zdrojů ověřovat, zda jsou informace, které AI generuje, skutečně pravdivé a odpovídají skutečnosti. Případně mohou zkusit celý proces obrátit a přimět jazykový model, aby začal halucinovat.  

Vedle toho se objevuje ještě méně nápadné riziko – tzv. bias, zkreslení. Umělá inteligence se učí z dat, která vytvořili lidé. A v těchto datech se často odrážejí naše předsudky a stereotypy. Výsledkem může být situace, kdy AI nevědomky při vyhodnocování dat upřednostňuje určité skupiny obyvatel na úkor jiných, ať už při psaní textů, generování obrázků, nebo při rozhodování v automatizovaných systémech. Příkladem může být „sexistický“ systém hodnocení kandidátů ucházejících se o zaměstnání ve firmě Amazon, který upřednostňoval mužské kandidáty před ženskými kandidátkami. Proto je nutné žákům vždy připomínat, že umělá inteligence není stoprocentně objektivní, i když se tak může tvářit.

Účinná obrana proti manipulaci a deep fake  

Vážnější výzvy a ohrožení mohou představovat technologie vytvářející deep fake videa nebo klonování hlasu. Stačí několik vteřin reálného záznamu a nástroje umělé inteligence dokážou vytvořit naprosto přesvědčivé napodobeniny politiků, celebrit i běžných lidí. Deep fake fotografie, hlasy či videa už dnes nejsou výsadou specialistů – zvládne je vytvořit prakticky každý, kdo má chytrý telefon a přístup na internet. Tyto nástroje mohou sloužit k zábavě, ale také k manipulaci,  

šíření dezinformací nebo k vydírání. Deep fake dokonce může být vážným problémem pro zachování demokratických principů ve společnosti. Příkladem je pokus o ovlivnění slovenských voleb, kdy se řetězovými e-maily šířila údajná nahrávka, na které politik Michal Šimečka mluví s novinářkou Deníku N o tom, jak zfalšovat volby pomocí koupených hlasů. Rozšíření AI tak ještě zvyšuje potřebnost mediální výchovy a digitální gramotnosti.

Soukromí a intimita v ohrožení  

S umělou inteligencí souvisí i nová rizika týkající se velmi citlivé oblasti našeho soukromí. Umělá inteligence dokáže generovat citlivý obsah týkající se konkrétních osob (např. fotografie obnaženého těla, tzv. deep nudes), které k ničemu takovému nikdy nedaly souhlas. Tyto materiály (fotografie, videa) pak mohou být zneužity pro vydírání či kyberšikanu a mohou oběť psychicky poškodit. Přestože část společnosti volá po regulaci a postihování takového jednání, dostupnost podobných nástrojů se zatím snižuje jen velmi pomalu. Terčem útoku mohou být slavné osobnosti jako Taylor Swift5, tyto nástroje ale využívají i spolužáci pro „svlékání“ svých spolužaček či učitelek.6 V zahraničí se již setkáváme s případy, kdy bylo vytvoření deep nudes spolužaček potrestáno vyloučením ze školy.  

Žáky je třeba upozornit na to, že tento obsah – přestože je vygenerován AI – mohou spadat i do oblasti nelegální dětské pornografie. V Česku navíc vstupuje v platnost novela trestního zákoníku, která zavádí nový § 191a o zneužití identity k výrobě a šíření pornografie. Podle něj bude trestné vytvořit, šířit či prodávat pornografické dílo, jež bez souhlasu zobrazuje osobu, a to i prostřednictvím digitálních technologií. 

Další neetické způsoby využití AI  

Dalším rizikem, se kterým je třeba z pohledu pedagoga počítat, je zneužití AI k plagiování na různých úrovních. S pomocí AI je totiž velmi snadné vytvářet nejrůznější typy domácích úkolů, generovat referáty, překlady, ale také např. řešit slovní úlohy. Jak opakovaně dokladují výzkumy E-Bezpečí Pedagogické fakulty Univerzity Palackého v Olomouci, velká část žáků AI aktivně využívá neetickým způsobem. Stále častěji se však AI využívá např. při psaní kvalifikačních prací na vysokých školách a lze předpokládat, že v řadě případů i neetickým způsobem. To ostatně otevírá diskuzi o tom, zda by neměly být např. bakalářské práce ve stávající podobě zrušeny a nahrazeny jiným typem výstupu.  

Součástí vzdělávání by mělo být rovněž nastavení jasných etických mantinelů pro práci s AI. Žáci by také měli být seznámeni s tím, jaké sankce na ně v případě neetického využívání AI mohou dopadnout. 

Mezilidské vztahy v éře umělé inteligence  

Rizika spojená s AI se však netýkají pouze informací či vizuálního obsahu. Stále více odborníků upozorňuje na to, že AI začíná měnit i naše mezilidské vztahy. Chatboti, kteří simulují přátele nebo dokonce romantické partnery, se stávají běžnou součástí života některých uživatelů, žáky nevyjímaje. Virtuální vztahy mohou poskytnout dočasnou oporu, ale také vést k izolaci, ke ztrátě schopnosti budovat skutečné vztahy a k nerealistickým očekáváním od druhých lidí. Otázka, co to vlastně znamená být ve vztahu, dostává v éře AI zcela nový rozměr. Mediálně známým se stal případ 14letého mladíka Sewella Setzera, který se zamiloval do chatbota na AI platformě Characte-AI, imitujícího Daenerys Targaryen, známou postavu ze seriálu Hry o trůny, což ho nakonec dohnalo k sebevraždě. 

Jak žáky naučit s AI pracovat  

Ve školním prostředí lze s úspěchem testovat, zda žáci rozpoznají produkt umělé inteligence a podle čeho, například chyby v obrazu, špatnou synchronizaci hlasu a pohybů rtů – lipsync, různé druhy fragmentů v obraze, špatný počet prstů apod. To představuje velmi dobrý způsob prevence. Poučený žák riziko lépe rozpozná a bude na něj vhodně reagovat – nenechá se snadno zmanipulovat a podvést. Dále je také možné naučit žáky podobné materiály s využitím vhodných AI nástrojů tvořit, ovšem s jiným cílem. Žáci získávají nejen technické dovednosti při práci s moderními technologiemi, ale zároveň si osvojují kritické myšlení a etické zásady využívání AI. Při společné analýze vlastních výtvorů se pak rozvíjí schopnost reflexe, diskuze a vzájemné spolupráce. Jedná se tedy o komplexní didaktickou metodu, která významně podporuje jak digitální gramotnost a kritické myšlení, tak i kreativitu ve výuce.  

Přihlaste se na kurz 

Vývoj AI nám nabízí ohromné možnosti, nelze jej zastavit. Abychom však využili potenciál umělé inteligence bez toho, že ztratíme kontrolu nad jejím dopadem na společnost, je potřeba tyto poznatky integrovat do vzdělávání žáků. Jak na to, se můžete dozvědět v kurzu Národního pedagogického institutu Kyber a AI z pohledu prevence 

Související odkazy

Umělá inteligence

Kybernetická bezpečnost