Wikipedista:KaterinaBila/Pískoviště

Králičí nora (internet)

editovat

Králičí nora (v angličtině je používán termín rabbit hole) je pojem z oblasti mediálních studií, který popisuje fenomén selektivního výběru informací uživateli internetu.

Definice

editovat

Iniciativa AI dětem[1] definuje tento pojem takto: „V kontextu sociálních sítí je Rabbit Holes termín pro proces, kdy uživatel prochází různými odkazy a příspěvky na sociálních sítích, které ho vedou stále hlouběji k novým a novým informacím, a ztrácí tak přehled o tom, co původně hledal nebo jak dlouho už obsah prochází."[2] To může občas negativně ovlivnit nebo přímo radikalizovat uživatele, který většinou patří ke skupinám, jež jsou považovány za citlivé (např. starší občané, etnické menšiny, děti a mládež, duševně handicapovaní lidé, lidé s poruchami učení apod.). Je to způsobeno ztrátou kontaktu s různorodými informacemi a zaseknutím se v sociálních bublinách nebo komnatách ozvěn.

V těchto rabbit holes často vzkvétají extrémistické a konspirační skupiny (např. QAnon, případně Dělnická mládež; názory na to, jestli je tato skupina extremistická, se ale liší), a šíří se dezinformace. Také může hrozit riziko zhlédnutí násilného obsahu, které je ale poslední dobou[kdy?] poměrně ojedinělé.[zdroj⁠?!]

Historie termínu[editovat | editovat zdroj]

editovat

Termín rabbit hole, doslova přeložený z angličtiny, znamená králičí nora. Nejstarší dochovaný záznam tohoto výrazu je ze 17. století. Metaforickou verzi tohoto termínu použil až autor Lewis Carroll ve svém díle Alenka v říši divů, z roku 1865. Oxfordský slovník angličtiny zaznamenal první narážku na tento termín ve vydání časopisu The Yale Law Journal z roku 1938: „ Je to králičí nora, kterou jsme spadli do práva, a tomu, kdo jí prošel, není divné žádné podivné představení (It is the Rabbit-Hole down which we fell into the Law, and to him who has gone down it, no queer performance is strange ) .“ Po většinu 20. století se pojem králičí nora používal pro označení bizardních a iracionálních zážitků, označení magických, náročných a dokonce nebezpečných míst  a poloh, podobně jako v Carollově převrácené říši divů.

V roce 2015 Kathryn Schulz poznamenala pro časopis The New Yorker, že se pojem králičí nora v informačním věku dále vyvinul: ,, V dnešní době, když řekneme, že  jsme spadli do králičí nory, málokdy tím myslíme, že jsme skončili na nějakém psychedelicky podivném místě. Myslíme tím, že nás něco zaujalo až k rozptýlení – obvykle náhodou a v takové míře, kterou by si dané téma jen zdánlivě zasloužilo. “[3]

Rabbit holes v různých médiích

editovat

Stejně jako ostatní sociální sítě, i TikTok uživatele efektivně zařazuje do určité sociální bubliny a komnaty ozvěn. To ale není všechno – spousta uživatelů si všimla až překvapivě přesného doporučování videí. Na toto znepokojení reagoval deník The Wall Street Journal, který se rozhodl experimentovat s automatizovanými účty. Naprogramovali tak více než stovku účtů, které ovládali roboti, jež napodobovali zájmy určitých lidí – zájem o politiku, přírodu, domácí zvířata apod. Pomocí tohoto experimentu zjistili, jak algoritmus TikToku přibližně funguje.

TikTok nejdříve uživatelům nabídne širokou nabídku videí a následně sleduje, u kterých videí se uživatel pozastavil, přečetl si komentáře, přehrál ho opakovaně, nebo ho naopak přeskočil. Podle času stráveného nad jednotlivými videi pak doporučuje další obsah, který se stává přesnějším a přesnějším. Jakmile přesně vyselektuje zájmy konkrétního uživatele, stává se obsah radikálnějším. Cílem tohoto je, aby videa útočila na emoce, a uživatel tak na platformě zůstal déle.[4]

Příkladem může být uživatel, jehož zajímá zdravý životní styl. Algoritmus postupně zjistí, že mu jde hlavně o cvičení a konkrétněji o posilování a nabírání svalové hmoty. Za chvíli už na domovské stránce nemá jiná videa než ta týkající se tohoto obsahu. To může ale tohoto uživatele zavést do rabbit hole – králičí nory – plné počítání kalorií a extrémního cvičení.

Podle americké studie The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms[5] způsobuje přehnané používání sociálních sítí u mladých lidí zvýšené riziko výskytu poruch příjmu potravy, což hodnocení rabbit holes na TikToku nebo Instagramu výrazně zhoršuje.

TikTok se pokusil svůj obsah moderovat, nicméně spousta videí jejich filtrem stále proniká. Tento filtr je navíc efektivní hlavně u obsahu v angličtině, a tak se moderace na videa v jiných jazycích téměř nedá uplatnit.[zdroj?]

YouTube

editovat

Před rokem 2017 začal výzkumný tým společnosti Google Google Brain vyvíjet nový algoritmus pro YouTube, který měl zodpovídat za doporučování nových videí. Ten fungoval na bázi umělé neuronové sítě, napodobující přirozené fungování neuronů v mozku. Tento algoritmus byl schopen vyvodit hraniční vztahy mezi videi, které lidský mozek nebyl schopen zaregistrovat.

Tento algoritmus využíval umělou inteligenci, která měla dvě funkce.

První z nich byla vyhodnocovat doporučovaná videa na základě historie uživatele a aktivity uživatelů s podobnými zájmy. Druhá spočívala v přidělování skóre těmto videím. Aspekty, podle nichž se skóre určovalo, nebyly zcela vysvětleny, je ale potvrzeno, že v nich hrála velkou roli doba, která uplynula od publikování videa nebo frekvence, s jakou tvůrce videa publikoval.

Tento algoritmus ze začátku fungoval dobře, jenže po nějaké době přestal být efektivní. Uživatelé se rychle dostali do řady videí na stejné bázi, kvůli čemuž se začali postupně nudit a platformu opouštěli. Také se občas dělo, že uživatel začal sledovat videa s tematikou kritiky feminismu, postupně se mu začala doporučovat videa s mužskými právy a nadvládou bílých a skončili u násilných videí.[6]

Google Brain tak začal vyvíjet nový algoritmus, kterému se v současnosti[kdy?] říká Reinforce. Jeho funkce spočívá v doporučování videí nejen s obsahem, který uživatele zajímá, ale i s obsahem, který by uživatele potenciálně mohl zajímat. Díky tomu zůstane uživatel na YouTube podstatně déle, protože nemá na domovské stránce pouze jednolitou sadu videí, ale může si vybrat mezi několika zajímavými tématy.[7]

V současnosti je vzácné, aby se někdo od videí s koťátky dostal k těm s extrémistickým obsahem, jelikož to současný algoritmus nepodporuje. Tento obsah ale YouTube nabízí lidem, jež o něj podle algoritmu mají zájem (např. odebírají kanály, které se o těchto tématech kladně vyjadřují, v minulosti už taková videa zhlédli apod.).

YouTube ve svém algoritmu neustále provádí malé změny, které se týkají i extrémistických videí.[zdroj⁠?!]

Facebook

editovat

V roce 2019 a 2020 založil výzkumný tým Facebooku automatizované profily, aby prozkoumal roli platformy v radikalizaci uživatelů a šíření dezinformací. Jeden z těchto účtů byl pojmenován Carol Smith. Carol byla definována jako politicky konzervativní matka vychovávající své děti v křesťanství a sledovala oficiální účet Donalda Trumpa, Fox News a některé další. Po dvou dnech začal Facebook Carol doporučovat skupiny podporující QAnon. Přestože se Carol nepřipojila ani k jedné z těchto skupin, její domovská stránka byla zanedlouho plná skupin a stránek, které přímo porušovaly pravidla Facebooku, včetně nenávistných projevů nebo dezinformací.

Výsledky tohoto účtu byly pojmenovány „Carol's Journey to QAnon“, uloženy a v předány produktové manažerce Facebooku Frances Haugen, která v květnu 2021 ale podala výpověď a veřejně se vyjádřila ve smyslu, že Facebook upřednostňuje výdělek před bezpečím svých uživatelů.[8]

V druhé polovině roku 2023 podalo 33 států USA žalobu na společnost Meta, která vlastní Facebook, Instagram, WhatsApp a Messenger. V ní byla společnost obviněna z manipulování mladého publika k extenzivnímu využívání jejích sociálních sítí, konstruování toxických rabbit holes a porušování práva dětí na soukromí v online prostředí, jelikož společnost sbírala data dětí bez souhlasu jejich zákonných zástupců.[9]

Instagram

editovat

Na Instagram lidé publikují pečlivě vybrané obrázky, které je uvádí do lepšího světla v očích ostatních lidí. Ve finále má Instagram podobný algoritmus jako Facebook až na to, že upřednostňuje okamžité zapojení místo personalizace.

Kvůli touze být co nejpopulárnější a nejhezčí vznikají na Instagramu tendence k ponoukání k poruchám příjmu potravy. Kvůli tomuto byl zablokován např. hashtag #thighgap, který výrazně propagoval mezeru mezi stehny jako ideál krásy. Pod tímto hashtagem se často objevovaly příspěvky holdující PPP tak často, až se ho rozhodl Instagram zablokovat. Uživatelé na to ale reagovali pouhými záměnami písmen a komolením slov, z čehož vzniklo např. #thyghgapp.[10] Ukázalo se, že čím víc je hashtag zkomolený, tím radikálnější a škodlivější obsah se pod ním objevuje. Na tomto případu jde ale vidět, že blokování jednotlivých hashtagů nepomáhá.

Konkrétní příklady

editovat

Konkrétní případ lze vidět na botovi s uživatelským jménem Kentucky_96, což byl jeden z experimentálních účtů The Wall Street Journal. Tento bot byl naprogramován tak, aby ho zajímala videa s tematikou smutku. Za pouhých 36 minut byl tento účet uvězněn v rabbit hole plné tematiky depresí, úzkostí, sebevražedných myšlenek a pobízení k sebepoškozování.

Další z účtů nastavený k zájmu o politiku zase[ujasnit] skončil v rabbit hole konspiračních teorií, QAnonu a krajně pravicových názorů.[11]

Rizika králičích děr

editovat

Je důležité si uvědomit, že králičí nory na internetu představují reálné nebezpečí. I když mohou být občas velice lákavé a zábavné, mohou představovat závažné důsledky pro naše mentální zdraví a produktivitu. Je důležité si být těchto nebezpečí vědom, abychom se mohli vyhnout někdy i závažným důsledkům.

Nebezpečný obsah

editovat

Jedním z možných nebezpečí králičích děr je možnost setkání s nevhodným obsahem. Králičí nory jsou sice obvykle zdrojem zajímavých a neškodných informací, ale zřídkakdy mohou přivést uživatele k nebezpečnému a znepokojivému obsahu. Ten může obsahovat například nejenom dezinformace a konspirační teorie, ale také grafický, až násilný obsah. Algoritmus mnoha platforem může tento problém navíc ještě zhoršit, jelikož nás jedním kliknutím dokáže zavést ke stále extrémnějšímu a škodlivějšímu obsahu. Tento obsah poté může zanechat na uživateli dlouhodobé emocionální následky a vést k násilnějšímu chování. [12]

Mentální zdraví[editovat | editovat zdroj]

editovat

Králičí nory mohou mít také značný dopad na mentální zdraví. Neustálí přísun znepokojivých a negativních informací může vést ke stresu, úzkostem a dalším psychickým problémům.

Mimo to může návyková povaha těchto králičích nor vést ke až ke závislosti. U těchto osob se závislost může projevit tím, že tráví více času online, a když nejsou online, stoupají pocity úzkosti, což je jeden z příznaků abstinence. [13]

Manipulace[editovat | editovat zdroj]

editovat

Brouzdáním v králičích norách se můžeme snadno stát také obětí manipulace. Algoritmus mnoha internetových platforem může vést uživatele cestou stále extrémnějšího, nebo neobjektivního obsahu a tímto způsobem formovat jejich názory a přesvědčení, aniž by si toho byli na začátku plně vědomi. Dezinformace, propagandistické zprávy a konspirační teorie mohou změnit uživatelovo vnímání reality a přispět k rozvoji paranoidních myšlenek a k radikalizaci. Je proto zásadní, aby byli uživatelé při procházení králičími norami opatrní, dívali se na informace s kritickým pohledem a ověřovali si je ze spolehlivých zdrojů. [14]

Dopady na produktivitu a pozornost[editovat | editovat zdroj]

editovat

Dalším z rizik králičích nor je jejich schopnost ovlivňovat uživatelovu produktivitu a pozornost, což vede ke snížení soustředění a nárůstu rozptýlení. Uživatelé mohou ztratit hodiny sledováním videí na YouTube, pročítáním diskuzí na sociálních sítích, nebo čtením kontroverzních článků. Studie ukázaly, že 77% zaměstnanců používá při své práci sociální média a často se tak dostávají do králičích nor, což může vést ke značnému snížení produktivity.[15] Neustálé rolování a konzumace obsahu králičích nor může vést také ke snížení pozornosti. Jak si uživatelé přivykají na neustálí přísun nových a nových informací, snižuje se jejich schopnost soustředit na jeden úkol po delší dobu. To může mít dlouhodobý vliv na kognitivní schopnosti, včetně paměti a porozumění.[16]

Jak se bránit

editovat

Prevence

editovat
  • Nastavte si čas, po kterém sociální síť opustíte. Snížíte tak riziko setkání se škodlivým obsahem apod.
  • Než ji otevřete, uvědomte si, proč ji vůbec zapínáte. Díky tomu předejdete zapomenutí na účel návštěvy nebo ztrácení času.
  • Pokud narazíte na něco, co byste rádi vyhledali, uložte si to na později. Jestli je toto téma důležité, vzpomenete si na něj i později. Tímto předejdete spontánnímu spadnutí do jedné z rabbit holes.[17]
  • Sledujte pouze účty, které vám jsou užitečné, inspirují vás apod. Tímto se vyvarujete tomu, aby si vás algoritmus zařadil jako zájemce o konspirační teorie nebo poruchy příjmu potravy.
  • Nezapojujte se do hádek v komentářích. Pokud zůstanete na příspěvku, který ve vás vzbudí negativní emoce, nebo s ním budete rovnou interagovat formou komentářů, algoritmus si to může vyložit jako zájem o téma v příspěvku.
  • Využijte ochranu soukromí naplno. Díky nástrojům, které ochrana soukromí poskytuje, můžete nastavit, kdo může sledovat váš účet nebo vás kontaktovat. Prostřednictvím toho se můžete vyvarovat tomu, aby vám někdo zasílal nevyžádaný obsah.
  • Nahlašujte toxický obsah nebo hashtagy. Díky tomu můžete více moderovat obsah na své domovské stránce.
  • Blokujte nebo nahlašujte uživatele, kteří dlouhodobě zveřejňují škodlivý obsah. Nebudou se vám tak zobrazovat na domovské ani vyhledávací stránce a nebudou vás moct kontaktovat.
  • Vyhýbejte se clickbaitům, které jsou často designované, aby vybízely ke sledování škodlivého obsahu.
  • Občas praktikujte digitální detox. Ten vám může pomoct k uvolnění od počínající závislosti a k pročištění hlavy od nejrůznějšího obsahu, včetně toho škodlivého.[18]
  • Vzdělejte se v oblasti mediální gramotnosti. Pomocí těchto znalostí dokážete vyhodnotit pravdivé a lživé informace a naučíte se poznávat určitý systém, kterým rabbit holes a internetové extremistické skupiny fungují.
  • Pokud začínáte mít pochyby o tom, jestli náhodou do některé z těchto děr nepadáte, vyhledejte pomoc blízkých. Svěřte se jim s tím, co si myslíte a co řešíte. Často vám lidé ve vašem okolí dokážou dát určitou oporu a uvést vás zpět do reality.

Jak pomoct ostatním

editovat
  • Pokud se vám váš blízký svěří s hraničními názory, které dříve nezastával (např. strach z vakcín, výroky proti ženám nebo určitým národnostem), odpovídejte s empatií a porozuměním, aniž byste ho v těchto názorech podporovali. Jestli tento člověk opustí vaši konverzaci s výrazně negativními pocity, může se upnout na skupiny s extrémistickými názory ještě pevněji.
  • Představte si uvěznění v konspirační rabbit hole jako druh závislosti, stejně jako je hraní videoher nebo netolismus. Když se podíváte na paralely, spousta strategií pro boj se závislostmi může být aplikováno i na tyto rabbit holes.[19]
  • Jakmile jsou logické a racionální argumenty neúčinné, může pomoct obsah sociálních sítí, který je tvořen fyzickými osobami, ne vládou.
  • V nejextrémnějších případech funguje převážně pouze násilná hospitalizace nebo deradikalizační program pro tyto osoby.[20]

Jak se dostat z rabbit hole

editovat

Z rabbit hole je v zásadě stejná cesta, jako když dodržujete základní prevenci, která je uvedena výše.

  • Používejte některé z mnoha aplikací a rozšíření prohlížečů, které mohou i blokovat určitá média, nebo nastavovat čas, který na nich strávíte.
  • Sítě mají často funkce „not interested", díky které můžete označovat obsah, který je součástí rabbit hole, za nezajímavý. Algoritmy, jež se snaží vás na síti co nejdéle udržet, se budou snažit najít něco jiného, co by vás mohlo zajímat.
  • Případně vyhledejte profesionální pomoc. Jestliže máte pocit, že vás sociální sítě negativně ovlivňují, nebo vás rovnou stáhli do konspiračních teorií, životního stylu, který je ohrožující pro vaše zdraví apod., odborná pomoc je pravděpodobně ta nejlepší cesta ven.[18]

Pozitiva králičích nor[editovat | editovat zdroj]

editovat

I když je důležité si být vědomi nebezpečí králích děr na internetu, neměli bychom zapomínat ani na jejich pozitivní stránky.

Zmírnění stresu[editovat | editovat zdroj]

editovat

Jednou z výhod králičích nor, podle výzkumu, který provedla Kaitlin Wolley, docentka marketingu a spoluautorka knihy “Down a Rabbit Hole: How Prior Media Consumption Shapes Subsequent Media Consumption“, je, že lidem pomáhají se zmírněním stresu pomocí odvádění pozornosti. Podle streamovací služby Philo se 55% Američanů vnímá televizi jako způsob, jak zmírnit stres nebo úzkost. Streamovací služby mohou také například záměrně zmírnit úzkosti tím, že pod svůj obsah zahrnou společné téma, jakým je například komedie. [21]

Inspirace[editovat | editovat zdroj]

editovat

Králičí nory v nás také mohou vyvolat inspiraci. Mnoho lidí na internetu objevuje nová umělecký díla, nápady a koncepty, které mohou podnítit uživatelovo tvůrčí myšlení. Inspirace může přijít z prohlížení uměleckých děl na sociálních sítích, sledování videí na YouTube nebo čtení příběhů na blogových stránkách.

Nové vědomosti[editovat | editovat zdroj]

editovat

Králičí nory jdou také využít pro získání nových znalostí. Na internetu lze najít mnoho informací o široké škále témat, od vědeckých objevů a historických událostí, až po praktické dovednosti a rady. Ponořením do těchto králičích nor může uživatel nalézt informace, které ho obohatí a pomohou mu rozšířit jeho znalosti.[22]

Rozšíření obzoru[editovat | editovat zdroj]

editovat

Králičí nory mohou přispět k rozšíření obzoru a porozumění světu okolo náš. Prozkoumávání různých perspektiv, odlišných kultur a názorů může pomoci uživateli lépe porozumět odlišnostem. Sledováním dokumentárních filmů, čtením cizojazyčných zpravodajských stránek a diskutováním s lidmi z různých koutů světa na sociálních sítích dokáže vytvořit tolerantnější pohled na okolní svět.[23]

Reference

editovat
  1. AI dětem — lídr vzdělávání v oblasti umělé inteligence. Iniciativa AI dětem [online]. [cit. 2024-04-19]. Dostupné online. 
  2. NEČASOVÁ, Eva. Mediální výchova — I. díl [online]. [cit. 2024-04-17]. Dostupné online. 
  3. Why Do We Say "Falling Down A Rabbit Hole"? [online]. [cit. 2024-05-26]. Dostupné online. (anglicky) 
  4. ŠUHAJOVÁ, Klára. Na dně depresivní králičí nory: Jak Tik Tok radikalizuje svůj algoritmus [online]. 2022-05-18 [cit. 2024-04-17]. Dostupné online. 
  5. HARRIGER, Jennifer A.; EVANS, Joshua A.; THOMPSON, J. Kevin. The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms [online]. [cit. 2024-04-15]. Dostupné online. 
  6. TIFFANY, Kaitlyn. Very, Very Few People Are Falling Down the YouTube Rabbit Hole [online]. 2023-08-30 [cit. 2024-04-15]. Dostupné online. (anglicky) 
  7. MULDREW, Edward. Understanding the “YouTube rabbit hole” [online]. 2019-07-26 [cit. 2024-04-17]. Dostupné online. (anglicky) 
  8. 'Carol's Journey': What Facebook knew about how it radicalized users. NBC News [online]. 2021-10-26 [cit. 2024-04-17]. Dostupné online. (anglicky) 
  9. Meta Accused by States of Using Features to Lure Children to Instagram and Facebook [online]. [cit. 2024-04-17]. Dostupné online. 
  10. CHANCELLOR, Stevie; PATER, Jessica. #thyghgapp: Instagram Content Moderation and Lexical Variation in Pro-Eating Disorder Communities [online]. [cit. 2024-04-15]. Dostupné online. 
  11. Inside TikTok’s Highly Secretive Algorithm. WSJ [online]. [cit. 2024-04-17]. Dostupné online. (anglicky) 
  12. UNIVERSITY, © Stanford; STANFORD; CALIFORNIA 94305. Study Finds Extremist YouTube Content Mainly Viewed by Those Seeking it. cyber.fsi.stanford.edu [online]. 2023-08-30 [cit. 2024-05-26]. Dostupné online. (anglicky) 
  13. HARRIGER, Jennifer A.; EVANS, Joshua A.; THOMPSON, J. Kevin. The dangers of the rabbit hole: Reflections on social media as a portal into a distorted world of edited bodies and eating disorder risk and the role of algorithms. Body Image. 2022-06, roč. 41, s. 292–297. Dostupné online [cit. 2024-06-27]. ISSN 1740-1445. DOI 10.1016/j.bodyim.2022.03.007. 
  14. SUTTON, Robbie M.; DOUGLAS, Karen M. Rabbit Hole Syndrome: Inadvertent, accelerating, and entrenched commitment to conspiracy beliefs. Current Opinion in Psychology. 2022-12, roč. 48, s. 101462. Dostupné online [cit. 2024-06-27]. ISSN 2352-250X. DOI 10.1016/j.copsyc.2022.101462. 
  15. WOOLLEY, Kaitlin; SHARIF, Marissa A. The Psychology of Your Scrolling Addiction. Harvard Business Review. 2022-01-31. Dostupné online [cit. 2024-05-26]. ISSN 0017-8012. 
  16. www.apa.org [online]. [cit. 2024-05-26]. Dostupné online. 
  17. Avoid internet rabbit holes: No Unprotected Googling — Devise & Conquer Productivity Coaching. Devise & Conquer Productivity Coaching. Dostupné online [cit. 2024-04-17]. (anglicky) 
  18. a b How to Avoid the Downside of the Internet Rabbit Hole | Psychology Today. www.psychologytoday.com [online]. [cit. 2024-04-17]. Dostupné online. (anglicky) 
  19. 4 Keys to Help Someone Climb Out of the QAnon Rabbit Hole | Psychology Today. www.psychologytoday.com [online]. [cit. 2024-04-17]. Dostupné online. (anglicky) 
  20. BOOTH, Emily; RIZOIU, Marian-Andrei; CONVERSATION, The. How people get sucked into misinformation rabbit holes, and how to get them out. phys.org [online]. [cit. 2024-04-17]. Dostupné online. (anglicky) 
  21. I’ve been sucked in! The science of the rabbit hole. Canvas8 [online]. [cit. 2024-05-26]. Dostupné online. (anglicky) 
  22. DANA. Exploring Rabbit Holes: What Do They Look Like? [online]. 2024-06-10 [cit. 2024-06-28]. Dostupné online. (anglicky) 
  23. DANA. Exploring Rabbit Holes: What Do They Look Like? [online]. 2024-06-10 [cit. 2024-06-28]. Dostupné online. (anglicky) 

Literatura

editovat
  • LOSEKOOT, Michelle; VYHNÁNKOVÁ, Eliška. Jak na sítě. 1. vyd. [s.l.]: Jan Melvil, 2019. 328 s. ISBN 978-80-7555-084-2.

Související články

editovat

Externí odkazy

editovat