Technologie znovu mění hru: Nové nástroje v boji proti online dezinformacím

Fotografie od ThisIsEngineering na Pexels.com

Dezinformace se v online světě setkávají s rozsáhlým zájmem, což může mít dalekosáhlé následky. Výzkum z roku 2018 nazvaný „The Spread of True and False News Online“ odhalil, že dezinformace se na Twitteru šíří rychleji a dosahují většího publika než pravdivé informace.

Tento trend je důsledkem kombinace emocionálně nabitých obsahů a rychlého sdílení mezi uživateli, což z dezinformací činí virální fenomén.

Přihlédneme-li k tomu, že se využívají k dosažení cílů i v politice, mají vážné důsledky pro demokracii a společnost.

Odhalujeme zdroje: Co stojí za vlnou online dezinformací?

V digitálním věku hrají algoritmy a personalizace obsahu klíčovou roli v online zážitku uživatelů. Internetové platformy využívají tyto technologie k nabízení relevantního a atraktivního obsahu. Nicméně, tato personalizace může vést k šíření dezinformací, kdy algoritmy preferují obsah odpovídajícím uživatelským preferencím bez ohledu na jeho pravdivost.

Dalším nástrojem, který pomáhá šířit dezinformace, jsou chatboti a umělá inteligence. Tyto technologie mohou být využity k šíření falešných zpráv a manipulaci s veřejným míněním, což má potenciál výrazně ovlivnit politické a sociální rozhodování.

Rychlost, s jakou nová média dokáží sdílet informace, je klíčovým faktorem, který podporuje šíření dezinformací. Výše zmíněný výzkum potvrzuje, že dezinformace se šíří rychleji než pravdivé informace, často díky svému senzacechtivému charakteru.

Tradiční média poskytovala dosud určitou míru kontroly nad šířeným obsahem díky gatekeepingu – procesu výběru informací vpuštěných do médií. Nová média, zejména sociální sítě, však zpravidla tuto kontrolu postrádají, což je další faktor, který umožňuje rychlé šíření dezinformací.

Významnou roli v tom, jak se dezinformace stávají virálními, hrají i emoce. Emocionálně nabité příspěvky jsou totiž častěji sdíleny a komentovány, což opět urychluje jejich šíření.

Etika versus dezinformace: Boj na dvou frontách

Ve světě, kde je pravda často zastíněna množstvím tzv. fake news, je etický rozměr boje proti nim stále důležitější. Klíčem je takové omezení, které neporuší právo na  přístup k informacím. To vyžaduje, aby tyto nástroje respektovaly práva jednotlivců a zároveň efektivně bránily šíření dezinformací.

Z toho však vyvstávají i následující otázky: Kde je hranice mezi ochranou a cenzurou?  A jak mohou chránit zákony veřejné dobro, aniž by byly zneužity k potlačení legitimního vyjádření?

Je proto zásadní, aby sociální platformy byly transparentní ve svých algoritmech a procesech moderace. Jejich role v identifikaci a odstranění dezinformací je nezpochybnitelná, stejně jako jejich odpovědnost za obsah, který publikuje. Tato odpovědnost nese s sebou nutnost aktivního angažmá v prevenci šíření falešných informací, což je nezbytné pro udržení důvěry veřejnosti a ochranu demokracie.

Botometer a ti druzí: Revoluční strážci, kteří odhalí roboty i fake videa

Nelze se však spoléhat pouze na záruku transparentnosti sociálních platforem. Nové nástroje a strategie proto slibují zásadní změnu ve způsobu, jakým můžeme detekovat dezinformace.

Jedním z klíčových přístupů je využití sofistikovaných technologických nástrojů. Botometer například představuje pokročilý systém pro detekci sociálních botů – automatizovaných účtů, které mohou na sociálních sítích šířit dezinformace. Díky analytickým schopnostem dokáže odhalit, zda za aktivitu na sociálních médiích stojí skutečný člověk, nebo je to dílo algoritmu.

Podobný nástroj, Foller.me, se zaměřuje na analýzu profilů na sociálních sítích, poskytující nejlepší pohled do aktivit a charakteristik konkrétních účtů. To umožňuje lepší pochopení motivací a potenciálně podezřelých vzorců chování.

TinEye, specializující se na analýzu uživatelsky generovaného obsahu, zase přináší revoluci v odhalování falšovaných nebo manipulovaných obrázků a videí. Umožňuje rychle zjistit, zda byl daný vizuální materiál dříve publikován v jiném kontextu, což je klíčové pro rozpoznání dezinformačních kampaní.

Kontrolovat pravdivost lze i prostřednictvím aplikace Rbutr. Ta sleduje a zaznamenává sporné informace o daném webu. Uživatelé zde mohou najít a předkládat důkazy proti dezinformacím, čímž tento nástroj podporuje kritické myšlení a ověřování faktů.

NewsGuard, zaměřující se na spolehlivost zpravodajských webů, zase poskytuje hodnocení transparentnosti a důvěryhodnosti online obsahu.

Detektor tzv. deepfakes v reálném čase představila například i společnost Intel, a to pod názvem FakeCatcher. Tato technologie je schopna identifikovat falešná videa s přesností 96 % a poskytuje výsledky v milisekundách.

Odhalit falešné video je však podle českého experta na nová média Josefa Šlerky kvůli zlepšujícím se technologiím čím dál složitější. Doporučuje proto sledovat synchronizaci úst a zvuků a to, jakým způsobem fungují kupříkladu stíny. Zásadní je i znalost kontextu. Podle Šlerky je nutné přemýšlet nad tím, zda obsah, který slyšíme, je uvěřitelný a pravděpodobný.

Kdo ohlídá hlídače: Transparentnost „fact checkerů“

Tyto a další nástroje představují významný krok vpřed ve snaze nalézt a potlačit dezinformace. Zaměřují se na různé aspekty dezinformačního narativu, od analýzy obsahu po identifikaci zdrojů a hodnocení důvěryhodnosti informací. Jejich rozvoj a implementace jsou zásadní pro ochranu integrity informačního prostoru v éře nových médií.

Na druhou stanu ani ony nemohou nabídnou stoprocentní jistotu. I při jejich využívání je zapotřebí kriticky hodnotit nejen jejich výsledky, ale i jako u tradičních médií stejně pozorně hodnotit také nestrannost a transparentnost jejich tvůrců či vlastníků. Uživatelé by měli brát v potaz, kdo stojí za vznikem nejrůznějších „fact checkerů“ a ověřovat jejich důvěryhodnost.

Závěr: Hledání rovnováhy v nejistém světě

Nová média a technologie přinášejí jak pozitiva, tak negativa. Kromě umožnění rychlé komunikace přispívají i k šíření dezinformací. Budoucí snahy by proto měly směřovat k vyvážení ochrany svobody projevu s potřebou ochrany veřejnosti před škodlivým vlivem fake news. Klíčovou roli by však měly hrát nejen nejnovější technologie pro jejich odhalování, ale především vzdělávání v oblasti mediální gramotnosti.

Zdroje:

Napsat komentář

4 komentáře: „Technologie znovu mění hru: Nové nástroje v boji proti online dezinformacím“

  1. Zajímavý a bohužel pravdivý pohled na dezinformace na sítích. Jak je vidět, zlepšují se nástroje na boj s tímto fenoménem. To je dobrá zpráva. Ještě bych ale do celkového kontextu přidala dvě věci. Dezinformace a jejich rychlé a masivní šíření jsou v zájmu majitelů sociálních síti, vydělávají jim peníze. Oni tedy s omezením a bojem proti dezinformacím sami nepřijdou. A druhá poznámka – jak je zde zmíněno, dezinformace mají vážné důsledky pro demokracii. Vidíme to pravidelně každé volby. Zákonodárci by tedy měli urychleně vypracovat takové řešení a takové zákony, aby boj proti dezinfu byl skutečně efektivní.

    To se mi líbí

  2. Text se věnuje aktuálnímu tématu, kterým je šíření desinformací. Na první pohled je článek vizuálně velmi poutavý. Obsahuje úvodní obrázek, mezititulky, videa i vyznačená klíčová slova.

    V článku autor/ka popisuje, z jakých důvodů a jakými způsoby se desinformace šíří. Otevírá také otázku rozdílu mezi ochranou uživatelů a cenzurou, což je klíčové (a mnohdy palčivé) téma v oblasti boje proti desinformacím. Jmenuje příklady nástrojů, které slouží k odhalování tzv. botů nebo falešných účtů, nicméně zdůrazňuje, že ani tyto nástroje či aplikace nejsou stoprocentně spolehlivé a uživatel by měl vždy vědět, kdo za danou poskytovanou službou stojí.

    Autor/ka uvádí také prostý návod na to, jak bez použití dalších technologií rozpoznat falešná videa. Závěrem vznáší výzvu do budoucna, kdy bude nezbytné hledat rovnováhu mezi využitím potenciálu nových technologí a nekontrolovaným šířením desinformací. Závěr obsahuje také apel na výuku mediální gramotnosti na školách.

    To se mi líbí

  3. Zajímavý článek, obzvlášť pro někoho, kdo má sám minulou pracovní (a ne úplně příjemnou) zkušenost s moderováním obsahu velké sociální sítě a kontrolou nahlašovaných příspěvků. Je zajímavé se dozvědět, jaké nové nástroje nyní existují a jaké se vyvíjí. V čase mé zkušenosti (cca 2018) bylo využití AI pouze v začátcích a v “učící fázi”, byla tedy extrémně nepřesná a lidský faktor spíše zahlcovala další sekundární kontrolou. Od té doby samozřejmě prodělala prudký vývoj a měla by být mnohem přesnější.

    Pokud se bavíme o dezinformacích a automatických nástrojích obrany proti nim, bylo by zajímavé znát data o tom, v jakých jazykových mutacích existují a jakou mají přesnost (pokud taková data existují). Do budoucnosti bude také zajímavé sledovat, jak budou tyto nástroje zapojeny z hlediska procesu – zda je budou zapojovat samy sociální sítě (s postupující evropskou legislativou a jejich odpovědností za obsah), nezávislí fact checkeři, úřady pověřené kontrolou apod.

    To se mi líbí

  4. Článek efektivně ilustruje výzvy, které přináší šíření dezinformací v digitálním prostředí. Ukazuje důležitost technologických nástrojů, jako je Botometer nebo deepfake detektory, ve snaze identifikovat a omezit dezinformace. Přestože tyto nástroje nabízejí naději na efektivnější boj proti dezinformacím, je stále nezbytné kriticky přistupovat k jejich výsledkům a zpochybňovat nestrannost a transparentnost jejich provozovatelů. Článek také správně zdůrazňuje, že ani nejsofistikovanější technologie nemůže plně nahradit mediální gramotnost a kritické myšlení, které jsou klíčové pro rozpoznání dezinformací. Je to připomínka, že v boji proti dezinformacím musíme kombinovat technologické inovace s vzděláním a neustálou osvětou.

    id: 25114798

    To se mi líbí

Napsat komentář

Design a site like this with WordPress.com
Začít