AI by mohla být klíčem k prevenci šíření falešných zpráv

Obsah:

AI by mohla být klíčem k prevenci šíření falešných zpráv
AI by mohla být klíčem k prevenci šíření falešných zpráv
Anonim

Klíčové poznatky

  • Výzkumníci vyvinuli systém umělé inteligence určený k rozpoznání a označení falešných zpráv.
  • Model prohledává veřejný datový soubor falešných zpráv, upozorňuje uživatele a přesměrovává je na ověřené informační zdroje.
  • Existuje stále větší počet metod umělé inteligence, jak čelit online falešným zprávám.

Image
Image

Umělá inteligence (AI) pomáhá omezit rychlé šíření dezinformací online, říkají odborníci.

Výzkumníci vyvinuli systém umělé inteligence, jehož cílem je odhalit a označit falešné zprávy. Model prohledává veřejnou datovou sadu falešných zpráv, upozorňuje uživatele a přesměrovává je na ověřené informační zdroje. Je součástí rostoucího počtu metod umělé inteligence pro boj proti falešným zprávám.

"Množství informací, které proudí internetem, zejména sociálními sítěmi, je obrovské a nelze s ním manipulovat ručně, zvláště s vysokou přesností," Wael AbdAlmageed, profesor počítačového inženýrství na University of Southern California, který vyvinul Algoritmy umělé inteligence pro detekci vizuálních dezinformací, řekl Lifewire v e-mailovém rozhovoru.

„Je důležité monitorovat a označovat dezinformace v reálném čase, protože jakmile se dezinformace začnou šířit, je těžké přesvědčit lidi, že informace jsou nepravdivé, zvláště když dezinformace potvrzují naše předsudky,“dodal.

Keeping It Real

Technika umělé inteligence vyvinutá týmem z australské Macquarie University by mohla pomoci omezit šíření falešných zpráv. Model lze začlenit do aplikace nebo webového softwaru a nabízí odkazy na relevantní „pravdivé“informace, které jsou v souladu se zájmy každého uživatele.

„Když čtete nebo sledujete zprávy online, často se vám pomocí modelu doporučení navrhují zprávy o podobných událostech nebo tématech,“řekl Shoujin Wang, datový vědec z Macquarie University, který na výzkumu pracoval. tisková zpráva.

Wang říká, že přesné zprávy a falešné zprávy pro stejnou událost často používají různé styly obsahu, což mate počítačové modely, aby je považovaly za zprávy pro různé události.

Model Macquarie University „rozděluje“informace o každé zprávě na dvě části: znaky ukazující, zda je zpráva falešná, a informace specifické pro událost ukazující téma nebo událost, o které se zpráva týká. Model poté hledá vzorce toho, jak uživatelé přecházejí mezi různými zprávami, aby předpověděl, o kterou zpravodajskou událost by si uživatel mohl chtít přečíst jako další.

Výzkumný tým trénoval model na veřejném datovém souboru falešných zpráv publikovaných na GitHubu s názvem FakeNewsNet, který ukládá falešné zprávy z PolitiFact a GossipCop spolu s daty, jako je obsah zpráv, sociální kontext a historie čtení uživatelů.

Růst falešných zpráv

Fake news jsou rostoucí problém, naznačují studie. NewsGuard zjistil, že značná část růstu sociálních médií pochází z nespolehlivých webů. V roce 2020 pocházelo 17 procent zapojení mezi 100 nejlepšími zpravodajskými zdroji z webů s červeným hodnocením (obecně nespolehlivých) ve srovnání s přibližně 8 procenty v roce 2019.

Subramaniam Vincent, ředitel žurnalistiky a mediální etiky v Markkula Center for Applied Ethics na Santa Clara University, řekl Lifewire v e-mailovém rozhovoru, že umělá inteligence může pomoci bojovat proti dezinformacím.

Tuto technologii lze použít pro „monitorování chování účtu pro řízené sdílení korelované s nenávistnými projevy nebo již vyvrácenými tvrzeními nebo vyvrácení ověřovateli faktů nebo známými propagandistickými státními subjekty nebo vznikajícími skupinami s rychlým nárůstem počtu členů,“vysvětlil Vincent. "AI lze také použít spolu s designem k označení obsahu konkrétních typů, aby se přidalo tření před jejich sdílením."

Image
Image

AbdAlmageed řekl, že sociální sítě musí integrovat algoritmy detekce falešných zpráv jako součást svých algoritmů doporučení. Cílem, řekl, je „označit falešné zprávy jako falešné nebo nepřesné, pokud nechtějí zcela zabránit sdílení falešných zpráv.“

To znamená, že zatímco umělá inteligence může být užitečná pro boj proti falešným zprávám, tento přístup má své stinné stránky, řekl Vincent. Problém je v tom, že systémy umělé inteligence nedokážou pochopit význam lidské řeči a písma, takže budou vždy za křivkou.

„Čím přesnější by umělá inteligence mohla být s některými formami zjevných nenávistných projevů a dezinformací, tím více se lidská kultura přesune k novějšímu kódu a přenosu podzemních významů k organizování,“řekl Vincent.

Wasim Khaled, generální ředitel společnosti Blackbird. AI pro sledování dezinformací, uvedl v e-mailu pro Lifewire, že online dezinformace jsou vyvíjející se hrozbou. Nové systémy umělé inteligence musí být schopny předvídat, kde se příště objeví falešné zprávy.

"Ve většině případů nemůžete vytvořit produkt AI a nazvat ho hotovým," řekl Khaled. „Vzorce chování se v průběhu času mění a je důležité, aby vaše modely AI s těmito změnami držely krok.“

Doporučuje: