Nevěřte ničemu, co vidíte na webu, říkají odborníci

Obsah:

Nevěřte ničemu, co vidíte na webu, říkají odborníci
Nevěřte ničemu, co vidíte na webu, říkají odborníci
Anonim

Klíčové poznatky

  • Nový výzkum odhaluje, že lidé nedokážou oddělit obrázky vytvořené umělou inteligencí od skutečných.
  • Účastníci hodnotili obrázky generované umělou inteligencí jako důvěryhodnější.
  • Odborníci se domnívají, že by lidé měli přestat věřit čemukoli, co vidí na internetu.
Image
Image

Přísloví „vidět znamená věřit“již není na internetu aktuální a odborníci tvrdí, že se to v dohledné době nezlepší.

Nedávná studie zjistila, že obrázky tváří generované umělou inteligencí (AI) byly nejen vysoce fotorealistické, ale také vypadaly ctnostněji než skutečné tváře.

"Naše hodnocení fotorealismu tváří syntetizovaných umělou inteligencí naznačuje, že syntetizéry prošly tajemným údolím a jsou schopny vytvořit tváře, které jsou nerozeznatelné a důvěryhodnější než skutečné tváře," poznamenali výzkumníci.

Tato osoba neexistuje

Výzkumníci, Dr. Sophie Nightingale z Lancaster University a profesor Hany Farid z University of California, Berkeley, provedli experimenty poté, co uznali dobře propagované hrozby hlubokých padělků, od všech druhů online podvodů po povzbuzující dezinformační kampaně.

„Možná nejzhoubnější je ten důsledek, že v digitálním světě, ve kterém lze zfalšovat jakýkoli obrázek nebo video, může být zpochybněna autenticita jakékoli nepohodlné nebo nevítané nahrávky,“tvrdili vědci.

Argumentovali tím, že ačkoli došlo k pokroku ve vývoji automatických technik pro detekci hluboce falešného obsahu, současné techniky nejsou dostatečně účinné a přesné, aby udržely krok s neustálým proudem nového obsahu nahrávaného online. To znamená, že je na spotřebitelích online obsahu, aby rozlišili skutečný od falešného, navrhuje duo.

Jelle Wieringa, obhájce povědomí o bezpečnosti ve společnosti KnowBe4, souhlasil. Prostřednictvím e-mailu Lifewire řekl, že boj proti skutečným hlubokým padělkům samotným je extrémně těžký bez specializované technologie. „[Technologie na zmírnění rizika] mohou být drahé a obtížně implementovatelné do procesů v reálném čase, přičemž často detekují deepfake až poté.“

S tímto předpokladem vědci provedli řadu experimentů, aby zjistili, zda lidští účastníci dokážou rozlišit nejmodernější syntetizované tváře od skutečných tváří. Ve svých testech zjistili, že navzdory školení, které má pomoci rozpoznat padělky, se míra přesnosti zlepšila pouze na 59 %, oproti 48 % bez školení.

To vedlo vědce k testování, zda vnímání důvěryhodnosti může lidem pomoci identifikovat umělé obrázky. Ve třetí studii požádali účastníky, aby ohodnotili důvěryhodnost tváří, ale zjistili, že průměrné hodnocení syntetických tváří bylo 7. O 7 % důvěryhodnější než průměrné hodnocení skutečných tváří. Toto číslo nemusí znít jako mnoho, ale výzkumníci tvrdí, že je statisticky významné.

Hlubší padělky

Hluboké padělky již byly velkým problémem a nyní jsou vody touto studií dále zakaleny, což naznačuje, že takové vysoce kvalitní falešné snímky by mohly přidat zcela nový rozměr online podvodům, například tím, že pomohou vytvořit více přesvědčivé online falešné profily.

„Jedinou věcí, která pohání kybernetickou bezpečnost, je důvěra lidí v technologie, procesy a lidi, kteří se je snaží udržet v bezpečí,“řekl Wieringa. "Hluboké padělky, zvláště když se stanou fotorealistickými, podkopávají tuto důvěru, a tím i přijetí a přijetí kybernetické bezpečnosti. Může to vést k tomu, že lidé začnou být nedůvěřiví ke všemu, co vnímají."

Image
Image

Chris Hauk, šampión ochrany osobních údajů spotřebitelů ve společnosti Pixel Privacy, souhlasil. V krátké e-mailové výměně řekl Lifewire, že fotorealistické hluboké falešování může způsobit „zmatek“online, zvláště v dnešní době, kdy lze pomocí technologie ID fotografií přistupovat ke všem druhům účtů.

Nápravné opatření

Naštěstí Greg Kuhn, ředitel IoT, Prosegur Security, říká, že existují procesy, které se mohou takovému podvodnému ověřování vyhnout. Prostřednictvím e-mailu řekl Lifewire, že identifikační systémy založené na umělé inteligenci porovnávají ověřeného jednotlivce se seznamem, ale mnoho z nich má zabudovaná ochranná opatření pro kontrolu „živosti“.

"Tyto typy systémů mohou vyžadovat a vést uživatele k provedení určitých úkolů, jako je úsměv nebo otočení hlavy doleva a poté doprava. To jsou věci, které staticky generované tváře nemohly provést," sdílený Kuhn.

Výzkumníci navrhli pokyny k regulaci jejich vytváření a distribuce, aby chránili veřejnost před syntetickými obrázky. Pro začátek navrhují začlenit hluboce zakořeněné vodoznaky do samotných sítí pro syntézu obrazu a videa, aby bylo zajištěno, že všechna syntetická média bude možné spolehlivě identifikovat.

Do té doby Paul Bischoff, obhájce soukromí a editor výzkumu infosec ve společnosti Comparitech, říká, že lidé jsou na to sami."Lidé se budou muset naučit nedůvěřovat obličejům online, stejně jako jsme se všichni (doufejme) naučili nedůvěřovat zobrazovaným jménům v našich e-mailech," řekl Bischoff Lifewire e-mailem.

Doporučuje: