Facebook's Deepfake Tech nás nezachrání, říkají odborníci

Obsah:

Facebook's Deepfake Tech nás nezachrání, říkají odborníci
Facebook's Deepfake Tech nás nezachrání, říkají odborníci
Anonim

Klíčové poznatky

  • Vzhledem k tomu, že je vytváření deepfakes snazší, prioritou se staly nové a vylepšené způsoby, jak je odhalit.
  • Facebooková technologie deepfake-spotting využívá zpětné strojové učení k odhalení, zda je video deepfake, nebo ne.
  • Odborníci tvrdí, že použití technologie blockchain by bylo nejlepším způsobem, jak zjistit, zda je video skutečné nebo ne, protože metoda spoléhá na kontextová data.
Image
Image

Facebook si je jistý svým modelem strojového učení pro boj s deepfakes, ale odborníci tvrdí, že samotné strojové učení nás nezachrání před oklamáním deepfakes.

Společnosti jako Facebook, Microsoft a Google se všechny snaží bojovat proti šíření falšování po webu a sociálních sítích. I když se metody liší, existuje jedna potenciální bezpečná metoda, jak tato falešná videa odhalit: blockchainy.

“[Blockchains] vám dává spoustu potenciálu ověřit deepfake způsobem, který je nejlepší formou ověření, jakou vidím,“Stephen Wolfram, zakladatel a CEO společnosti Wolfram Research a autor knihy A New Kind of Science, řekl Lifewire po telefonu.

Facebook's Deepfake-Spotting Tech

Technologie Deepfake se za posledních několik let rychle rozrostla. Zavádějící videa využívají metody strojového učení k provádění věcí, jako je překrytí něčí tváře na tělo jiné osoby, změna podmínek pozadí, falešná synchronizace rtů a další. Sahá od neškodných parodií až po nutí celebrity nebo veřejné osobnosti říkat nebo dělat něco, co nedělaly.

Odborníci říkají, že technologie jde rychle kupředu a že deepfakes budou přesvědčivější (a snáze se vytvoří), až se technologie stane dostupnější a inovativnější.

Image
Image

Facebook nedávno ve spolupráci s Michigan State University poskytl více informací o své technologii detekce deepfake. Sociální síť říká, že se spoléhá na reverzní inženýrství od jediného obrázku generovaného umělou inteligencí až po generativní model použitý k jeho výrobě.

Výzkumní vědci, kteří spolupracovali s Facebookem, uvedli, že metoda spoléhá na odhalení jedinečných vzorů za modelem umělé inteligence, který se používá ke generování deepfake.

“Zobecněním přiřazení obrázku k rozpoznávání otevřené množiny můžeme odvodit více informací o generativním modelu použitém k vytvoření deepfake, který přesahuje rozpoznání toho, že nebyl dosud viděn. A sledováním podobností mezi vzory sbírky deepfake jsme mohli také zjistit, zda série obrázků pocházela z jednoho zdroje,“napsali výzkumní vědci Xi Yin a Tan Hassner v blogovém příspěvku Facebooku o metodě deepfake-spotting.

Image
Image

Wolfram říká, že dává smysl, že byste použili strojové učení k odhalení pokročilého modelu umělé inteligence (deepfake). Vždy je však prostor pro oklamání technologie.

„Vůbec mě nepřekvapuje, že existuje slušný způsob strojového učení [detekce deepfakes],“řekl Wolfram. „Jediná otázka je, jestli vynaložíte dostatečné úsilí, dokážete to oklamat? Jsem si jistý, že můžeš.“

Bojovat s Deepfakes jiným způsobem

Namísto toho Wolfram řekl, že věří, že použití blockchainu by bylo nejlepší možností, jak přesně lokalizovat určité typy deepfakes. Jeho názor na používání blockchainu před strojovým učením sahá až do roku 2019 a řekl, že v konečném důsledku může blockchainový přístup poskytnout přesnější řešení našeho problému deepfake.

„Očekával bych, že diváci obrázků a videí mohou běžně porovnávat blockchainy (a ‚výpočty datové triangulace‘) trochu podobně jako nyní webové prohlížeče kontrolují bezpečnostní certifikáty,“napsal Wolfram v článku publikovaném v Scientific American.

Protože blockchainy ukládají data do bloků, které jsou následně zřetězeny v chronologickém pořadí, a protože decentralizované blockchainy jsou neměnné, zadaná data jsou nevratná.

Jedinou otázkou je, jestli vynaložíte dostatečné úsilí, dokážete to oklamat? Jsem si jistý, že můžeš.

Wolfram vysvětlil, že když vložíte video do blockchainu, budete moci vidět čas, kdy bylo pořízeno, místo a další kontextové informace, které vám umožní zjistit, zda bylo nějakým způsobem změněno.

„Obecně platí, že čím více metadat uvádí obrázek nebo video do kontextu, tím je pravděpodobnější, že to budete schopni říct,“řekl. "Na blockchainu nemůžete předstírat čas."

Wolfram však řekl, že použitá metoda – ať už jde o strojové učení nebo používání blockchainu – závisí na typu deepfake, před kterým se snažíte chránit (tj. video Kim Kardashianové, jak říká něco hloupého, nebo video politik činí prohlášení nebo návrh).

„Blockchainový přístup chrání před určitými druhy hlubokých padělků, stejně jako zpracování obrazu pomocí strojového učení chrání před určitými druhy hlubokých padělků,“řekl.

Sečteno a podtrženo, zdá se, je ostražitost nás všech, pokud jde o boj s nadcházející falešnou potopou.

Doporučuje: