Fingování videí je snadné, hluboká nostalgie ukazuje

Obsah:

Fingování videí je snadné, hluboká nostalgie ukazuje
Fingování videí je snadné, hluboká nostalgie ukazuje
Anonim

Klíčové poznatky

  • Deep Nostalgia je nový program, který vám umožňuje animovat staré fotografie.
  • Tato technologie ukazuje, jak snadné je vytvářet videa lidí, kteří dělají věci, které ve skutečnosti nedělali.
  • Deep fake technologie je již tak sofistikovaná, že je těžké určit, zda je video skutečné nebo vytvořené počítačem, říká jeden expert.
Image
Image

Dejte si pozor na nový software, který může vytvářet takzvané „hluboké padělky“, ve kterých lze simulovat videa skutečných lidí, varují odborníci.

Hluboká nostalgie, kterou vydala společnost MyHeritage, je trendy na sociálních sítích a uživatelé oživují každého od slavných skladatelů po mrtvé příbuzné. Software vyvolává smíšené reakce, někteří lidé jsou z výtvorů potěšeni a pro jiné jsou děsivé. Tato technologie ukazuje, jak snadné je vytvářet videa lidí, kteří dělají věci, které ve skutečnosti nedělali.

"Technologie Deepfake je stále sofistikovanější a nebezpečnější," řekl Aaron Lawson, zástupce ředitele laboratoře SRI International Speech Technology and Research (STAR) Laboratory, v e-mailovém rozhovoru. "To je částečně způsobeno povahou umělé inteligence. Tam, kde 'tradiční' technologie vyžaduje lidský čas a energii ke zlepšení, AI se může učit sama od sebe."

„Ale schopnost umělé inteligence se sama vyvíjet je dvousečná zbraň,“pokračoval Lawson. "Pokud je AI vytvořena, aby dělala něco benevolentního, skvělé. Ale když je AI navržena pro něco škodlivého, jako jsou hluboké padělky, nebezpečí je bezprecedentní."

Software oživuje fotografie

Genealogický web MyHeritage minulý měsíc představil animační modul. Technologie, známá jako Deep Nostalgia, umožňuje uživatelům animovat fotografie prostřednictvím webu MyHeritage. Společnost s názvem D-ID navrhla pro MyHeritage algoritmy, které digitálně obnovují pohyb lidských tváří. Software aplikuje pohyby na fotografie a upravuje výrazy obličeje tak, aby se pohybovaly tak, jak se obvykle pohybují lidské tváře, podle webu MyHeritage.

Hluboká nostalgie ukazuje, že hluboce falešné technologie jsou stále dostupnější, řekl Lior Shamir, profesor informatiky na Kansas State University v e-mailovém rozhovoru. Postupuje rychle a odstraňuje i jemné rozdíly mezi falešným a skutečným videem a zvukem.

„Došlo také k podstatnému pokroku směrem k deep fake v reálném čase, což znamená, že přesvědčivá deep fake videa jsou generována v době video komunikace,“řekl Shamir."Například lze mít schůzku Zoom s určitou osobou a přitom vidět a slyšet hlas úplně jiné osoby."

Existuje také rostoucí počet jazykových hlubokých padělků, uvedl v e-mailovém rozhovoru Jason Corso, ředitel Stevensova institutu pro umělou inteligenci na Stevens Institute of Technology. "Generování celých odstavců hlubokého falešného textu pro konkrétní agendu je poměrně obtížné, ale moderní pokroky ve zpracování hlubokého přirozeného jazyka to umožňují," dodal.

Jak odhalit hluboký padělek

Zatímco technologie detekce hluboce falešných padělků je stále ve stadiu zrodu, existuje několik způsobů, jak ji odhalit, řekl Corso a začal ústy.

„Variabilita ve vzhledu vnitřku úst, když někdo mluví, je velmi vysoká, takže je obtížné přesvědčivě animovat,“vysvětlil Corso. „Dá se to, ale je to těžší než zbytek hlavy. Všimněte si, jak videa Deep Nostalgia neprokazují schopnost fotografie říci „Miluji tě“nebo jinou frázi během hlubokého falešného stvoření. To by vyžadovalo otevírání a zavírání úst, což je velmi obtížné pro generování hlubokého falešného obsahu."

Ghosting je další dárek, dodal Corso. Pokud kolem okrajů hlavy vidíte rozmazané, je to důsledek "rychlého pohybu nebo omezeného počtu pixelů dostupných ve zdrojovém obrázku. Ucho může na chvíli částečně zmizet nebo se vlasy mohou rozmazat tam, kde byste to nečekali," řekl.

Můžete také dávat pozor na barevné variace, když se snažíte zaznamenat hluboké falešné video, jako je ostrá čára přes obličej s tmavšími barvami na jedné straně a světlejšími na druhé.

„Počítačové algoritmy dokážou často detekovat tyto vzorce zkreslení,“řekl Shamir. "Ale hluboce falešné algoritmy se rychle vyvíjejí. Je nevyhnutelné, že budou vyžadovány přísné zákony na ochranu před hluboce falešnými a škodami, které mohou snadno způsobit."

Doporučuje: