Alexina schopnost napodobovat mrtvé příbuzné může být ta nejstrašidelnější věc

Obsah:

Alexina schopnost napodobovat mrtvé příbuzné může být ta nejstrašidelnější věc
Alexina schopnost napodobovat mrtvé příbuzné může být ta nejstrašidelnější věc
Anonim

Klíčové poznatky

  • Hlasový asistent Alexa od Amazonu dokáže zkopírovat hlas za pouhou minutu zvuku.
  • Můžete požádat Alexu, aby přečetla příběh hlasem mrtvého rodiče.
  • Je to stejný nápad jako hluboké padělky, používá se pouze pro síly dobra.
Image
Image

Nejnovějším trikem Amazon Alexa je naučit se napodobovat hlas mrtvého milovaného člověka, aby k vám mohl mluvit až za hrob.

Alexa potřebuje jen minutu mluveného zvuku, aby přesvědčivě napodobila hlas. Amazon to účtuje jako uklidňující funkci, která vám může dát kontakt s blízkými, ale může to být také docela strašidelný zážitek. A ukazuje, jak snadné je vytvořit hluboký falešný zvuk, který nás oklame, i když je to hlas, který velmi dobře známe.

„Amazon rozhodně vstoupil na poměrně unikátní a bizarní území svým oznámením, že Alexa se brzy bude moci naučit a poté brzy používat hlas mrtvých příbuzných,“řekl Bill Mann, expert na soukromí z Restore Privacy. Lifewire prostřednictvím e-mailu. "Pro některé lidi to vůbec není strašidelné. Ve skutečnosti to může být docela dojemné."

Ghost in the Machine

V rámci své výroční konference re:MARS předvádí Amazon tuto funkci v krátkém videu. V něm se dítě ptá Alexy, jestli mu babička může dál číst „Čaroděj ze země Oz“, oblíbené dílo každého dítěte, které je přátelské ke klíčovým poznámkám. A je to docela dojemný okamžik. Je těžké necítit lidské emoce, když babička začne číst.

"Lidé bojují se smrtelností, zejména v západní kultuře. Po staletí jsme se snažili najít způsoby, jak uctívat památku mrtvého, od posmrtných masek, přes prameny vlasů, po staré fotografie až po sledování starých filmů," Andrew Selepak, profesor sociálních médií na Floridské univerzitě, řekl Lifewire e-mailem. "Deepfake používá nejnovější technologii k vytvoření nové posmrtné masky zesnulého milovaného člověka. Ale v závislosti na úhlu pohledu, je to strašidelné nebo způsob, jak si pamatovat a držet někoho, koho milujete, když zemře?"

Ale memento mori může být uklidňující i strašidelné. Přítel člena rodiny je mrtvý, ale stále ho slyšíte mluvit. Nepomůže, že Alexa má v minulosti zvláštní a někdy děsivé chování. V roce 2018, když publicista NYT Farhad Manjoo uléhal do postele, jeho Amazon Echo „začalo kvílet jako dítě křičící ve snu z hororového filmu.“

Brzy poté Amazon uznal, že se Alexa někdy nahlas smála, což je spolu s teenagery a sklepy horor 101.

Člověk se může jen divit, jak byste se mohli cítit, kdyby Alexa použila stejné triky v babiččině hlase.

Deep Fake

Zjevná snadnost, s jakou se Alexa učí napodobovat hlas, nás vede k ohavnějším způsobům klonování hlasu: hlubokým padělkům.

Image
Image

"Deepfake audio není nic nového, i když je málo srozumitelné a málo známé. Tato technologie je k dispozici již léta k obnovení hlasu jednotlivce pomocí umělé inteligence a hlubokého učení za použití relativně malého množství skutečného zvuku od osoby, " říká Selepak. "Taková technologie může být také nebezpečná a destruktivní. Narušený jedinec by mohl znovu vytvořit hlas mrtvého bývalého přítele nebo přítelkyně a použít nový zvuk k vyslovení nenávistných a zraňujících věcí."

To je jen v kontextu Alexy. Hluboký falešný zvuk by mohl jít daleko za to a přesvědčit lidi, že prominentní politici věří například věcem, kterým ne. Ale na druhou stranu, čím více si budeme zvykat na tyto hluboké padělky - možná v podobě těchto hlasů Alexa -, tím více budeme skeptičtější k ohavnějším padělkům. Pak znovu, vzhledem k tomu, jak snadné je šířit lži na Facebooku, možná ne.

Amazon neuvedl, zda tato funkce přichází do Alexy, nebo jde pouze o technologické demo. Tak trochu doufám, že ano. Technologie je nejlepší, když se používá humanistickým způsobem, jako je tento, a i když je snadnou reakcí nazvat to strašidelné, jak říká Selepak, ve skutečnosti se to příliš neliší od sledování starých videí nebo poslechu uložených hlasových zpráv, jako postava v líně napsaném televizním pořadu.

A pokud je technologie pro hluboké padělky snadno dostupná, proč ji nevyužít, abychom se uklidnili?

Doporučuje: