Proč by software pro čtení emocí mohl narušit vaše soukromí

Obsah:

Proč by software pro čtení emocí mohl narušit vaše soukromí
Proč by software pro čtení emocí mohl narušit vaše soukromí
Anonim

Klíčové poznatky

  • Zoom údajně řekl, že použije AI k vyhodnocení nálady nebo úrovně zapojení uživatele.
  • Skupiny na ochranu lidských práv žádají Zoom, aby přehodnotil svůj plán kvůli ochraně soukromí a bezpečnosti dat.
  • Některé společnosti také používají software pro detekci emocí během rozhovorů k posouzení, zda uživatel věnuje pozornost.
Image
Image

Rostoucí využívání umělé inteligence (AI) ke sledování lidských emocí vyvolává obavy o soukromí.

Organizace pro lidská práva žádají společnost Zoom, aby zpomalila svůj plán zavést do svého softwaru pro videokonference umělou inteligenci analyzující emoce. Společnost údajně uvedla, že bude používat AI k vyhodnocení nálady nebo úrovně zapojení uživatele.

"Odborníci připouštějí, že analýza emocí nefunguje," napsalo konsorcium lidskoprávních skupin včetně ACLU v dopise společnosti Zoom. "Mimika je často odpojena od emocí pod nimi a výzkum zjistil, že ani lidé někdy nedokážou přesně číst nebo měřit emoce druhých. Vývoj tohoto nástroje dodává pseudovědě na důvěryhodnosti a ohrožuje vaši pověst."

Zoom neodpověděl okamžitě na žádost Lifewire o komentář.

Mějte přehled o svých emocích

Podle článku Protokol by monitorovací systém Zoom nazvaný Q for Sales kontroloval poměr doby hovoru uživatelů, zpoždění odezvy a časté změny reproduktorů, aby sledoval, jak je osoba zapojena. Zoom by tato data použil k přiřazení skóre mezi nulou a 100, přičemž vyšší skóre naznačuje vyšší zapojení nebo sentiment.

Skupiny na ochranu lidských práv tvrdí, že software by mohl diskriminovat lidi s postižením nebo určitými etnickými skupinami za předpokladu, že každý používá ke komunikaci stejné výrazy obličeje, hlasové vzorce a řeč těla. Skupiny také naznačují, že software by mohl představovat bezpečnostní riziko pro data.

Image
Image

„Sběr hluboce osobních údajů by mohl z jakékoli entity, která tuto technologii nasadí, udělat cíl pro slídění vládních úřadů a zákeřných hackerů,“uvádí se v dopise.

Julia Stoyanovich, profesorka informatiky a inženýrství na New York University, řekla Lifewire v e-mailovém rozhovoru, že je skeptická k tvrzením za detekcí emocí.

„Nechápu, jak může taková technologie fungovat – emocionální projev lidí je velmi individuální, velmi kulturně závislý a velmi kontextově specifický,“řekl Stoyanovich."Ale možná ještě důležitější je, že nechápu, proč bychom chtěli, aby tyto nástroje fungovaly. Jinými slovy, měli bychom ještě větší potíže, kdyby fungovaly dobře. Ale možná ještě předtím, než budeme přemýšlet o rizicích, bychom měli zeptejte se – jaké jsou potenciální výhody takové technologie?"

Zoom není jedinou společností, která používá software pro detekci emocí. Theo Wills, vrchní ředitel pro ochranu soukromí ve společnosti Kuma LLC, která se zabývá poradenstvím v oblasti ochrany soukromí a bezpečnosti, řekl Lifewire e-mailem, že software pro detekci emocí se používá během rozhovorů k posouzení, zda uživatel věnuje pozornost. Testuje se také v dopravním průmyslu, aby sledoval, zda řidiči vypadají ospale, na video platformách pro měření zájmu a přizpůsobení doporučení a ve vzdělávacích výukových programech, aby se zjistilo, zda je konkrétní metoda výuky poutavá.

Wills tvrdil, že kontroverze kolem softwaru pro monitorování emocí je spíše otázkou etiky dat než soukromí. Řekla, že jde o to, aby systém dělal rozhodnutí v reálném světě na základě tušení.

"S touto technologií nyní předpokládáte důvod, proč mám na své tváři určitý výraz, ale impuls za výrazem se značně liší v důsledku věcí, jako je sociální nebo kulturní výchova, rodinné chování, minulé zkušenosti nebo nervozita v tuto chvíli,“dodal Wills. "Založení algoritmu na předpokladu je ze své podstaty chybné a potenciálně diskriminační. Mnoho populací není zastoupeno v populaci, na které jsou algoritmy založeny, a před použitím je třeba upřednostnit vhodné znázornění."

Praktické úvahy

Problémy vyvolané softwarem pro sledování emocí mohou být praktické i teoretické. Matt Heisie, spoluzakladatel Ferret.ai, aplikace řízené umělou inteligencí, která poskytuje informace o vztazích, řekl Lifewire v e-mailu, že uživatelé se musí ptát, kde se provádí analýza tváří a jaká data se ukládají. Probíhá studie na nahrávkách hovorů, zpracovává se v cloudu nebo na místním zařízení?

Také se Heisie zeptala, jak se algoritmus dozvídá, jaká data shromažďuje o obličeji nebo pohybech osoby, která by mohla být potenciálně oddělena od algoritmu a použita k opětovnému vytvoření něčí biometrie? Uchovává společnost snímky za účelem ověření nebo ověření znalostí algoritmu a je uživatel upozorněn na tato nová odvozená data nebo uložené obrázky, které mohou být shromažďovány z jejich hovorů?

„To jsou všechno problémy, které vyřešilo mnoho společností, ale existují také společnosti, které otřásly skandálem, když se ukázalo, že to neudělaly správně,“řekla Heisie. "Facebook je nejvýznamnějším případem společnosti, která kvůli obavám o soukromí uživatelů zrušila svou platformu pro rozpoznávání obličejů. Mateřská společnost Meta nyní stahuje funkce AR z Instagramu v některých jurisdikcích, jako je Illinois a Texas, kvůli zákonům na ochranu soukromí v oblasti biometrických údajů."

Doporučuje: