Proč nový profilovací software vyvolává obavy o soukromí

Obsah:

Proč nový profilovací software vyvolává obavy o soukromí
Proč nový profilovací software vyvolává obavy o soukromí
Anonim

Klíčové poznatky

  • Software, který používá umělou inteligenci k profilování lidí, vyvolává obavy o soukromí.
  • Cryfe kombinuje techniky analýzy chování s umělou inteligencí.
  • Čínská společnost Alibaba nedávno čelila kritice poté, co údajně uvedla, že její software dokáže detekovat Ujgury a další etnické menšiny.
Image
Image

Nový software poháněný umělou inteligencí, který je určen pro zaměstnavatele, aby profilovali své zaměstnance, vyvolává obavy o soukromí.

Jedna nová softwarová platforma, nazvaná Cryfe, kombinuje techniky analýzy chování s umělou inteligencí. Vývojář tvrdí, že analyzováním nepatrných vodítek může software odhalit záměry lidí během rozhovorů. Někteří pozorovatelé však tvrdí, že Cryfe a další typy softwaru, které analyzují chování, mohou narušit soukromí.

„Společnosti stále více spoléhají na AI při profilování,“řekl v e-mailovém rozhovoru expert na AI Václav Vincale. „Ale ani lidé, kteří kódují tyto algoritmy, natož pak osoba zákaznické podpory, kterou zavoláte po telefonu, vám nedokázali říct, proč dávají nějaké doporučení.“

Více než slova

Cryfe byl vyvinut švýcarskou společností, jejíž zaměstnanci byli vyškoleni FBI v technikách profilování. "Cryfe ve veškeré mezilidské komunikaci nejen naslouchá slovům, ale identifikuje další signály vydávané člověkem, jako jsou emoce, mikrovýrazy a všechna gesta," řekla Caroline Matteucci, zakladatelka Cryfe, v e-mailovém rozhovoru.

"Například během náboru nám to umožňuje jít a hledat skutečnou osobnost našeho partnera."

Matteucci řekl, že soukromí uživatelů je chráněno, protože společnost je transparentní ohledně toho, jak její software funguje. "Uživatel, než bude moci používat platformu, musí přijmout všeobecné podmínky," řekla.

"Tam je specifikováno, že uživatel nesmí v žádném případě odeslat rozhovor k analýze bez písemného souhlasu partnera."

Cryfe není jediný software s umělou inteligencí, který má za úkol analyzovat lidské chování. Existuje také Humantic, který tvrdí, že analyzuje chování spotřebitelů. „Převratná technologie společnosti Humantic předpovídá chování každého, aniž by musel podstoupit osobnostní test,“uvádí se na webových stránkách společnosti.

Image
Image

Společnost tvrdí, že používá umělou inteligenci k vytváření psychologických profilů uchazečů na základě slov, která používají v životopisech, průvodních dopisech, profilech LinkedIn a jakémkoli jiném textu, který odešlou.

Behaviorální software se v minulosti setkal s právními problémy. V roce 2019 agentura Bloomberg Law uvedla, že Komise pro rovné pracovní příležitosti (EEOC) se zabývala případy údajné nezákonné diskriminace v důsledku rozhodnutí souvisejících s HR pomocí algoritmů.

„Tohle všechno se bude muset vyřešit, protože budoucnost náboru je AI,“řekl Bloomberg právník Bradford Newman.

Někteří pozorovatelé mají problém se společnostmi, které používají software pro sledování chování, protože není dostatečně přesný. V rozhovoru Nigel Duffy, globální lídr v oblasti umělé inteligence ve firmě EY poskytující profesionální služby, řekl InformationWeek, že ho trápí software, který využívá kvízy na sociálních sítích a ovlivňuje detekci.

„Myslím, že existuje opravdu přesvědčivá literatura o potenciálu detekce vlivů, ale chápu to tak, že způsob, který je často implementován, je dost naivní,“řekl.

"Lidé vyvozují závěry, které věda ve skutečnosti nepodporuje [jako] rozhodnutí o někom, kdo je potenciálně dobrý zaměstnanec, protože se hodně usmívá, nebo rozhodnutí, že se někomu líbí vaše produkty, protože se hodně usmívá"

Čínské společnosti údajně profilují menšiny

Sledování chování by mohlo mít také zlověstnější účely, říkají některé skupiny pro lidská práva. V Číně nedávno vzbudil obří online tržiště Alibaba rozruch poté, co údajně tvrdil, že jeho software dokáže detekovat Ujgury a další etnické menšiny.

The New York Times uvedly, že cloud computing společnosti má software, který dokáže skenovat obrázky a videa.

Ale ani lidé, kteří kódují tyto algoritmy…nemohli vám říct, proč dávají nějaké doporučení.

The Washington Post také nedávno uvedl, že Huawei, další čínská technologická společnost, testovala software, který by mohl upozornit orgány činné v trestním řízení, když jeho sledovací kamery zachytily obličeje Ujgurů.

Patentová přihláška společnosti Huawei z roku 2018 údajně tvrdila, že „identifikace atributů chodce je velmi důležitá“v technologii rozpoznávání obličeje."Atributy cílového objektu mohou být pohlaví (muž, žena), věk (jako jsou teenageři, střední věk, starý) [nebo] rasa (Han, Ujgur),“uvedla aplikace.

Mluvčí Huawei řekl CNN Business, že funkce etnické identifikace by se „nikdy neměla stát součástí aplikace.“

Rozvíjející se využívání umělé inteligence k třídění obrovského množství dat nutně vyvolává obavy o soukromí. Možná nikdy nebudete vědět, kdo nebo co vás analyzuje, až půjdete příště na pracovní pohovor.

Doporučuje: