Jak může umělá inteligence manipulovat s vašimi volbami

Obsah:

Jak může umělá inteligence manipulovat s vašimi volbami
Jak může umělá inteligence manipulovat s vašimi volbami
Anonim

Klíčové poznatky

  • Algoritmy AI a strojového učení sledují lidské chování a mohou se s ním naučit manipulovat, říkají odborníci.
  • Výzkumníci nedávno vytvořili způsob, jak najít a využít zranitelná místa ve způsobech, kterými se lidé rozhodují pomocí AI.
  • Nejdůmyslnější algoritmus sociálních médií je v současnosti TikTok, říká jeden pozorovatel.
Image
Image

Umělá inteligence (AI) a algoritmy strojového učení se stále více učí, jak ovlivnit chování uživatelů, říkají odborníci.

Výzkumníci z australské národní vědecké agentury nedávno vytvořili způsob, jak najít a využít zranitelnosti ve způsobech, jak se lidé rozhodují pomocí AI. Nejnovější výzkum je jen jedním z vlny systémů řízených umělou inteligencí navržených tak, aby manipulovaly s lidským rozhodováním.

„Neexistuje konec mnoha způsobům, kterými umělá inteligence již ovlivňuje chování,“Kentaro Toyama, profesor na University of Michigan School of Information a autor knihy Geek Heresy: Rescuing Social Change from the Cult of Technology, řekl v e-mailovém rozhovoru.

„Ve skutečnosti, pokud jste někdy provedli vyhledávání na Googlu a navázali na odkaz, ovlivnil vás systém umělé inteligence, který odhadl vaše zájmy a vrátil výsledky, o kterých si myslel, že jsou pro vás nejrelevantnější.“

AI vs. lidé

V australském výzkumu zveřejněném v nedávném článku lidští účastníci hráli hry proti počítači v různých experimentech. V prvním experimentu účastníci klikali na červeně nebo modře zbarvená políčka, aby vyhráli peníze.

Umělá inteligence byla úspěšná asi v 70 % případů, naučila se vzorce výběru účastníků a vedla je ke konkrétní volbě.

V jiném experimentu účastníci sledovali obrazovku a stiskli tlačítko, když se jim zobrazil konkrétní symbol, nebo jej nestiskli, když jim byl nabídnut jiný. Umělá inteligence se naučila přeskupovat symboly, takže účastníci dělali více chyb.

Image
Image

Výsledkem experimentů, dospěli vědci, bylo, že AI se naučila z odpovědí účastníků. Stroj poté identifikoval a zaměřil se na zranitelná místa v rozhodování lidí. Ve skutečnosti by umělá inteligence mohla zmanipulovat účastníky k provádění konkrétních akcí.

Fakt, že umělá inteligence nebo strojové učení mohou manipulovat s lidmi, by podle pozorovatelů neměl být žádným překvapením.

"AI ovlivňuje naše chování každý den," řekla Tamara Schwartzová, odborná asistentka kybernetické bezpečnosti a obchodní administrativy na York College of Pennsylvania v e-mailovém rozhovoru.

"Neustále slyšíme o algoritmech v aplikacích sociálních médií, jako je Facebook nebo Twitter. Tyto algoritmy směřují naši pozornost na související obsah a vytvářejí efekt 'echo komory', což zase ovlivňuje naše chování."

TikTok sleduje

Nejdůmyslnějším algoritmem sociálních médií je v současnosti TikTok, řekl Schwartz. Aplikace analyzuje, co vás zajímá, jak dlouho se na něco díváte a jak rychle něco přeskakujete, a poté zpřesňuje své nabídky, abyste se stále dívali.

„TikTok je mnohem návykovější než jiné platformy díky tomuto algoritmu umělé inteligence, který rozumí tomu, co se vám líbí, jak se učíte a jak si vybíráte informace,“dodala. "Víme to, protože průměrný čas, který uživatelé stráví na TikTok, je 52 minut."

Manipulace s lidským chováním umělou inteligencí by mohla mít pozitivní využití, argumentoval Chris Nicholson, generální ředitel společnosti AI Pathmind, v e-mailovém rozhovoru. Agentury veřejného zdraví by například mohly využít umělou inteligenci k povzbuzení lidí k lepším rozhodnutím.

Image
Image

"Sociální média, tvůrci videoher, inzerenti a autoritářské režimy však hledají způsoby, jak podnítit lidi, aby dělali rozhodnutí, která nejsou v jejich nejlepším zájmu, a to jim dá nové nástroje, jak to udělat," dodal.

Etické problémy s umělou inteligencí ovlivňující chování jsou často na úrovni, řekl Toyama. Umělá inteligence umožňuje cílenou reklamu, ve které lze využít individuální preference a slabé stránky.

"Je například možné, aby systém umělé inteligence identifikoval lidi, kteří se snaží přestat kouřit, a posypal je lákavými reklamami na cigarety," dodal.

Ne každý souhlasí s tím, že AI manipulace lidského chování je problematická. Klasická psychologie i umělá inteligence pozorují data, upozornil Jason J. Corso, ředitel Stevensova institutu pro umělou inteligenci, v e-mailovém rozhovoru.

„Lidští vědci jsou pravděpodobně lepší ve zobecňování pozorování a destilaci teorií lidského chování, které mohou být šířeji použitelné, zatímco modely umělé inteligence by byly přístupnější k identifikaci nuancí specifických pro problém,“řekl Corso.

"Z etického hlediska mezi nimi nevidím rozdíl."

Doporučuje: