Klíčové poznatky
- Algoritmické zkreslení je škodlivé pro teenagery, kteří tráví hodně času na internetu, říkají odborníci.
- Uživatelé Twitteru nedávno narazili na problém, kdy byly černé tváře vyřazeny ve prospěch bílých.
- Vyvíjející se mozky teenagerů mohou být zvláště náchylné ke škodlivým účinkům algoritmického zkreslení, říkají výzkumníci.
Předsudky zapečené v některých technologiích, známé jako algoritmické zkreslení, mohou být škodlivé pro mnoho skupin, ale podle odborníků to poškozuje zejména dospívající.
Algoritmické zkreslení, kdy počítačové systémy vykazují předpojaté výsledky, je rostoucí problém. Uživatelé Twitteru nedávno našli na platformě příklad zkreslení, když algoritmus detekce obrazu, který ořezává fotografie, vystřihoval černé obličeje ve prospěch bílých. Společnost se za problém omluvila, ale zatím nezveřejnila opravu. Je to příklad zaujatosti, které teenageři čelí, když jsou online, což dělají více než kterákoli jiná věková skupina, říkají odborníci.
"Většina dospívajících si neuvědomuje, že společnosti sociálních médií je používají k propagaci konkrétního obsahu, o kterém si myslí, že se uživatelům bude líbit [aby] zůstali na platformě co nejdéle, " Dr. Mai- Ly Nguyen Steers, odborný asistent na Fakultě ošetřovatelství na Duquesne University, který studuje používání sociálních médií mezi dospívajícími/vysokoškolskými studenty, řekl v e-mailovém rozhovoru.
"I když existuje určitá úroveň vědomí o algoritmu, efekt nedostatku lajků a komentářů je stále silný a může ovlivnit sebevědomí dospívajících," dodal Steers.
Rozvíjející se mozky
Algoritmické zkreslení může ovlivňovat dospívající nepředvídanými způsoby, protože jejich prefrontální kůra se stále vyvíjí, vysvětlila Mikaela Pisani, hlavní datová vědkyně společnosti Rootstrap v e-mailovém rozhovoru.
Efekt nedostatku lajků a komentářů je stále silný a může ovlivnit sebevědomí dospívajících.
"Dospívající jsou obzvláště zranitelní vůči fenoménu 'Social Factory', kde algoritmy vytvářejí na online platformách společenské shluky, které vedou k úzkosti a depresi, pokud nejsou splněny potřeby dospívajícího získat sociální uznání," řekl Pisani. „Algoritmy se zjednodušují na základě dřívějších nedokonalých dat, což vede k nadměrnému zastoupení stereotypů na úkor jemnějších přístupů k utváření identity.
"Ze širšího hlediska jsme si také ponecháni, abychom si jako společnost položili otázku, zda chceme algoritmy utvářející cesty našich dospívajících do dospělosti, a zda tento systém vůbec podporuje, spíše než potlačuje individuální osobní růst?"
Kvůli těmto problémům je potřeba mít při navrhování algoritmů stále více na paměti teenagery, říkají odborníci.
"Na základě podnětů od vývojových specialistů, datových vědců a zastánců mládeže by mohly být politiky 21. století v oblasti ochrany osobních údajů a algoritmického návrhu také vytvořeny s ohledem na konkrétní potřeby dospívajících," Avriel Epps-Darling, doktorandka student na Harvardu, napsal nedávno. "Pokud budeme místo toho nadále zlehčovat nebo ignorovat způsoby, kterými jsou dospívající zranitelní vůči algoritmickému rasismu, škody se pravděpodobně projeví v dalších generacích."
Boj proti zaujatosti
Dokud neexistuje řešení, někteří výzkumníci se snaží najít způsoby, jak snížit škody způsobené mladým lidem neobjektivními algoritmy.
„Intervence byly zaměřeny na to, aby dospívající poznali, že jejich vzorce na sociálních sítích negativně ovlivňují jejich duševní zdraví, a snaží se přijít se strategiemi, jak to zmírnit (např. snížené používání sociálních sítí), “řekl Steers.
"Někteří z vysokoškolských studentů, se kterými jsme dělali rozhovory, uvedli, že se cítí nuceni vytvářet obsah, aby zůstal "relevantní", i když nechtějí chodit ven nebo zveřejňovat příspěvky," pokračovala. "Cítí však, že potřebují vytvářet obsah, aby si udrželi spojení se svými následovníky nebo přáteli."
Konečným řešením by mohlo být odstranění lidské zaujatosti z počítačů. Ale protože programátoři jsou jen lidé, je to těžká výzva, říkají odborníci.
Jedním z možných řešení je vyvinout počítače, které jsou decentralizované a naprogramované tak, aby zapomněly věci, které se naučily, říká John Suit, technologický ředitel robotické firmy KODA.
"Prostřednictvím decentralizované sítě jsou data a jejich analýzy sestavovány a analyzovány z více bodů," řekl Suit v e-mailovém rozhovoru. „Data se shromažďují a nezpracovávají z jediného zpracování mysli AI v mezích svého algoritmu, ale ze stovek nebo dokonce tisíců.
"Jak se tato data shromažďují a analyzují, zapomíná se na staré "závěry" nebo nadbytečná data. Prostřednictvím tohoto systému algoritmus, který mohl začít se zkreslením, nakonec toto zkreslení opraví a nahradí, pokud se ukáže, že je nesprávné."
Přestože předpojatost může být odvěkým problémem, mohou existovat způsoby, jak s ní bojovat, alespoň online. Navrhování počítačů, které se zbaví našich předsudků, je prvním krokem.