Klíčové poznatky
- Software pro automatické věkové omezení YouTube je důvodem k obavám ohledně LGBTQ+ obsahu na platformě.
- Společnost byla poznamenána kontroverzí ohledně tvůrců obsahu LGBTQ+, které upevňují pochybnosti.
- Předsudky ve strojovém učení propůjčují důvěryhodnost myšlence, že jeho nedokonalá implementace filtrů pravděpodobně neprávem omezí přístup.
S historií nespravedlivého cílení na tvůrce obsahu LGBTQ+ v procesu moderování je nová technologie YouTube založená na umělé inteligenci vnímána jako další znepokojivý krok pro technologického giganta.
Na oficiálním blogu YouTube minulý týden platforma pro sdílení videí odhalila plány na vydání nového automatického softwaru pro „důslednější uplatňování věkových omezení“u videí považovaných za nevhodná pro mladší diváky.
Nový systém, který byl motivován nedávnými obavami o děti v aplikaci, je založen na softwaru umělé inteligence se strojovým učením se schopností vzdát se lidských moderátorů pro automatičtější proces. Problém? Automatizované systémy YouTube byly obviněny z toho, že vyčleňují obsah a autory LGBTQ+ pouze pro existující.
I když to není zlomyslné, což si nemyslím, je to nedostatek příspěvků od různých hlasů – nebo alespoň nedostatek respektu.
„Strojové učení je informované a vytvářené lidmi a je možné, že tyto předsudky jsou v něm vlastní nebo se je naučil samotný stroj,“řekl YouTuber Rowan Ellis v telefonickém rozhovoru pro Lifewire. „Jeho zaujatost ohledně [LGBTQ+] obsahu byla evidentní v předchozích zkušenostech [LGBTQ+] youtuberů a neviděl jsem důkazy, že by bylo uděláno něco, aby se tomu zabránilo."
Miláčku, teď máme špatnou krev
Ellis je youtuberka, která vytváří vzdělávací obsah s feministickým a queer sklonem, a v roce 2017 zveřejnila video o omezeném režimu společnosti. Jako první vpád do automatického moderování obsahu umožnil tento režim uživatelům volitelně předem zkontrolovat „obsah potenciálně nevhodný pro děti“z návrhů a doporučení pro vyhledávání.
Nasbírala přes 100 000 zhlédnutí a věří, že došlo k vědomému úsilí zabránit omezení jejího kanálu kvůli jejímu hlasitému odporu proti excesům nového kroku YouTube směrem k moderování. Ostatní uživatelé platformy takové štěstí neměli a dali o tom vědět YouTube.
Skupinovou žalobu na YouTube podala v srpnu 2019 skupina osmi LGBTQ+ autorů, kteří obvinili společnost ze Silicon Valley z omezování tvůrců queer a trans videí a obsahu. Žaloba tvrdí, že stránka používá „nezákonnou regulaci obsahu, distribuci a praktiky zpeněžení, které stigmatizují, omezují, blokují, demonetizují a finančně poškozují LGBT žalobce a širší LGBT komunitu."Stále si to razí cestu kalifornskými soudy."
Strojové učení je informované a vytvářené lidmi a je možné, že tyto předsudky jsou v něm vlastní nebo se je naučil samotný stroj.
V červnu téhož roku se platformě dostalo záplavy mediální pozornosti poté, co odmítla rychle pokárat populárního konzervativního komentátora Stevena Crowdera za měsíce trvající, homofobní obtěžovací kampaň proti novináři a moderátorovi Vox Carlosi Mazovi. To upevnilo to, co Ellis řekl, že je vzorem online platformy ignorování jedinečných výzev, kterým čelí queer tvůrci. Nedostatek důvěry tvůrců LGBTQ+ ve schopnost YouTube ukázat se jim není bezcenný.
„Nemyslím si, že pochopili potřebu transparentnosti v sociálních otázkách a zajištění rovnosti,“řekla. „Na celém světě jsou stále děti, které vyrostly s myšlenkou, že být gayem je špatné, a když tuto víru začnou zpochybňovat, ale zjistí, že je uzavřena bezpečným hledáním nebo omezením, posílí to tuto myšlenku, že je špatný, nevhodný, dospělý, perverzní a špinavý."
Selhání při automatickém učení
Vzhledem k neblahé historii tvůrců obsahu LGBTQ+ na její platformě se stále objevují obavy z implementace schopnosti softwaru strojového učení rozpoznat vyšší normy. Don Heider, výkonný ředitel Centra pro aplikovanou etiku Markkula, tvrdí, že potenciál pro pošetilost je příliš velkým rizikem pro hazard.
„Je těžké uvěřit, že umělá inteligence dokáže efektivně řídit obsah z více zemí s různými kulturními normami a standardy,“napsal v e-mailovém rozhovoru. "AI je příliš často považována za odpověď na složité otázky. V tomto bodě se umělá inteligence a způsob, jakým je vytvořena, snaží vypořádat i s jednoduchými úkoly, natož s jakýmkoli moderováním obsahu s jakoukoli úrovní složitosti."
YouTube se podle svého blogu rozhodl pro použití technologie AI kvůli nedostatku důsledného moderování ze strany lidských moderátorů. Rozšíření používání počítačových filtrů k odstranění videí považovaných za nevhodná se stalo normou a zavádění stejných postupů pro zásady věkového omezení je považováno za logický další krok.
Jako společnost, která se snaží postupně zlepšovat své procesy po dlouhodobé kritice týkající se jejího vztahu k dětským spotřebitelům, není toto rozhodnutí žádným překvapením.
Nemyslím si, že pochopili potřebu transparentnosti v sociálních otázkách a zajištění rovnosti.
Děti se staly klíčovou demografickou skupinou pro web pro sdílení videí. V srpnu společnost Tubular zabývající se analýzou digitálního videa zjistila, že kromě hudebních videí je obsah zaměřený na děti na prvním místě seznamu nejsledovanějších videí na YouTube na konci měsíce.
Zájem společnosti chránit tuto lukrativní, vznikající sílu na platformě dává smysl. Nástroje používané k vynucení této ochrany však zůstávají nepříjemné pro ty, kteří se již ocitli pod procesem moderování společnosti.
„Obávám se, že to napáchá spoustu škody a neochrání [LGBTQ+] mládež, která potřebuje informativní, upřímný a upřímný obsah, který by mohla poskytnout spousta [LGBTQ+] YouTuberů, ale je ve svém systému označena jako nevhodné,“řekl Ellis."I když to není zlomyslné, což si nemyslím, je to nedostatek příspěvků od různých hlasů - nebo alespoň nedostatek respektu."
"V technice to vidíme neustále. Když se díváte na rozpoznávání obličeje, které nedokáže rozlišit různé černé tváře, nebo když se podíváme na medicínu a vidíme, že léky byly testovány pouze na určitém pohlaví. Tyto jsou rozsáhlejší konverzace a YouTube se jich nevyjímá."