Klíčové poznatky
- Twitter doufá, že ve svém softwaru pro náhled obrázků napraví to, co uživatelé nazývají rasovou zaujatostí.
- Výzva technologického giganta může být kulturním odhadem, který průmysl potřebuje k řešení problémů diverzity.
- Nedostatek rozmanitosti Tech poškozuje efektivitu jejich technologického pokroku.
Twitter se chystá zahájit vyšetřování svého algoritmu pro ořezávání obrázků poté, co se stal populárním tématem, které vyvolalo větší konverzaci o otázkách rozmanitosti v technologickém průmyslu.
Ten moloch sociálních médií se dostal do titulků poté, co uživatelé objevili zjevnou rasovou zaujatost v jeho algoritmu náhledu obrázků. K objevu došlo poté, co uživatel Twitteru Colin Madland použil platformu, aby upozornil na to, že Zoom nerozpoznal své černé kolegy, kteří používali technologii zelené obrazovky, ale ve velké ironii zjistil, že algoritmus Twitteru pro ořezávání obrázků se choval podobně a zrušil priority černých tváří.
Jistě, je to obrovský problém pro každou menšinu, ale myslím, že existuje i mnohem širší problém.
Do trendu se zapojili i další uživatelé, kteří vyvolali sérii virálních tweetů, které ukazují, že algoritmus důsledně upřednostňuje bílé obličeje a tváře se světlejší pletí, od lidí po kreslené postavičky a dokonce i psy. Toto selhání svědčí o větším kulturním hnutí v technologickém průmyslu, které soustavně nedokázalo zohlednit menšinové skupiny, což se přelilo do technické stránky.
„V menšinách se díky tomu cítí hrozně, jako by nebyly důležité, a dá se to použít na jiné věci, které mohou způsobit vážnější škody,“Erik Learned-Miller, profesor informatiky na univerzitě. z Massachusetts, řekl v telefonickém rozhovoru."Jakmile se rozhodnete, k čemu může být software použit a jaké škody mohou nastat, pak začneme mluvit o způsobech, jak minimalizovat pravděpodobnost, že k nim dojde."
Kanár na časové ose
Twitter využívá neuronové sítě k automatickému ořezávání obrázků vložených do tweetů. Algoritmus má detekovat obličeje pro náhled, ale zdá se, že má znatelné zkreslení bílé. Mluvčí společnosti Liz Kelley tweetovala odpověď na všechny obavy.
Kelley tweetoval, "díky všem, kteří to vznesli. Před odesláním modelu jsme testovali zaujatost a nenašli jsme důkazy o rasové nebo genderové zaujatosti, ale je jasné, že máme k dispozici další analýzy udělejte. otevřeme zdroj naší práce, aby ji ostatní mohli zkontrolovat a replikovat."
Spoluautor bílé knihy „Technologie rozpoznávání obličejů v divočině: Výzva k federálnímu úřadu“, Learned-Miller je předním výzkumníkem v oblasti excesů softwaru pro výuku umělé inteligence založeného na obličeji. O potenciálním negativním dopadu softwaru pro učení obrázků diskutuje už léta a mluvil o důležitosti vytvoření reality, kde budou tyto předsudky co nejlépe zmírněny.
Mnoho algoritmů pro technologii rozpoznávání obličeje používá referenční sady pro data, často známé jako tréninkové sady, které jsou sbírkou obrázků používaných k doladění chování softwaru pro učení obrázků. Nakonec umožňuje AI snadno rozpoznat širokou škálu tváří. Tyto referenční sady však mohou postrádat různorodý fond, což vede k problémům, jako jsou ty, které zaznamenal tým Twitteru.
„Jistě, je to obrovský problém pro každou menšinu, ale myslím, že existuje i mnohem širší problém,“řekl Learned-Miller. „Souvisí to s nedostatkem rozmanitosti v technologickém sektoru a potřebou centralizované regulační síly, která by ukázala správné využití tohoto druhu výkonného softwaru náchylného ke zneužití a zneužití.“
Technologie postrádající rozmanitost
Twitter je možná nejnovější technologická společnost na trhu, ale to zdaleka není nový problém. Technologický obor zůstává převážně bílým oborem trvale ovládaným muži a výzkumníci zjistili, že nedostatek diverzity způsobuje replikaci systémové historické nerovnováhy ve vyvinutém softwaru.
Ve zprávě institutu AI Now Institute z New York University z roku 2019 výzkumníci zjistili, že černoši tvoří méně než 6 procent pracovní síly ve špičkových technologických firmách v zemi. Podobně ženy tvoří pouze 26 procent pracovníků v oboru – což je statistika nižší než jejich podíl v roce 1960.
Menšiny se díky tomu cítí hrozně, jako by nebyly důležité, a dá se to použít na jiné věci, které mohou způsobit vážnější škody.
Na povrchu se tyto reprezentativní problémy mohou zdát všední, ale v praxi může být způsobená škoda hluboká. Výzkumníci ve zprávě AI Now Institute naznačují, že to kauzálně souvisí s problémy se softwarem, který často nezohledňuje nebělošské a nemužské populace. Ať už jde o infračervené dávkovače mýdla, které nedetekují tmavší pleť, nebo software AI od Amazonu, který nedokáže odlišit ženské tváře od jejich mužských protějšků, neschopnost řešit diverzitu v technologickém průmyslu vede k selhání technologie, která si poradí s rozmanitým světem.
„Existuje spousta lidí, kteří problémy nepromysleli a ve skutečnosti si neuvědomují, jak tyto věci mohou způsobit škody a jak významné jsou tyto škody,“navrhl Learned-Miller o učení obrazu pomocí AI. "Doufám, že se ten počet lidí zmenšuje!"