AI by konečně mohla pomoci potlačit nenávistné projevy

Obsah:

AI by konečně mohla pomoci potlačit nenávistné projevy
AI by konečně mohla pomoci potlačit nenávistné projevy
Anonim

Klíčové poznatky

  • Nový softwarový nástroj umožňuje umělé inteligenci monitorovat internetové komentáře kvůli nenávistným projevům.
  • AI je potřeba k moderování internetového obsahu, protože obrovské množství materiálu předčí lidské schopnosti.
  • Někteří odborníci však tvrdí, že monitorování řeči pomocí umělé inteligence vyvolává obavy o soukromí.
Image
Image

S nárůstem nenávistných projevů online jedna společnost říká, že by mohla mít řešení, které nespoléhá na lidské moderátory.

Start nazvaný Spectrum Labs poskytuje poskytovatelům platforem technologii umělé inteligence k detekci a zastavení toxických burz v reálném čase. Odborníci však tvrdí, že monitorování AI také vyvolává problémy s ochranou soukromí.

"Monitorování umělé inteligence často vyžaduje sledování vzorců v průběhu času, což vyžaduje uchování dat," řekl Lifewire v e-mailovém rozhovoru David Moody, vedoucí pracovník společnosti Schellman, která se zabývá posuzováním dodržování bezpečnosti a ochrany soukromí. "Tato data mohou zahrnovat data, která zákony označily jako osobní údaje (osobně identifikovatelné informace nebo PII)."

Více nenávistných projevů

Spectrum Labs slibuje high-tech řešení odvěkého problému nenávistných projevů.

"V průměru pomáháme platformám snížit úsilí o moderování obsahu o 50 % a zvýšit detekci toxického chování 10x," tvrdí společnost na svých webových stránkách.

Spectrum říká, že spolupracovalo s výzkumnými ústavy s odbornými znalostmi v oblasti specifického škodlivého chování na vytvoření více než 40 modelů identifikace chování. Platforma společnosti Guardian pro moderování obsahu byla vytvořena týmem datových vědců a moderátorů, aby „podporovala ochranu komunit před toxicitou."

Vzrůstá potřeba způsobů, jak bojovat proti projevům nenávisti, protože pro člověka je nemožné sledovat každý kus online provozu, Dylan Fox, generální ředitel společnosti AssemblyAI, startupu, který poskytuje rozpoznávání řeči a má zákazníky zapojené do monitorování nenávisti řeč, řekl Lifewire v e-mailovém rozhovoru.

„Jenom na Twitteru je denně asi 500 milionů tweetů,“dodal. "I kdyby jeden člověk mohl zkontrolovat tweet každých 10 sekund, twitter by k tomu potřeboval zaměstnávat 60 tisíc lidí. Místo toho používáme chytré nástroje, jako je umělá inteligence k automatizaci procesu."

Na rozdíl od člověka může umělá inteligence fungovat 24 hodin denně, 7 dní v týdnu a potenciálně být spravedlivější, protože je navržena tak, aby jednotně uplatňovala svá pravidla na všechny uživatele, aniž by do toho zasahovala jakákoli osobní přesvědčení, řekl Fox. Lidé, kteří musí sledovat a moderovat obsah, také něco stojí.

„Mohou být vystaveni násilí, nenávisti a ohavným činům, které mohou poškodit duševní zdraví člověka,“řekl.

Spectrum není jedinou společností, která se snaží automaticky odhalovat online nenávistné projevy. Středisko Malajsie například nedávno spustilo online tracker určený k vyhledávání nenávistných projevů mezi malajskými obyvateli sítě. Software, který vyvinuli, zvaný Tracker Benci, využívá strojové učení k detekci nenávistných projevů online, zejména na Twitteru.

Výzvou je, jak vytvořit prostory, ve kterých se lidé mohou skutečně konstruktivně zapojit.

Obavy ochrany soukromí

I když technologická řešení jako Spectrum mohou bojovat proti online nenávistným projevům, vyvolávají také otázky, jak moc by měly dělat policejní počítače.

Existují důsledky pro svobodu projevu, ale nejen pro řečníky, jejichž příspěvky by byly odstraněny jako projevy nenávisti, Irina Raicu, ředitelka internetové etiky v Markkula Center for Applied Ethics na Santa Clara University, řekla Lifewire v e-mailu rozhovor.

„Povolení obtěžování ve jménu ‚svobody projevu‘přimělo cíle takového projevu (zejména pokud je zaměřeno na konkrétní jednotlivce) k tomu, aby přestali mluvit – aby úplně opustili různé konverzace a platformy,“řekl Raicu."Výzvou je, jak vytvořit prostory, ve kterých se lidé mohou skutečně konstruktivně zapojit."

Monitorování řeči AI by nemělo vyvolávat problémy s ochranou soukromí, pokud společnosti během monitorování používají veřejně dostupné informace, řekl Fox. Pokud však společnost nakupuje podrobnosti o tom, jak uživatelé interagují na jiných platformách, aby předem identifikovala problémové uživatele, mohlo by to vyvolat obavy o soukromí.

"Určitě to může být trochu šedá oblast, v závislosti na aplikaci," dodal.

Image
Image

Justin Davis, generální ředitel Spectrum Labs, řekl Lifewire v e-mailu, že technologie společnosti dokáže zkontrolovat 2 až 5 tisíc řádků dat během zlomků sekundy. "Nejdůležitější je, že technologie může snížit množství toxického obsahu, kterému jsou lidští moderátoři vystaveni," řekl.

Možná jsme na vrcholu revoluce v AI monitorování lidské řeči a textu online. Budoucí pokroky zahrnují lepší nezávislé a autonomní monitorovací schopnosti pro identifikaci dříve neznámých forem nenávistných projevů nebo jakýchkoli jiných cenzurovatelných vzorů, které se budou vyvíjet, řekl Moody.

AI bude také brzy schopna rozpoznat vzorce ve specifických vzorcích řeči a spojit zdroje a jejich další aktivity prostřednictvím analýzy zpráv, veřejných záznamů, analýzy vzorců provozu, fyzického sledování a mnoha dalších možností, dodal.

Někteří odborníci však tvrdí, že lidé budou vždy muset pracovat s počítači, aby mohli sledovat nenávistné projevy.

"AI samotná nebude fungovat," řekl Raicu. "Musí být rozpoznán jako jeden nedokonalý nástroj, který je třeba používat ve spojení s jinými odpověďmi."

Oprava 25.1.2022: Přidán citát od Justina Davise v 5. odstavci od konce, aby odrážel e-mail po zveřejnění.

Doporučuje: