Jak umělá inteligence mohla sledovat své nebezpečné potomky

Obsah:

Jak umělá inteligence mohla sledovat své nebezpečné potomky
Jak umělá inteligence mohla sledovat své nebezpečné potomky
Anonim

Klíčové poznatky

  • Nový článek tvrdí, že umělá inteligence dokáže určit, které výzkumné projekty mohou vyžadovat větší regulaci než jiné.
  • Je to součást rostoucího úsilí zjistit, jaký druh umělé inteligence může být nebezpečný.
  • Jeden odborník říká, že skutečné nebezpečí umělé inteligence spočívá v tom, že by z ní lidé mohli být hloupí.

Image
Image

Umělá inteligence (AI) nabízí mnoho výhod, ale také některá potenciální nebezpečí. A nyní vědci navrhli metodu, jak sledovat jejich počítačové výtvory.

Mezinárodní tým v novém dokumentu uvádí, že umělá inteligence dokáže určit, které typy výzkumných projektů mohou vyžadovat větší regulaci než jiné. Vědci použili model, který spojuje koncepty z biologie a matematiky a je součástí rostoucího úsilí zjistit, jaký druh umělé inteligence může být nebezpečný.

„Samozřejmě, i když se „sci-fi“nebezpečné používání umělé inteligence může objevit, pokud se tak rozhodneme […], to, co dělá AI nebezpečnou, není umělá inteligence samotná, ale [jak ji používáme],“Thierry Rayna, předseda Technology for Change, na École Polytechnique ve Francii, řekl Lifewire v e-mailovém rozhovoru. „Implementace umělé inteligence může být buď zvyšováním kompetencí (například posiluje význam dovedností a znalostí člověka/pracovníka), nebo ničením kompetencí, tj. umělá inteligence činí stávající dovednosti a znalosti méně užitečnými nebo zastaralými.“

Keeping Tabs

Autoři nedávného článku napsali v příspěvku, že vytvořili model pro simulaci hypotetických soutěží AI. Spustili simulaci stokrát, aby se pokusili předpovědět, jak by mohly fungovat závody umělé inteligence v reálném světě.

„Proměnnou, kterou jsme zjistili jako obzvláště důležitou, byla „délka“závodu – čas, který naše simulované závody potřebovaly k dosažení svého cíle (funkčního produktu AI), “napsali vědci. „Když závody s umělou inteligencí rychle dosáhly svého cíle, zjistili jsme, že vždy vyhráli konkurenti, u kterých jsme naprogramovali, aby vždy přehlíželi bezpečnostní opatření.“

Naproti tomu výzkumníci zjistili, že dlouhodobé projekty umělé inteligence nebyly tak nebezpečné, protože ne vždy vítězili ti, kteří přehlíželi bezpečnost. "Vzhledem k těmto zjištěním bude důležité, aby regulační orgány určily, jak dlouho různé závody s umělou inteligencí pravděpodobně potrvají, aplikují různé předpisy na základě jejich očekávaných časových plánů," napsali. „Naše zjištění naznačují, že jedno pravidlo pro všechny závody s umělou inteligencí – od sprintů po maratony – povede k některým výsledkům, které zdaleka nejsou ideální.“

David Zhao, výkonný ředitel Coda Strategy, společnosti, která konzultuje AI, v e-mailovém rozhovoru pro Lifewire řekl, že identifikace nebezpečné AI může být obtížná. Výzvy spočívají ve skutečnosti, že moderní přístupy k umělé inteligenci jsou založeny na hlubokém učení.

„Víme, že hluboké učení přináší lepší výsledky v mnoha případech použití, jako je detekce obrazu nebo rozpoznávání řeči,“řekl Zhao. "Pro lidi je však nemožné porozumět tomu, jak algoritmus hlubokého učení funguje a jak produkuje svůj výstup. Proto je těžké říci, zda je AI, která produkuje dobré výsledky, nebezpečná, protože je nemožné, aby lidé pochopili, co se děje.""

Software může být „nebezpečný“, když se používá v kritických systémech, které mají zranitelnosti, které mohou zneužít špatní herci nebo produkovat nesprávné výsledky, uvedl v e-mailu Matt Shea, ředitel strategie společnosti AI MixMode. Dodal, že nebezpečná umělá inteligence může také vést k nesprávné klasifikaci výsledků, ztrátě dat, ekonomickému dopadu nebo fyzickému poškození.

„S tradičním softwarem vývojáři kódují algoritmy, které může osoba prozkoumat, aby zjistila, jak zapojit zranitelnost nebo opravit chybu pohledem na zdrojový kód,“řekl Shea."U umělé inteligence je však velká část logiky vytvořena ze samotných dat, zakódovaných do datových struktur, jako jsou neuronové sítě a podobně. Výsledkem jsou systémy, které jsou "černými skříňkami", které nelze zkoumat za účelem nalezení a opravy zranitelností. jako normální software."

Nebezpečí před námi?

I když AI byla ve filmech jako Terminátor zobrazena jako zlá síla, která má v úmyslu zničit lidstvo, skutečná nebezpečí mohou být prozaičtější, říkají odborníci. Rayna například navrhuje, že by nás umělá inteligence mohla učinit hloupějšími.

„Může to lidi připravit o trénování jejich mozků a rozvoj odborných znalostí,“řekl. „Jak se můžete stát expertem na rizikový kapitál, když většinu času netrávíte čtením aplikací pro startupy? Horší je, že AI je notoricky „černá skříňka“a málo vysvětlitelná. Nevědět, proč bylo přijato konkrétní rozhodnutí v oblasti umělé inteligence, znamená, že se z toho bude jen velmi málo učit, stejně jako se nemůžete stát zkušeným běžcem tím, že budete jezdit po stadionu na Segwayi.”

Je těžké říct, zda je AI, která přináší dobré výsledky, nebezpečná, protože lidé nemohou pochopit, co se děje.

Snad nejbezprostřednější hrozbou umělé inteligence je možnost, že by mohla poskytnout zkreslené výsledky, řekl Lyle Solomon, právník, který píše o právních důsledcích umělé inteligence, v e-mailovém rozhovoru.

"AI může pomoci při prohlubování společenských rozdílů. Umělá inteligence je v podstatě postavena na datech shromážděných od lidských bytostí," dodal Solomon. "[Ale] navzdory obrovskému množství dat obsahuje minimální podmnožiny a nezahrnuje to, co si každý myslí. Data shromážděná z komentářů, veřejných zpráv, recenzí atd., s inherentními zaujatostmi, způsobí, že AI zesílí diskriminaci a nenávist."

Doporučuje: