Root NationВестиИТ вестиПоранешниот шеф на Google ја спореди вештачката интелигенција со нуклеарно оружје

Поранешниот шеф на Google ја спореди вештачката интелигенција со нуклеарно оружје

-

Поранешниот извршен директор на Google, Ерик Шмит, ја спореди вештачката интелигенција (ВИ) со нуклеарно оружје и повика на режим на одвраќање, сличен на меѓусебно сигурно уништување, што ги спречува најмоќните нации во светот да се уништуваат едни со други.

Поранешниот шеф на Google ја спореди вештачката интелигенција со нуклеарно оружје

Шмит зборуваше за опасностите од вештачката интелигенција на Безбедносниот форум во Аспен на 22 јули за време на дискусијата за националната безбедност и вештачката интелигенција. Кога го прашале за вредноста на моралот во технологијата, Шмит објасни дека и самиот бил наивен за моќта на информациите во раните денови на Google. Тој потоа повика технологијата подобро да одговара на етиката и моралот на луѓето на кои им служат и направи чудна споредба помеѓу вештачката интелигенција и нуклеарното оружје.

Шмит зборуваше за блиската иднина, во која Кина и САД треба да склучат договор за вештачка интелигенција. „Во 50-тите и 60-тите, завршивме со создавање на свет каде што постоеше правилото „без изненадувања“ за нуклеарно тестирање, и како резултат на тоа, тие беа забранети“, рече Шмит. „Ова е пример за рамнотежа на доверба или недостаток на доверба, ова е правило „не изненадувања“. Многу сум загрижен што американското гледиште за Кина како корумпирана или комунистичка или што и да е, и погледот на Кина за Америка како губитник... ќе им дозволи на луѓето да кажат: „О, Боже, тие се спремаат нешто“, а потоа ќе почне нешто неразбирливо... .

ВИ и машинското учење е фасцинантна и често погрешно разбрана технологија. Тој во основа не е толку паметен како што мислат луѓето. Може да создаде уметнички дела на ниво на ремек-дело, да ги победи луѓето во Starcraft II и да остварува рудиментирани телефонски повици за корисниците. Сепак, обидите да се направи да извршува потешки задачи, како што е возење автомобил во голем град, не беа успешни.

Шмит зборува за имагинарна блиска иднина во која и Кина и САД ќе бидат загрижени за безбедносните прашања, што ќе ги принуди да склучат еден вид договор за задржување на вештачката интелигенција. Тој потсети на 1950-тите и 60-тите, кога дипломатијата разви серија контроли околу најсмртоносното оружје на планетата. Но, беше потребна една деценија нуклеарни експлозии и, што е најважно, уништување на Хирошима и Нагасаки, за да дојде до мир пред склучувањето на Договорот за забрана на нуклеарни тестови, SALT II и други значајни закони.

Два јапонски града уништени од Америка на крајот на Втората светска војна одзедоа животи на десетици илјади луѓе и на светот му го докажаа вечниот ужас на нуклеарното оружје. Тогаш владите на Русија и Кина побрзаа да набават оружје. Начинот на кој живееме со можноста овие оружја да се користат е она што е познато како заемно обезбедено уништување (MAD), теорија на одвраќање која гарантира дека ако една земја лансира нуклеарно оружје, можно е и која било друга земја. Не го користиме најразорното оружје на планетата поради можноста тоа да ја уништи барем цивилизацијата ширум светот.

И покрај шарените коментари на Шмит, не сакаме или ни треба MAD за вештачка интелигенција. Прво, вештачката интелигенција сè уште не ја докажала својата деструктивна моќ во споредба со нуклеарното оружје. Но, луѓето на власт се плашат од оваа нова технологија, и обично од погрешни причини. Луѓето дури предложија да се предаде контролата над нуклеарното оружје на вештачка интелигенција, верувајќи дека таа ќе биде подобар арбитер за неговата употреба отколку човекот.

Поранешниот шеф на Google ја спореди вештачката интелигенција со нуклеарно оружје

Проблемот со вештачката интелигенција не е во тоа што ја има потенцијалната деструктивна моќ на нуклеарно оружје. Поентата е дека вештачката интелигенција е добра само како и луѓето кои ја развиле и дека ги носи вредностите на нејзините креатори. Вештачката интелигенција страда од класичниот проблем „ѓубре во, ѓубре надвор“: расистичките алгоритми создаваат расистички роботи, а целата вештачка интелигенција ги носи предрасудите на нејзините креатори.

Демис Хасабис, извршен директор на DeepMind, компанијата која ја обучуваше вештачката интелигенција која ги победува играчите на Starcraft II, се чини дека го разбира ова подобро од Шмит. Во јулското интервју за подкастот на Лекс Фридман, Фридман го праша Хасабис како може да се контролира технологија толку моќна како вештачката интелигенција и како самиот Хасабис да избегне да биде корумпиран од таа моќ.

Одговорот на Хасабис е за него. „Вештачката интелигенција е преголема идеја“, рече тој. „Важно е кој создава вештачка интелигенција, од кои култури потекнуваат и кои се нивните вредности. Системите за вештачка интелигенција сами ќе учат... но системот ќе остане втиснат со културата и вредностите на авторите на системот“.

Вештачката интелигенција е одраз на нејзиниот автор. Не може да срамни град со земја со експлозија од 1,2 мегатони. Освен ако некој не го научи на ова.

Можете да и помогнете на Украина да се бори против руските напаѓачи. Најдобар начин да го направите ова е да донирате средства за вооружените сили на Украина преку Савелифе или преку официјалната страница Bвезди.

Прочитајте исто така:

Пријавете се
Известете за
гостин

0 коментари
Вградени критики
Прикажи ги сите коментари
Други статии
Претплатете се за ажурирања
Популарно сега