Root NationВестиИТ вестиЌе биде невозможно да се управува со суперинтелигентна вештачка интелигенција

Ќе биде невозможно да се управува со суперинтелигентна вештачка интелигенција

-

Идејата за вештачката интелигенција да го собори човештвото се дебатира со децении, а во јануари 2021 година, научниците ја дадоа својата пресуда за тоа дали можеме да контролираме компјутерска суперинтелигенција на високо ниво. Одговори? Речиси сигурно не.

Проблемот е во тоа што контролирањето на суперум далеку од човечкото разбирање ќе бара симулација на тој суперум што би можеле да го анализираме. Но, ако не сме во можност да го разбереме, невозможно е да се создаде таква симулација.

Правилата како „не им штети на луѓето“ не можат да се воспостават доколку не разбереме какви сценарија ќе создаде вештачката интелигенција (ВИ), веруваат авторите на трудот од 2021 година. Штом компјутерскиот систем работи на ниво што ги надминува можностите на нашите програмери, веќе нема да можеме да поставуваме ограничувања.

Вештачка интелигенција

„Суперинтелигенцијата е фундаментално различен проблем од оние што вообичаено се проучуваат под знамето на „етиката на роботите““, пишуваат истражувачите. „Ова е затоа што суперумот е повеќеслоен и затоа потенцијално способен да мобилизира различни ресурси за да постигне цели кои се потенцијално неразбирливи за луѓето, а камоли да се контролираат“.

Дел од резонирањето на тимот доаѓа од проблеми со запирање, предложен од Алан Туринг во 1936 година. Предизвикот е да се открие дали компјутерската програма ќе дојде до заклучок и ќе одговори (и ќе престане) или едноставно ќе се обесува засекогаш обидувајќи се да го најде одговорот.

Како што Тјуринг докажа со помош интелигентна математика, иако можеби го знаеме ова за некои специфични програми, логично е невозможно да се најде начин што ќе ни овозможи да го знаеме ова за секоја потенцијална програма што некогаш би можела да биде напишана. Ова нè враќа на вештачката интелигенција, која во суперинтелигентна состојба би можела истовремено да ги складира сите можни компјутерски програми во својата меморија.

Исто така интересно:

Секоја програма напишана, на пример, за да се спречи вештачката интелигенција да им наштети на луѓето и да го уништи светот, може или не може да донесе заклучок (и да престане) - математички е невозможно да се биде апсолутно сигурен во секој случај, што значи дека не може да се ограничи. „Тоа во основа го прави алгоритмот за одвраќање неупотреблив“, рече во јануари компјутерскиот научник Ијад Рахван од Институтот за човечки развој Макс Планк во Германија.

Алтернатива за учење на етика на вештачката интелигенција и забрани против уништување на светот, во што ниту еден алгоритам не може да биде апсолутно сигурен, велат истражувачите, е да се ограничат способностите на суперумот. На пример, може да биде отсечен од дел од Интернет или одредени мрежи.

Авторите на една неодамнешна студија ја отфрлаат и оваа идеја, верувајќи дека таа ќе го ограничи опсегот на вештачката интелигенција - велат тие, ако нема да ја користиме за решавање на проблеми надвор од човечките можности, тогаш зошто воопшто да ја создаваме?

Вештачка интелигенција

Ако сакаме да ја унапредиме вештачката интелигенција, можеби не ни знаеме кога ќе се појави суперинтелигенција, надвор од наша контрола, толку е неразбирливо. Ова значи дека треба да почнеме да поставуваме сериозни прашања за тоа каде одиме.

„Суперинтелигентна машина што управува со светот звучи како научна фантастика“, вели компјутерскиот научник Мануел Кебријан од Институтот за човечки развој Макс Планк. Но, веќе има машини кои самостојно извршуваат некои важни задачи, додека програмерите не разбираат целосно како го научиле ова.

Затоа, се поставува прашањето дали може во одреден момент да стане неконтролирано и опасно за човештвото...

Прочитајте исто така:

Пријавете се
Известете за
гостин

0 коментари
Вградени критики
Прикажи ги сите коментари
Претплатете се за ажурирања