Root NationНаписиАнализаШест заповеди на вештачката интелигенција

Шест заповеди на вештачката интелигенција

-

Следните години ќе бидат обележани со брзиот развој на технологиите за вештачка интелигенција. Можеби е неопходно да се воведат јасно дефинирани рамки за создавање и употреба на ВИ? Дали е доволно 6 месеци искуство за регулирање на технологија која сè уште не ја ни напуштала лабораторијата? Ова прашање се повеќе доаѓа од устата на експертите и новинарите кога станува збор за вештачката интелигенција. Се почесто се слушаат гласови и повици за преземање мерки за регулирање на вештачката интелигенција - и на ниво на корисник и на ниво на развој на проекти. Историјата на ваквите апели започна многу одамна.

Сеприсутното присуство на вештачка интелигенција во дигиталниот простор и, пред сè, на модели способни да создаваат содржина што нема да се разликува од онаа што ја создаваат луѓето, предизвикува многу различни емоции. Од една страна, имаме група ентузијасти кои ја гледаат иднината во вештачката интелигенција и, и покрај нејзините релативно ограничени можности (бидејќи вештачката интелигенција не размислува и често само зема информации од Интернет), не се плашат да и доверат многу задачи . Од другата страна на барикадата е група која го изразува својот скептицизам и загриженост за актуелните трендови во развојот на вештачката интелигенција.

Постулат за вештачка интелигенција

Мостот помеѓу двете групи се истражувачите на вештачката интелигенција, кои, од една страна, наведуваат бројни примери за тоа како вештачката интелигенција позитивно влијаела на околната реалност. Во исто време, тие разбираат дека е премногу рано да се одморат на нивните ловорики, а огромен технолошки скок носи многу предизвици и голема одговорност. Јасен пример за овој став е меѓународна група истражувачи за вештачка интелигенција и машинско учење предводена од д-р Озлем Гарибај од Универзитетот во Централна Флорида. Публикацијата на 47 страници, напишана од 26 научници од целиот свет, идентификува и опишува шест предизвици со кои истражувачките институции, компании и корпорации мора да се справат за да ги направат нивните модели (и софтверот што ги користи) безбедни.

Да, ова е сериозна научна работа со важни објаснувања за разбирање на иднината на вештачката интелигенција. Кој е заинтересиран, може самостојно прочитајте го овој научен извештај и извлечете свои заклучоци. Со едноставни зборови, научниците идентификуваа 6 заповеди на вештачката интелигенција. Сите случувања и активности на вештачката интелигенција мора да се усогласат со нив за да биде безбедно за луѓето и светот.

Постулат за вештачка интелигенција

Во мојата статија, напишана токму врз основа на оваа научна работа, ќе се обидам да ги формулирам главните постулати, закони според кои треба да постои и да се развива вештачката интелигенција. Да, ова е мое речиси бесплатно толкување на заклучоците на научниците во врска со развојот на вештачката интелигенција и обид да ги претставам во, така да се каже, библиска верзија. Но, вака сакав да ве запознаам со оваа научна работа на почитувани научници.

Исто така интересно: Building AI: Кој ја води трката?

Првиот закон: Човечка благосостојба

Првиот постулат на истражувачите е да ја фокусираат работата на вештачката интелигенција на човечката благосостојба. Поради недостаток на „човечки вредности, здрав разум и етика“, вештачката интелигенција може да дејствува на начин што ќе доведе до значително влошување на човековата благосостојба. Проблемите можат да бидат резултат на натчовечките способности на вештачката интелигенција (на пример, колку лесно вештачката интелигенција ги победува луѓето - и не само во шахот), туку и фактот што вештачката интелигенција не размислува сама за себе и затоа не е во состојба да ги „филтрира“ предрасудите или очигледни грешки.

АИ постулат

- Реклама -

Истражувачите забележуваат дека прекумерната доверба во технологиите за вештачка интелигенција може негативно да влијае на благосостојбата на луѓето. Општество кое има малку разбирање за тоа како всушност функционираат алгоритмите за вештачка интелигенција, има тенденција да претерано му верува или, напротив, има негативен став кон содржината генерирана од одреден модел, особено чет-ботови. Имајќи ги предвид овие и други фактори, тимот на Гарибај повикува да се стави човечката благосостојба во центарот на идните интеракции со вештачката интелигенција и човекот.

Прочитајте исто така: ChatGPT: едноставно упатство за корисникот

Вториот закон: Одговорност

Одговорноста е термин кој постојано се појавува во светот на вештачката интелигенција во контекст на тоа за што користиме машинско учење и како точно се развиваат и обучуваат моделите и алгоритмите за вештачка интелигенција. Меѓународниот тим нагласува дека дизајнот, развојот и имплементацијата на вештачката интелигенција треба да се прави исклучиво со добри намери.

АИ постулат

Според нивното мислење, одговорноста треба да се разгледува не само во технички, туку и во правен и етички контекст. Технологијата мора да се разгледува не само од гледна точка на нејзината ефикасност, туку и во контекст на нејзината употреба.

"Со воведувањето на напредни техники за машинско учење, станува сè поважно да се разбере како е донесена одлуката и кој е одговорен за тоа“ – пишуваат истражувачите.

Третиот закон: Доверливост

Приватноста е тема која бумеранг е во секој дискурс за технологијата. Особено кога на социјалните мрежи се зборува за се. Сепак, ова е исклучително важно за вештачката интелигенција бидејќи не постои без база на податоци. А што се бази на податоци?

Научниците ги опишуваат како „апстракција на основните градежни блокови кои го сочинуваат начинот на кој го гледаме светот“. Овие блокови се обично световни вредности: бои, форми, текстури, растојанија, време. Додека тесната вештачка интелигенција фокусирана на една цел, како што е степенот до кој блендата се отвора при даден интензитет на светлина, користи јавно достапни објективни податоци, вештачката интелигенција во пошироки апликации (тука, на пример, моделите од текст во слика, како што е Midjourney . или јазичните модели како што е ChatGPT ) може да користат податоци за и креирани од луѓе. Треба да се споменат и написи во печатот, книги, илустрации и фотографии објавени на Интернет. Алгоритмите за вештачка интелигенција имаат пристап до сè, бидејќи ние самите им го дадовме тоа. Во спротивно нема да знае ништо и нема да дава одговори на ниту едно прашање.

АИ постулат

Корисничките податоци фундаментално влијаат и на луѓето за кои се собираат овие податоци и на луѓето во системот каде што ќе се имплементираат алгоритмите за вештачка интелигенција.

Затоа, третиот предизвик се однесува на широкото разбирање на приватноста и обезбедувањето на такви права како што се правото да се остане сам, правото да се ограничи пристапот до себе, правото на тајност на личниот живот или бизнисот, правото на контрола на личните информации, односно право да се заштити својата личност, индивидуалност и достоинство. Сето ова мора да биде запишано во алгоритмите, инаку приватноста едноставно нема да постои, а алгоритмите за вештачка интелигенција може да се користат во измамнички шеми, како и во кривични дела.

Прочитајте исто така: 7 најкул начини за користење ChatGPT

Четврти закон: Структура на проектот

Вештачката интелигенција може да биде исклучително едноставна и еднонаменска, но во случајот на поголемите модели со широка природа и повеќе задачи, проблемот не е само во приватноста на податоците, туку и во структурата на дизајнот.

На пример, GPT-4, најновиот модел на вештачка интелигенција на OpenAI, и покрај неговата големина и влијание врз светот на вештачката интелигенција (и пошироко), нема целосно јавна документација. Односно, немаме разбирање за тоа кои се конечните цели за програмерите, што сакаат да добијат во конечниот резултат. Затоа, не можеме целосно да ги процениме ризиците поврзани со употребата на овој модел на вештачка интелигенција. GPT-3, од друга страна, обучен за податоци од форумот 4chan, е модел со кој дефинитивно не сакате да комуницирате. Форумот 4chan е еден од најинтересните феномени на Интернет. Ова е пример за апсолутна, тотална анархија, која во пракса не е ограничена со ниедна рамка. Тука се создадени хакерски групи како Anonymous или LulzSec. Тоа е извор на многу од најпопуларните мемиња, место за дискутирање на контроверзни теми и објавување на уште поконтроверзни мислења. Иако имиџбордот на англиски јазик забележува дека „засега е легално“, ова е малку сомнително, имајќи предвид дека 4chan повремено се занимава со медиумите, вклучувајќи расистичка, нацистичка и сексистичка содржина.

АИ постулат

- Реклама -

Тимот на професорот Гарибај сака секој модел на вештачка интелигенција да работи во јасно дефинирана рамка. Не само поради благосостојбата на лицето со кое AI има интеракција, туку и поради способноста да се проценат ризиците поврзани со употребата на моделот. Структурата на секој проект треба да вклучува почитување на потребите, вредностите и желбите на различните културни групи и засегнати страни. Процесот на создавање, обука и дотерување на вештачката интелигенција треба да биде фокусиран на човековата благосостојба, а крајниот производ - моделот на вештачка интелигенција - треба да биде фокусиран на подобрување и подобрување на продуктивноста на самата човечка заедница. Моделите каде ризиците не можат да се идентификуваат треба да имаат ограничен или контролиран пристап. Тие не треба да бидат закана за човештвото, туку напротив, да придонесуваат за развојот на човекот и општеството во целина.

Прочитајте исто така: Twitter во рацете на Илон Маск – закана или „подобрување“?

Петтиот закон: Управување и независен надзор

Алгоритмите за вештачка интелигенција буквално го променија светот за само една година. Бард од Гугл и Бинг премиерно Microsoft значително влијаеше на акциите на двата гиганти на берзата. Патем, тие придонесоа за раст на акциите на овие компании дури и на позадината на акциите Apple. ChatGPT почна активно да се користи од учениците од училиштата, тие комуницираат со него, го испитуваат и поставуваат прашања. Најважно е тој да има способност да се самоучи, да ги исправа своите грешки. Вештачката интелигенција дури почнува да работи во владите на некои земји. Ова е случајот со премиерот на Романија, Николае Чука ангажирал виртуелен асистент кој ќе го информира за потребите на општеството. Односно, вештачката интелигенција игра сè поважна улога во нашите животи.

ВИ

Со оглед на сè поголемата меѓузависност помеѓу вештачката интелигенција, луѓето и животната средина, научниците сметаат дека е неопходно да се создадат управни тела и независен надзор на нејзиниот развој. Овие тела ќе го контролираат целиот животен циклус на вештачката интелигенција: од идеја до развој и имплементација. Властите правилно ќе дефинираат различни модели на вештачка интелигенција и ќе разгледаат случаи поврзани со вештачка интелигенција и теми од општествениот живот. Односно, вештачката интелигенција може да стане предмет на судски случаи, но и тужби. Иако, се разбира, не тој лично, туку неговите програмери.

Прочитајте исто така: Сè за Neuralink: Почетокот на сајберпанк лудилото?

Шестиот закон: Интеракцијата на човекот и вештачката интелигенција

Во програмите за вештачка интелигенција, секој може да најде нешто за себе: генерира текст, открива содржина во слики, одговара на прашања, генерира слики, препознава луѓе на фотографии, анализира податоци. Овие повеќекратни употреби не се грижа само за луѓето кои се обидуваат да ја прилагодат вештачката интелигенција на правните и етичките стандарди. Многумина стравуваат дека моделите со вештачка интелигенција ќе бидат отселени од пазарот на трудот. Бидејќи алгоритмите за вештачка интелигенција ќе можат да го прават истото побрзо, поевтино, а можеби дури и подобро од некоја личност. Во исто време, има луѓе кои се потпираат на вештачката интелигенција во својата работа, односно вештачката интелигенција веќе им е незаменлив асистент денес.

ВИ

Но, од студиите на кои се повикуваат научниците, јасно е дека замената на луѓето со евтина вештачка работна сила се уште е доста далеку. И покрај тоа, тие веќе инсистираат на потребата да се воспостави строга хиерархија на интеракција меѓу луѓето и вештачката интелигенција. Според нивното мислење, луѓето треба да се стават над вештачката интелигенција. Вештачката интелигенција мора да се создаде со почитување на когнитивните способности на една личност, земајќи ги предвид неговите емоции, социјални интеракции, идеи, планирање и интеракција со предмети. Односно, во сите ситуации, личноста е таа која мора да застане над вештачката интелигенција, да го контролира однесувањето и содржината создадена од моделот и да биде одговорна за тоа. Со едноставни зборови, дури и најнапредната вештачка интелигенција мора да ја послуша личноста и да не оди подалеку од дозволеното, за да не му наштети на нејзиниот творец.

Прочитајте исто така: Како Украина го користи и прилагодува Starlink за време на војна

Висовски

Да, некој ќе каже дека научниците не посочиле ништо важно и ново во нивниот извештај. Сите зборуваат за ова долго време. Но, веќе сега е неопходно да се стави вештачката интелигенција во некоја рамка на закони. Посегнувањето по GPT-4 е како слепо да посегнете по нож. Тие ги кријат клучните информации од нас. Сите случувања во вештачката интелигенција, а особено проектот ChatGPT од Open AI, често ме потсетуваат на одгледување мало дете. Понекогаш се чини дека ова е дете со вонземско потекло. Да, вонземјанин, но сепак е дете кое учи, греши, понекогаш се однесува несоодветно, раздразливо е, се расправа со родителите. Иако расте и се развива многу брзо.

ВИ

Човештвото можеби нема да биде во чекор со својот развој, а работите може да излезат од контрола. Затоа, човештвото веќе треба да разбере зошто сето ова го развиваме, да ги знае крајните цели, да бидеме „одговорни родители“, бидејќи во спротивно „детето“ едноставно може да ги уништи своите „родители“.

Прочитајте исто така: 

Yuri Svitlyk
Yuri Svitlyk
Син на Карпатите, непризнаен гениј на математиката, „адвокат“Microsoft, практичен алтруист, лево-десно
- Реклама -
Пријавете се
Известете за
гостин

0 коментари
Вградени критики
Прикажи ги сите коментари
Претплатете се за ажурирања