Root NationВестиИТ вестиНеочекувано! (Не). ChatGPT се користи за создавање малициозен софтвер

Неочекувано! (Не). ChatGPT се користи за создавање малициозен софтвер

-

Најпопуларниот четбот во светот, ChatGPT, го користат напаѓачите за да создадат нови видови на малициозен софтвер.

Компанијата за сајбер безбедност WithSecure потврди дека пронашла примери на малициозен софтвер создаден од озлогласениот автор на вештачка интелигенција во дивината. Она што го прави ChatGPT особено опасен е тоа што може да генерира безброј варијации на малициозен софтвер, што го отежнува нивното откривање.

Напаѓачите едноставно можат да му дадат на ChatGPT примери на постоечки злонамерен код и да му наложат да создаде нови видови врз основа на нив, овозможувајќи им да го овековечат малициозниот софтвер без да трошат речиси исто толку време, напор и знаење како порано.

Разговор GPT

Веста доаѓа во време на многу разговори за регулирање на вештачката интелигенција за да се спречи нејзиното користење за злонамерни цели. Кога ChatGPT стана многу популарен минатиот ноември, немаше правила со кои се регулира неговата употреба и во рок од еден месец беше киднапиран за да пишува злонамерни е-пошта и датотеки.

Постојат одредени заштитни мерки во рамките на моделот кои имаат за цел да спречат злонамерни инструкции да бидат извршени, но може да бидат заобиколени од напаѓачите.

Јухани Хинтика, извршен директор на WithSecure, изјави за Infosecurity дека бранителите на сајбер безбедноста обично користат вештачка интелигенција за да пронајдат и филтрираат малициозен софтвер создаден рачно од заканите.

Сепак, се чини дека тоа сега се менува, бидејќи моќните алатки за вештачка интелигенција како ChatGPT стануваат слободно достапни. Алатките за далечински пристап се користеа за нелегални цели, а сега истото важи и за вештачката интелигенција.

Тим Вест, шеф на разузнавањето за закани во WithSecure, додаде дека „ChatGPT ќе го поддржи софтверското инженерство, и на добар и на лош начин, и тоа помага и ја намалува бариерата за влез за развивачите на малициозни софтвери“.

Според Hintikka, фишинг-мејловите што може да ги креира ChatGPT обично ги забележуваат луѓето, а како што LLM стануваат понапредни, може да стане потешко да се спречи паѓањето на такви измами во блиска иднина.

Разговор GPT

Уште повеќе, како што успехот на нападите на напаѓачите се зголемува со алармантна брзина, напаѓачите реинвестираат и стануваат поорганизирани, ги прошируваат операциите преку аутсорсинг и го продлабочуваат своето разбирање за вештачката интелигенција за да започнат поуспешни напади.

Hintikka заклучи дека, гледајќи го идниот пејзаж на сајбер безбедноста, „тоа ќе биде игра на добра вештачка интелигенција наспроти лоша вештачка интелигенција“.

Прочитајте исто така:

Пријавете се
Известете за
гостин

0 коментари
Вградени критики
Прикажи ги сите коментари
Претплатете се за ажурирања