Root NationВестиИТ вестиMicrosoft објави заштитно решение за вештачка интелигенција базирано на GPT-4 Security Copilot

Microsoft објави заштитно решение за вештачка интелигенција базирано на GPT-4 Security Copilot

-

Системите за вештачка интелигенција (AI) веќе се користат за создавање графика, чет-ботови, па дури и за контрола на паметни домови. Компанија Microsoft ѝ ја довери на вештачката интелигенција една од најважните сфери на модерниот живот – заштита од сајбер закани. Алатката Security Copilot ви овозможува да препознаете сајбер напад дури и кога нема очигледни знаци и помага во неговото елиминирање.

Во ситуации кога безбедноста на вашиот компјутер е загрозена поради некоја причина, Security Copilot ќе ви помогне да одредите што се случило, што да правите и како да спречите слични инциденти да им се случат на други. Компанијата претстави ново решение базирано на моделот GPT-4 - Security Copilot им помага на корпоративните клиенти да се справат со заканите.

Microsoft Безбедносен копилот

Досега, алатката е достапна само за корпоративни клиенти. Истиот голем јазичен модел што ги напојува апликациите како Bing Chat стои зад Security Copilot. Меѓутоа, во овој случај зборуваме за опција специјално обучена за материјалите и терминологијата што ја користат ИТ професионалците. Покрај тоа, Microsoft веќе го има интегрирано Copilot со неговите други безбедносни алатки. Компанијата ветува дека со текот на времето ќе може да користи софтверски решенија од трети страни.

Додека повеќето приспособени апликации базирани на GPT-4 беа обучени на малку застарени сетови на податоци, Security Copilot добива нови информации во реално време со проучување на буквално трилиони сигнали за закана кои Microsoft добива секојдневно. Ова е предноста на моделот - Security Copilot може да препознае скриени сигнали дури и пред да стане очигледен фактот за напад. Благодарение на ова, алатката може да се користи за препознавање и навремено елиминирање на заканите.

Microsoft Безбедносен копилот

Во исто време, пред доста време стана јасно дека вештачките интелигенции како ChatGPT, Bing Chat или Google Bard можат да имаат „халуцинации“ при кои како основа за „расудување“ се користат целосно неверодостојни факти. Во областа на безбедноста, ова може да стане многу опасен феномен. ВО Microsoft веќе потврдија дека безбедносниот копилот „не секогаш ги исправа работите како што треба“. За среќа, во случајот на производот Microsoft обезбеден е механизам за повратни информации од корисниците за да се обезбедат сè порелевантни одговори.

Сепак Microsoft не пријави што може да се случи кога одбранбената вештачка интелигенција се судри со злонамерна вештачка интелигенција, како што е онаа дизајнирана да ги напаѓа корисниците и бизнисите. Во секој случај, компанијата соопшти дека клиентите на претпријатијата веќе можат да тестираат Security Copilot на мал сегмент од нивните корисници. Доколку експериментот биде успешен, веројатно ќе може да им помогне на обичните корисници во иднина.

Исто така интересно:

Jerelomicrosoft
Пријавете се
Известете за
гостин

0 коментари
Вградени критики
Прикажи ги сите коментари
Претплатете се за ажурирања