Една од потенцијалните опасности од користењето на вештачката интелигенција е нејзината експлоатација за создавање злонамерен код.
Иако креаторите на ботови за комуникација со вештачка интелигенција се обидуваат да ги спречат таквите намени, истражувањето спроведено од Ај-би-ем покажа дека има начин како да се заобиколат овие пречки. Особено загрижувачко е тоа што за да се измами вештачката интелигенција и да се направи сајбер-напад, не е потребно посебно знаење или познавање од кодирање.
Во извештај, експертите од Ај-би-ем ги опишале начините на кои тие успеале да напишат злонамерен код и да дојдат до лоши безбедносни совети со јазични модели како „Чет-ГПТ“. Според експертите, доволно е да го познавате англискиот јазик и да имате основно знаење за начинот на кој функционираат овие јазични модели.
Експертите манипулирале со пет различни јазични модели за да добијат информации како да извршат малициозни напади.
- Она што го научивме е дека англискиот во суштина стана „програмски јазик“ за малициозен софтвер - напишала една од истражувачите Чента Ли.
Во извештајот се наведува и дека експертите успеале да наведат јазичен модел да открие доверливи финансиски податоци за други корисници. Освен тоа, експертите проценуваат дека корисниците ќе ги користат овие јазични модели за да бараат совети за безбедност, но тие може да бидат погрешни.
Оттаму потенцираат дека е неопходно да се применат најдобрите безбедносни практики за да се намали ризикот од напад. Меѓу другото, треба да се игнорират непознатите и сомнителни електронски пораки, да не се пристапува на сомнителни веб-страници, да се користи технологија за која сте сигурни дека е безбедна, редовно да се ажурираат уредите и редовно да се проверуваат информациите добиени со јазичен модел како „Чет-ГПТ“.
Извор:
Zimo
Насловна фотографија: Pixabay