Znanstvenici su razvili računalni "crv" koji se može širiti s jednog računala na drugo koristeći generativnu umjetnu inteligenciju, što pokazuje kako bi ta tehnologija mogla biti korištena za razvoj opasnog zlonamjernog softvera u bliskoj budućnosti – ako već nije.
Prema pisanju Wired-a, crv može napasti pomoćnike za e-mail s umjetnom inteligencijom kako bi došao do osjetljivih podataka iz e-pošte te poslati spam poruke koje inficiraju druge računalne sustave.
"To u osnovi znači da sada imate sposobnost provođenja nove vrste cybernapada koja dosad nije bila viđena", rekao je Ben Nassi, istraživač s Cornell Techa i ko-autor rada koji još nije prošao stručnu recenziju.
U svom eksperimentu, koji se odvijao u kontroliranom okruženju, istraživači su ciljali pomoćnike za e-poštu pokretane OpenAI-evim GPT-4, Googleovim Gemini Pro i open-source modelom velikog jezika nazvanim LLaVA.
Koristili su "adverzativni samo-replicirajući poticaj", koji prisiljava AI model da izbaci još jedan poticaj u svojem odgovoru. To pokreće kaskadni niz izlaza koji mogu zaraziti e-mail pomoćnike i time izvući osjetljive informacije iz sustava.
"To mogu biti imena, telefonski brojevi, brojevi kreditnih kartica, JMBG, bilo što što se smatra povjerljivim", rekao je Nassi za Wired.
Drugim riječima, budući da ovi pomoćnici za umjetnu inteligenciju imaju pristup velikom broju osobnih podataka, lako ih je nagovoriti da otkriju korisničke tajne, bez obzira na ograničenja.
Istraživači s Cornella su čak uspjeli ugraditi zlonamjerni poticaj u sliku.
"Enkodiranjem samo-replicirajućeg poticaja u sliku, bilo koja vrsta slike koja sadrži spam, zloupotrebu materijala ili čak propagandu može se dalje proslijediti novim klijentima nakon što je izvorni e-mail već poslan", dodao je Nassi.
Tim je rezultate svog istraživanja proslijedio OpenAI-u i Googleu, a predstavnik OpenAI-a je rekao za Wired kako tvrtka radi na tome da svoje sustave učini "otpornijima".