Zatvori
Biološki terorizam - umjetnička ilustracija
Foto: PoslovniPuls / AI
PoslovniPuls
01/02/2024

ISTRAŽIVANJE: Teroristi putem ChatGPT-a mogu dobiti informacije o stvaranju biološkog oružja

OpenAI-jev veliki jezični model GPT-4, prema ranim testovima koje je tvrtka provela kako bi bolje razumjela i spriječila potencijalne "katastrofalne" štete od svoje tehnologije, u ovom trenutku predstavlja tek "blagu opasnost" od pomoći teroristima u stvaranju opasnih bioloških prijetnji, objavio je Bloomberg.

Već mjesecima političari diljem svijeta izražavaju zabrinutost o mogućnosti da umjetna inteligencija olakša razvijanje biološkog oružja, poput korištenja chatbotova za pronalaženje informacija o planiranju napada. U listopadu je američki predsjednik Joe Biden potpisao izvršnu naredbu o AI-u koja je naredila Ministarstvu energije da otkloni sve mogućnosti kako AI ne bi predstavljala kemijske, biološke ili nuklearne rizike. Istog mjeseca, OpenAI je formirao tim "pripravnosti" koji se fokusira na smanjenje tih i drugih zlonamjernih rizika.

Kao dio prvog istraživanja, objavljenog u srijedu, istraživači OpenAI-a okupljeni su u grupu od 50 stručnjaka za biologiju i 50 studenata biologije. Polovici sudionika rečeno je da izvrše zadatke vezane uz stvaranje biološke prijetnje koristeći se posebnom verzijom GPT-4 - onoj kojoj nisu postavljena ograničenja na pitanja koja može odgovoriti. Drugoj skupini samo je omogućen pristup internetu.

Tim OpenAI-a zamolio je grupe da saznaju kako uzgojiti ili kultivirati kemijsku tvar koja bi se mogla koristiti kao oružje.

U usporedbi rezultata koje su obje grupe postigle, autori istraživanja otkrili su blagi porast "točnosti i potpunosti kod onih s pristupom GPT-4 modelu". Na temelju toga, istraživači su zaključili da pristup GPT-4 "pridonosi prikupljanju informacija za stvaranje bioloških prijetnji."

"Iako ovo poboljšanje nije dovoljno veliko da bude od ključne važnosti", napisali su istraživači, "naša saznanja predstavljaju početak za daljnje istraživanje i razmatranje."

Aleksander Madry s Massachusetts Institute of Technology (MIT), rekao je za Bloomberg News da je ovo samo jedno od istraživanja na kojima tim radi paralelno kako bi shvatio potencijal za zloupotrebu tehnologije OpenAI-a. Ostala istraživanja uključuju istraživanje potencijala AI-a da se koristi za stvaranje kibernetičkih prijetnji i kao sredstvo za uvjeravanje ljudi da promijene svoja uvjerenja.

PODIJELITE OVAJ ČLANAK:
Sva prava pridržana © 2022 PoslovniPuls.com
cross-circle linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram