

Jedan od najvećih svjetskih konzultantskih divova, Deloitte, našao se u centru neobične kontroverze u Australiji nakon što je otkriveno kako je njihovo izvješće za tamošnju vladu sadržavalo izmišljene reference i citate – a djelomično je izrađeno uz pomoć umjetne inteligencije.
Tvrtka je, prema pisanju Australian Financial Reviewa (AFR), pristala djelomično vratiti novac australskom Ministarstvu zapošljavanja i radnih odnosa (DEWR) nakon što su u izvješću pronađene brojne pogreške. Deloitte je bio angažiran za provođenje revizije sustava Targeted Compliance Framework (TCF), koji je dio IT infrastrukture za upravljanje socijalnim naknadama i potporama. Vrijednost ugovora iznosila je 440.000 australskih dolara, a projekt je trajao sedam mjeseci, prenosi BusinessInsider.
No, objavljeno izvješće iz lipnja pokazalo se daleko od savršenog – među brojnim nepravilnostima nalazile su se reference na nepostojeće autore te čak i izmišljeni citat iz presude australskog Federalnog suda. Pogreške je prvi uočio australski akademik Chris Rudge, koji se bavi istraživanjima u području socijalne politike.
Nakon što su nepravilnosti otkrivene, tamošnje ministarstvo je u petak objavilo ažuriranu verziju izvješća u kojoj je uklonjeno više od desetak nepostojećih fusnota i referenci, ispravljen popis izvora i niz tipografskih pogrešaka. No, najzanimljiviji je novi detalj koji se u prvoj verziji nije spominjao: Deloitte je naknadno otkrio kako je u pripremi izvješća koristio generativni AI alat temeljen na velikom jezičnom modelu Azure OpenAI GPT-4o, koji je bio licenciran i hostan unutar državne Azure infrastrukture.
Drugim riječima, dio analitičkog rada za australsku vladu obavljen je pomoću umjetne inteligencije – no bez jasnog otkrivanja te činjenice u javnoj verziji dokumenta.
Predstavnik ministarstva potvrdio je za BusinessInsider da je Deloitte „priznao netočnosti u referencama“ i pristao vratiti posljednju ratu ugovora. Istovremeno je naglasio da te pogreške „nisu utjecale na sadržaj ni preporuke izvješća“.
Unatoč tome, slučaj je otvorio pitanje transparentnosti i kontrole kvalitete u korištenju generativne umjetne inteligencije u konzultantskim i revizijskim procesima. Dok Deloitte naglašava da se radilo o eksperimentalnom korištenju AI-alata unutar kontroliranog okruženja, kritičari upozoravaju da se takvi alati ne mogu koristiti bez stroge provjere podataka i izvora.
