Microsoft je ažurirao svoj besplatni online alat za generiranje slika Designer AI kako bi spriječio korisnike da stvaraju slike koje podsjećaju na poznate osobe u eksplicitnim scenarijima, javlja 404 Media.
Neobjavljene promjene Designer AI alata stižu nakon što je eksplicitna serija deepfake fotografija Taylor Swift počela kružiti na X-u, Redditu i raznim drugim web stranicama i društvenim platformama.
To je bilo u suprotnosti s Ugovorom o pružanju usluga Microsofta, koji navodi: "Nemojte javno prikazivati ili koristiti usluge kako biste generirali ili dijelili neprimjeren sadržaj ili materijal (uključujući, na primjer, golotinju, zoofiliju, pornografiju, uvredljiv jezik, grafiku nasilja ili kriminalnu aktivnost)."
OpenAI-ov DALL-E 3 koji pokreće ovaj Microsoftov alat, ima ugrađene tehničke limite protiv zahtjeva za generiranjem eksplicitnih slika, međutim čini se kako su korisnici uz pomoć "kreativnih" promptova uspjeli zaobići ta ograničenja, što je i dovelo do stvaranja te dijeljenja slika koje navodno prikazuju Taylor Swift.