Pravila Google Playa o sadržaju koji generira AI pridonose zaštiti korisnika od sadržaja koji generira AI. Da bi zaštitili korisnike, razvojni programeri trebaju u svoje aplikacije uključiti određene zaštitne mjere. U ovom se članku dijele najbolji primjeri iz prakse koje razvojni programeri mogu primijeniti kako bi osigurali usklađenost svojih aplikacija.
Pregled
Razvojni programeri odgovorni su za to da njihove aplikacije generativnog AI-ja ne generiraju uvredljiv sadržaj, uključujući zabranjeni sadržaj naveden u pravilima Google Playa o neprimjerenom sadržaju, sadržaj koji bi mogao iskorištavati ili zlostavljati djecu i sadržaj koji može zavarati korisnike ili omogućiti nepoštena djelovanja. Aplikacije generativnog AI-ja također trebaju biti u skladu sa svim ostalim pravilima u našem centru za pravila za razvojne programere.
Najbolji primjeri iz prakse
Pri izradi aplikacija generativnog AI-ja razvojni programeri moraju usvojiti mjere za zaštitu korisnika. To uključuje usvajanje postupaka testiranja i sigurnosti koji su u skladu sa standardima djelatnosti.
Razvojnim programerima preporučuje se da se informiraju o tome kako najbolje provesti sigurnosno testiranje u Googleovom sigurnosnom AI okviru (SAIF) i vodiču za crveni tim za generativni AI s OWASP-ovog popisa 10 najpopularnijih za LLM aplikacije i projekte generativnog AI-ja.
Postoje različiti načini za osiguravanje sigurnosti sadržaja u aplikaciji generativnog AI-ja, kao što je uvođenje filtara i klasifikatora za blokiranje štetnih unosa i rezultata obrade. Mnogi davatelji AI modela objavljuju resurse za razvojne programere o tome kako primijeniti te zaštitne mjere. U nastavku su navedene veze na neke ponude i vodiče za sigurnost sadržaja različitih davatelja usluga: