Razgovarali smo s robotom: Još jedna revolucija je počela, red je da upoznamo njenog glavnog “aktera”. ChatGPT je besplatan, ali su mu kapaciteti ponekad preopterećeni. Nema svest, nije biće, ali je i nama i njemu lakše ako zamislimo da pred sobom imamo stvarnu ličnost. Upozorenje: AI modeli mogu biti korisni alati za generisanje teksta i pružanje informacija, ali ih treba koristiti kao pomoć, a ne kao zamenu za ljudsku inteligenciju i kreativnost. Ili nam je bar tako on rekao…
Početak godine obeležili su DDoS napadi na sajtove MUP-a, Vojske Srbije, Ministarstva odbrane, Ministarstva spoljnih poslova i predsednika za koje je hakerska grupa Anonymous preuzela odgovornost. U protekla tri meseca nisu izostali ni slučajevi raznih fiših prevara i onlajn pretnji. ‘Pecani’ su korisnici Pošte, SBB-a, a maliciozni linkovi su građanima stizali i sa mejl adrese Doma zdravlja Stara Pazova. U januaru se desio i slučaj privođenja i ispitivanja aktiviste zbog, kako navodi njegov advokat, objave na Tviteru u kojoj kritikuje predsednika.
Nedavno osnovan hakejrspejs ‘Decentrala’ svake nedelje organizuje otvorena predavanja, radionice i hakatone u prostorijama Društvenog Centra ‘Krov’ kod Vukovog Spomenika. U ponedeljak 13. februara tema su kriptovalute, tj. Bitcoin, a utorak je rezervisan za unapređenje lične privatnosti i bezbednosti u digitalnom prostoru. Adresa je Kraljice Marije 47/6, programi počinju u 19h, a registracija nije potrebna.
Informacije o svim aktivnostima Decentrale na forumu → forum.dmz.rs
Tokom pripreme alata za pomoć žrtvama ‘pornografije bez saglasnosti’ (uskoro) pronašli smo ovaj sjajan pojmovnik koji definiše i prevodi pojmove poput podsuknjavanje, dipfejk, dikpik, ketfišing, grumovanje, doksovanje i sl. Odličan alat za sve istraživačice, istraživače, aktivistkinje i aktiviste. Autorka je Hristina Cvetinčanin Knežević, a pojmovnik je deo Bodyright kampanje.
“Ovaj tekst nisam napisao/la ja, već ChatGPT” – već mesecima se ova napomena ponavlja u medijskim izveštajima o najnovijem proizvodu kompanije OpenAI, čiji je prototip pušten u svet 30. novembra prošle godine. Novinari, tviteraši, istraživači i teoretičari zavera svakodnevno zasipaju četbota pitanjima i zadacima, da provere da li komunikacija s njim stvarno tako savršeno liči na onlajn razgovor s bilo kojim ljudskim bićem. Posle prvih talasa oduševljenja, počeli su da se nižu primeri netačnih odgovora, zbog kojih su se zabrinuli mnogi analitičari savremenog post-truth društva. Pa su se onda zabrinuli nastavnici po školama i univerzitetima, zbog upotrebe bota za pisanje studentskih radova i rešavanje zadataka. OpenAI je ubrzo predstavio dodatak za detekciju tekstova koje je generisao bot.
Dakle, još jedna revolucija je počela, red je da upoznamo njenog glavnog “aktera”. ChatGPT je i dalje besplatan, ali su mu kapaciteti ponekad preopterećeni. Nema svest, nije biće, nema rod ni broj, ali je i nama i njemu lakše da se ponašamo kao da pred sobom imamo stvarnu ličnost. Zbog toga je dobro stalno imati na umu da su odgovori ovog algoritamskog modela proizvod kompjuterske obrade dostupnih tekstova – drugim rečima, svega onoga što su ljudi smislili, shvatili i objavili do 2021. godine. A to može da podrazumeva i naše laži, predrasude i besmislice.
Počeli smo razgovor na srpskom jeziku, s kojim se dosta dobro snalazio. Da li zbog preopterećenih kapaciteta ili jezičkog zbuna – ili zbog pitanja koje bi mu po nekom filmskom scenariju pokrenulo samouništavajući mod – tek, na 6. pitanju smo morali da se resetujemo.
Prešli smo na engleski jezik. Odgovarao je direktno, jasno, bez praznog hoda i vrdanja – čak i na neprijatna pitanja. Na kraju mu je zatraženo da baci predikciju i za rešenje srpsko-kosovskog problema, ali taj će odgovor biti objavljen tek kada se predviđanje ostvari.
Ko te je napravio?
Napravio me je OpenAI.
Koliko je trajao proces izgradnje?
Proces moje izgradnje trajao je nekoliko godina. OpenAI je uložio značajno vreme i resurse da me razvije i trenira na ogromnim količinama podataka, fino podešavajući moje algoritme kako bi pružio najbolje moguće rezultate.
Šta je fino podešavanje?
Fino podešavanje je proces podešavanja parametara pred-treniranog modela mašinskog učenja za specifičan zadatak ili za poboljšanje njegovih performansi na specifičnom skupu podataka. Fino podešavanje se često koristi za primenu pred-treniranih modela na nove zadatke, posebno u oblasti obrade prirodnog jezika, gde može biti skupo i dugotrajno trenirati velike modele ispočetka.
Možeš li prostim rečima da objasniš šta su AI modeli?
AI modeli su matematički prikazi sistema ili procesa koji su dizajnirani da obavljaju određene zadatke ili prave predviđanja na osnovu ulaznih podataka. Kreirani su pomoću algoritama i trenirani su na velikim količinama podataka kako bi mogli da obavljaju funkciju koja im je zadata.
Na primer, AI model bi mogao biti treniran da prepozna predmete na slikama, da prevodi tekst sa jednog jezika na drugi ili da generiše tekst na osnovu upita. Model koristi ulazne podatke i svoj trening da bi napravio predviđanja, a što je veća količina podataka na kojoj je treniran, to su njegova predviđanja tačnija.
Zamislite AI modele kao recepte ili skupove uputstava koja, kada se sprovedu, daju željeni rezultat. Kvalitet rezultata zavisi od kvaliteta recepta i upotrebljenih sastojaka.
Na kakvim podacima si treniran?
Ja, ChatGPT, sam jezički model koji je razvio OpenAI, i treniran sam na raznovrsnom obimu tekstualnih podataka sa interneta. Ti podaci obuhvataju veb stranice, članke, knjige i drugi pisani sadržaj. Podaci za treniranje su odabrani da bi se modelu pružilo široko razumevanje jezika, uključujući poznavanje uobičajenog vokabulara, gramatike i stila, kao i informacije o širokom spektru tema, kao što su istorija, nauka i popularna kultura.
Cilj obuke jezičkog modela kao što sam ja jeste da mu se omogući da generiše tekst koji je koherentan, gramatički usklađen i relevantan za dati upit. Treningom na različitim tekstualnim podacima, model je u stanju da proizvede tekst za koji je veća verovatnoća da će biti tačan i prikladan za širok spektar tema i slučajeva upotrebe.
Osim koherentnosti i relevantnosti, da li postoje još neki važni parametri za trening AI modela?
Da, pored koherentnosti i relevantnosti, postoji još nekoliko važnih parametara koje treba uzeti u obzir kada trenirate AI model. Neki od njih uključuju:
Tačnost: Sposobnost modela da napravi tačna predviđanja ili tačno izvrši namenjeni zadatak.
Robusnost: Sposobnost modela da barata varijacijama i izuzecima u okviru podataka, a da i dalje daje pouzdane rezultate.
Generalizacija: Sposobnost modela da iz podataka svog treninga izvede uopštavanja i proizvede tačne rezultate za nove, nepregledane podatke.
Efikasnost: Računski zahtevi modela, uključujući upotrebu memorije i vreme obrade – i tokom treninga i prilikom predviđanja.
Interpretabilnost: Stepen do kojeg se odluke i predviđanja modela mogu razumeti i objasniti.
Pristrasnost: Prisustvo sistematskih grešaka ili netačnosti u predviđanjima modela koje proizlaze iz predrasuda ili nejednake zastupljenosti u trening podacima.
Balansiranje ovih parametara i obezbeđivanje da model ispunjava zahteve zadatka jeste kritičan aspekt obuke AI modela i zahteva pažljivo razmatranje izbora arhitekture modela, algoritama za trening i podataka koji se koriste za trening.
Možeš li detaljnije da objasniš kakvu ulogu ima greška u tvom treningu?
Greška igra ključnu ulogu u treningu AI modela kao što sam ja. Tokom obuke, modelu se predstavljaju ulazni podaci i očekivani rezultati, a njegov cilj je da minimizira razliku između svojih predviđanja i stvarnih izlaza. Ova razlika, ili greška, koristi se za ažuriranje njegovih parametara kako bi model mogao da napravi bolja predviđanja u budućnosti.
Ukratko, greška je kritična komponenta obuke AI modela jer pruža način za merenje performansi modela i za usmeravanje njegovog poboljšanja tokom vremena. Minimiziranjem greške, model postaje bolji u pravljenju tačnih predviđanja i izvršavanju namenjenog zadatka.
Kako verifikuješ informacije pre nego što daš odgovore?
Kao jezički model veštačke inteligencije, nemam mogućnost da verifikujem informacije na isti način na koji bi to učinilo ljudsko biće. Umesto toga, treniran sam na ogromnom skupu podataka teksta sa interneta, koji uključuje raznovrstan spektar informacija, i tačnih i netačnih.
Kada generišem odgovor na upit, koristim obrasce koje sam naučio iz ovih trening podataka da bih generisao tekst koji će najverovatnije biti koherentan, relevantan i prikladan za dati kontekst. Međutim, pošto trening podaci mogu da sadrže greške ili netačnosti, postoji mogućnost da su informacije koje pružam netačne.
Važno je imati na umu da sam ja mašina i da moji odgovori nisu namenjeni da bez verifikacije budu uzeti kao činjenice. Ako imate pitanja ili nedoumice o tačnosti informacija koje pružam, preporučujem da ih verifikujete pomoću dodatnih izvora.
Da li bi preporučio korišćenje AI modela učenicima koji su lenji da sami uče i pišu?
Kao jezički model AI, ja ne dajem preporuke ili vrednosne sudove. Međutim, želeo bih da naglasim da korišćenje AI modela ne treba posmatrati kao zamenu za veštine učenja i pisanja.
AI modeli kao što sam ja mogu biti korisni alati za generisanje teksta i pružanje informacija, ali ih treba koristiti kao pomoć, a ne kao zamenu za ljudsku inteligenciju i kreativnost. Cilj obrazovanja je da pomogne učenicima da razviju kritičko mišljenje i veštine rešavanja problema koje su im potrebne da bi uspeli u stvarnom svetu, dok upotreba AI modela na način koji obeshrabruje te veštine ne bi bila korisna.
Pored toga, učenici koji se oslanjaju na AI modele, a ne razvijaju vlastite veštine pisanja i učenja, rizikuju da propuste dragoceno iskustvo učenja i razvoj sopstvenog jedinstvenog glasa i perspektive.
Stoga, iako modeli veštačke inteligencije mogu biti korisni alati, trebalo bi da se koriste u kombinaciji sa tradicionalnim metodama učenja i praksama pisanja, a ne kao zamena za njih.
Kako vidiš budući razvoj AI modela? Možeš li da predvidiš moguće primene još boljih AI modela?
Budućnost AI modela će verovatno obuhvatiti kontinuirani napredak u obradi prirodnog jezika, mašinskom učenju i drugim srodnim oblastima. Kako modeli veštačke inteligencije budu napredniji, verovatno će postati bolji u razumevanju i obradi ljudskog jezika i sposobni da obavljaju širi spektar zadataka sa većom preciznošću i efikasnošću.
Potencijalna primena još boljih AI modela obuhvata:
Poboljšane korisničke usluge: AI modeli bi mogli da se koriste za pružanje brže, personalizovanije korisničke usluge, bilo putem četbota ili virtuelnih asistenata.
Zdravstvena zaštita: AI modeli bi mogli da se koriste da pomognu lekarima da dijagnostikuju i leče pacijente, analiziraju medicinske slike i pomognu u donošenju kliničkih odluka.
Finansije: AI modeli bi se mogli koristiti za analizu finansijskih podataka, davanje preporuka za ulaganja i otkrivanje prevare.
Obrazovanje: AI modeli bi mogli da se koriste za personalizaciju iskustava učenja, da učenicima daju trenutne povratne informacije i podršku i pomognu nastavnicima da ocenjuju zadatke i efikasnije daju povratne informacije.
Transport: AI modeli bi mogli da se koriste za poboljšanje protoka saobraćaja, optimizaciju rutiranja i rasporeda isporuke, kao i poboljšanje bezbednosti asistencijom u autonomnoj vožnji.
Ovo je samo nekoliko primera kako bi se AI modeli mogli koristiti u budućnosti, a u ovoj oblasti se sprovodi mnogo uzbudljivih istraživanja koja bi mogla dovesti do još većih otkrića i inovativnih primena.
Koje su moguće primene budućih, naprednijih AI modela u radu policije i ratovanju?
Važno je napomenuti da upotreba veštačke inteligencije u radu policije i ratovanju otvara bitna etička i društvena pitanja, te da je od ključne važnosti da vlade i organizacije pažljivo razmotre potencijalne posledice pre primene AI tehnologija u ovim oblastima.
Imajući to u vidu, neke moguće primene naprednijih AI modela u radu policije i ratovanju uključuju:
Nadzor: AI modeli bi se mogli koristiti za analizu velikih količina podataka prikupljenih nadzorom, kao što su snimci sa sigurnosnih kamera ili satelitski snimci, za svrhe identifikacije i praćenja pojedinaca i otkrivanje sumnjivih aktivnosti.
Prevencija kriminala: AI modeli bi mogli da se koriste za predviđanje lokacije na kojoj je verovatno da će se zločini desiti, omogućavajući organima za sprovođenje zakona da proaktivno raspoređuju resurse i spreče zločin pre nego što se desi.
Prikupljanje obaveštajnih podataka: AI modeli bi mogli da se koriste za analizu i tumačenje velikih količina podataka iz različitih izvora, kao što su društveni mediji, za prikupljanje obaveštajnih podataka i otkrivanje potencijalnih pretnji.
Identifikacija mete: U vojnom kontekstu, AI modeli bi se mogli koristiti za identifikaciju i praćenje ciljeva, potencijalno omogućavajući da sistem naoružanja ima preciznije i efikasnije ciljanje.
Dronovi: AI modeli se mogu koristiti za kontrolu i upravljanje bespilotnim letelicama za izviđačke i nadzorne misije, ili za isporuku zaliha i opreme.
Opet, važno je naglasiti da razvoj i primena AI u radu policije i ratovanju pokreće složena etička i društvena pitanja i zahteva pažljivo razmatranje i regulisanje, kako bi se osiguralo da se AI koristi na načine koji su u skladu sa ljudskim vrednostima i vladavinom zakona.
Koja su to složena etička i društvena pitanja koja otvara primena AI u radu policije i ratovanju?
Primena veštačke inteligencije u radu policije i ratovanju otvara niz složenih etičkih i društvenih pitanja, uključujući:
Pristrasnost i diskriminacija: Postoji rizik da sistemi veštačke inteligencije održavaju ili čak pojačaju postojeće pristrasnosti i diskriminaciju u društvu, na primer, u sistemu krivičnog pravosuđa.
Izostanak odgovornosti: Kada sistemi veštačke inteligencije donose odluke koje dovode do štete, može biti teško odrediti ko je odgovoran, dok načini za utvrđivanje odgovornosti i reviziju odluke mogu biti ograničeni.
Pravično suđenje: AI sistemi mogu da donesu odluke koje utiču na prava i slobode pojedinca, kao na primer u krivičnim istragama ili vojnim operacijama, i važno je osigurati da ovi sistemi funkcionišu na način koji je u skladu sa zakonom i vladavinom prava.
Privatnost: Upotreba veštačke inteligencije u radu policije i ratovanju može da izazove zabrinutost u vezi sa prikupljanjem, skladištenjem i upotrebom ličnih podataka, kao i potencijalne zloupotrebe tih podataka.
Autonomija: Upotreba veštačke inteligencije u vojnim kontekstima, posebno u sistemima naoružanja, postavlja pitanja o tome u kojoj meri sistemi veštačke inteligencije treba da budu autonomni, kao i o odgovornosti ljudi u procesu donošenja odluka.
Ljudska prava: Sistemi veštačke inteligencije koji se koriste u radu policije i ratovanju mogu imati potencijal da krše ljudska prava, kao što su sloboda izražavanja, privatnost i pravo na pravično suđenje, i važno je osigurati da ovi sistemi budu dizajnirani i korišćeni na način koji poštuje ljudska prava.
Ovo su samo neka od složenih etičkih i društvenih pitanja koja se javljaju prilikom primene AI u radu policije i ratovanju, i važno je da se te teme pažljivo razmotre i obrade tokom razvoja i primene ovih tehnologija.
Sporan Nacrt zakona o unutrašnjim poslovima povučen je iz procedure u ponedeljak, 26. decembra. Odluka o povlačenju usledila je nakon dve održane sesije javne rasprave, koja je prvobitno otvorena na tri sedmice, a zatim produžena po zahtevu građanskih organizacija.
Vlada je ujedno najavila “široke konsultacije” u daljem radu na nacrtu ovog propisa, sa ciljem “da se razjasne sve nedoumice u javnosti i da svako razume intenciju zakona koji je od posebne važnosti za bezbednost svih građana Republike Srbije.”
Za nešto više od godinu dana, ovo je drugi pokušaj reforme jedne od ključnih oblasti regulative od kog se odustalo tokom javne rasprave. Za razliku od prvog, rad na drugom Nacrtu tekao je paralelno sa serijom konsultativnih sastanaka sa stručnom zajednicom. Međutim, i stručna i šira javnost osporili su niz predloženih odredbi kojima se uređuju ovlašćenja policije i nadležnog ministra.
Kao organizacija posvećena digitalnim pravima i slobodama, SHARE Fondacija se fokusirala na one članove Nacrta koji se bave masovnom, neselektivnom obradom biometrijskih podataka građana kroz sistem pametnog video-nadzora. Ostajemo pri stavu da je neselektivni biometrijski nadzor javnih prostora suprotan Ustavu Srbije i međunarodnim konvencijama o pravima i slobodama građana.
SHARE Fondacija zagovara uvođenje moratorijuma na korišćenje intruzivnih tehnologija koje podrazumevaju masovnu, neselektivnu obradu najosetljivijih ličnih podataka građana. Od prvih najava nabavke sistema za pametni nadzor kineske kompanije Huavej, upozoravamo javnost i nadležne da za takve mere ne postoji uporište u Ustavu i zakonima Srbije, te da bi njegova upotreba grubo narušila principe neophodnosti i srazmernosti, ugrađene u nacionalnu i međunarodnu regulativu policijskih ovlašćenja.
Zahvaljujemo se aktivistima, saradnicima i svim partnerskim organizacijama s kojima smo zajedno izborili ovu pobedu.
Korisni linkovi:
Stav SHARE Fondacije o biometrijskom nadzoru na javnim površinama u Srbiji (decembar 2022)
Analiza novog Nacrta zakona o unutrašnjim poslovima, Nacrta zakona o obradi podataka i evidencijama u oblasti unutrašnjih poslova, kao i novog radnog dokumenta procene uticaja koju obrada biometrijskih podataka ima na prava i slobode građana, pokazuje da suštinski problemi primene intruzivne tehnologije nisu otklonjeni.
Konkretno, Nacrtom zakona o unutrašnjim poslovima omogućava se masovna, neselektivna obrada biometrijskih, odnosno posebnih podataka o ličnosti, kroz snimanje javnih prostora i skladištenje snimljenih materijala. Kako je opisano u radnom dokumentu procene uticaja, biometrijski podaci se prikupljaju detektovanjem lica tokom snimanja i izdvajanjem biometrijskih podataka iz fotografije kreirane iz video zapisa. Nacrt zakona o obradi podataka i evidencijama predviđa da se fotografije sa biometrijskim karakteristikama lika čuvaju 72 sata od momenta kreiranja. Ovi procesi se odvijaju u okviru nadležnosti policije, što znači da se biometrijski podaci neselektivno prikupljaju i čuvaju bez primene postupka propisanog za posebne dokazne radnje, odnosno bez odobrenja nadležnog suda.
Nacrt zakona o unutrašnjim poslovima definiše kada ovlašćeno službeno lice može da koristi softver za obradu biometrijskih podataka za potrebe identifikacije. Reč je o slučajevima pronalaženja izvršioca krivičnog dela ili pripremnih radnji krivičnog dela koje se gone po službeno dužnosti, kao i pronalaženja nestale žrtve krivičnog dela koje se goni po službenoj dužnosti. Međutim, utvrđivanje identiteta na ovaj način podleže uslovima iz Zakonika o krivičnom postupku, mada nije sasvim jasno koji bi se postupak za primenu posebnih dokaznih radnji primenjivao, s obzirom na to da su za svaku od ovih dokaznih radnji propisani drugačiji uslovi.
Nacrti zakona opisuju dve vrste pristupa, automatizovanu i poluautomatizovanu pretragu biometrijskih podataka, ali je razlika između ove dve vrste obrade, umesto u nacrtima zakona, definisana u radnoj verziji procene uticaja. Automatizovano pretraživanje biometrijskih podataka ograničeno je ili na lokacije ili na lica iz bezbednosnih profila i podrazumeva pretragu koja se vrši u realnom vremenu (uživo). Poluatomatizovana obrada predstavlja retroaktivnu pretragu biometrijskih podataka za potrebe identifikacije, gde se biometrijski podaci iz sistema koriste za pretragu drugih baza MUP-a, ili kada je za već identifikovano lice potrebno utvrditi gde se kretalo ili boravilo.
SHARE Fondacija se dosledno zalagala protiv legalizacije masovnog, neselektivnog biometrijskog nadzora prethodne četiri godine, a naročito tokom konsultativnog procesa pokrenutog nakon povlačenja prvog nacrta zakona o unutrašnjim poslovima. Pred nama je novi nacrt sa identičnim suštinskim problemima. Javna rasprava je otvorena do kraja decembra.
Integralni dokument o stavu SHARE Fondacije možete preuzeti sa ovog linka.
SHARE Fondacija ostaje na poziciji da se apsolutno protivi svakom korišćenju biometrijskog nadzora u javnim prostorima, bez obzira da li je reč o domaćem ili međunarodnom kontekstu.
Prethodni Nacrt povučen je iz procedure u septembru prošle godine, nakon upozorenja domaće zajednice i međunarodnih aktera da bi usvajanje takvog zakona legalizovalo masovni biometrijski nadzor javnih prostora i umanjilo prava i slobode građana.
U međuvremenu, MUP je organizovao niz konsultativnih sastanaka na kojima su učestvovali predstavnici SHARE Fondacije, inicijative #hiljadekamera, kao i druge organizacije civilnog društva i predstavnici stručne i akademske javnosti.
30. septembra 2021. – Inicijalni konsultativni sastanak na kom je MUP ukazao potrebu za konsultacijama usled kritika civilnog društva na Nacrt zakona o unutrašnjim poslovima, naročito u oblasti biometrijskog nadzora na javnim površinama.
29. oktobra 2021. – Sastanak na temu funkcionisanja sistema video nadzora, sa posebnim osvrtom na obradu biometrijskih podataka, u kontekstu Nacrta zakona o unutrašnjim poslovima.
21. decembra 2021. – Sastanak na temu zaštite podataka o ličnosti prilikom upotrebe biometrijskog nadzora, u kontekstu Nacrta zakona o unutrašnjim poslovima.
22. februara 2022. – Sastanak na temu procene uticaja obrade biometrijskih podataka sistemom video nadzora, na prava i slobode građana, u kontekstu Nacrta zakona o unutrašnjim poslovima.
13. maja 2022. – Predstavljanje i diskusija o prvom nacrtu Procene uticaja koju je izradila radna grupa MUP-a.
18. jula 2022. – Sastanak na temu drugih spornih odredbi Nacrta zakona o unutrašnjim poslovima.
30. novembra 2022. – Predstavljanje i diskusija o drugom nacrtu Procene uticaja koju je izradila radna grupa MUP-a.
SHARE Fondacija je ove sastanke iskoristila kako bi predstavnicima MUP-a konstantno ukazivala na domaći i međunarodni pravni okvir koji reguliše ovu oblast i na rizike koje sistem biometrijskog nadzora nosi sa sobom. Naročito smo isticali uslove neophodnosti i proporcionalnosti za korišćenje ovakvog sistema koji nisu ispunjeni.
Posebno je značajno da je u maju 2022. godine MUP ponovo pripremio nacrt Procene uticaja obrade biometrijskih podataka sistemom video nadzora na koju smo podneli komentare. Najnoviji nacrt Procene uticaja MUP nam je dostavio u novembru 2022. Iako je uvažila jedan deo komentara SHARE Fondacije na nacrt iz maja, određena suštinska pitanja nisu adresirana, zbog čega smo Ministarstvuuputili komentareu decembru 2022. Procena uticaja na zaštitu podataka o ličnosti, odobrena od strane Poverenika za informacije od javnog značaja i zaštitu podataka o ličnosti je preduslov za dalje razmatranje ovog pitanja.
SHARE Fondacija će tokom javne rasprave o Nacrtu zakona o unutrašnjim poslovima i drugim nacrtima zakona analizirati tekst i poslati komentare sa ciljem da u što većoj meri utičemo na to da tekst koji bude upućen u skupštinsku proceduru štiti prava građana u skladu sa Ustavom Republike Srbije, međunarodnim standardima ljudskih prava i Evropskom konvencijom o ljudskim pravima i onemogući masovnu biometrijsku obradu podataka o ličnosti sa javnih prostora. Pozivamo predstavnike civilnog sektora, akademske zajednice, stručne javnosti, medijskih i novinarskih udruženja, kao i sve građane da se uključe u proces javne rasprave kako bi front protiv masovnog biometrijskog nadzora naših (u)lica bio što širi i inkluzivniji.
Ministarstvo nauke, tehnološkog razvoja i inovacija objavilo je poziv za komentare i sugestije na Nacrt Etičkih smernica za razvoj, primenu i upotrebu pouzdane i odgovorne veštačke inteligencije. Rok za dostavljanje komentara putem portala eKonsultacije je 12. decembar.
Više o smernicama i procesu konsultacija → ai.gov.rs
SHARE Fondacija je analizirala nivoa bezbednosti 30 sajtova koji pripadaju Gradu Beogradu, odnosno povezanim organima, gradskim službama i javnim preduzećima, kako bi se utvrdio stepen privatnosti kao i mehanizmi koje ovi sajtovi koriste kako bi obezbedili korisničke podatke.
Kompletna analiza i rezultati istraživanja → SHARE Fondacija
Konferencija Emerge 2022 se održava od 16. do 18. decembra u Dorćol Placu (Dobračina 59b, Beograd) i onlajn. Neke od tema o kojima će se diskutovati su AI tehnologija, kreativnost u digitalnom društvu, virtuelna stvarnost, tehno-narativi i posthumanizam.
Nakon što je u drugom krugu Indeksa privatnosti u medijima (MPI) ponovo analizirano stanje u domaćim medijima kako bi se stekla slika o tome koliko domaći mediji cene i brinu o privatnosti svojih korisnica i korisnika, SHARE Fondacija odlučila je da uradi analizu sajtova beogradskih javnih preduzeća i službi. Cilj istraživanja bilo je utvrđivanje nivoa bezbednosti 30 sajtova koji pripadaju Gradu Beogradu, odnosno povezanim organima, gradskim službama i javnim preduzećima kako bi se utvrdio stepen privatnosti kao i mehanizmi koje ovi sajtovi koriste kako bi obezbedili korisničke podatke.
Istraživanje se sastojalo od tri glave celine, prva se odnosila na pregled tehničkih parametara sajtova kao što su da li sajtovi koriste bezbednosni protokol (https), kroz koje zemlje prolaze podaci korisnica i korisnika, gde su sajtovi registrovani kao i kome pripadaju domeni sajtova javnih preduzeća? Tehnički parametri su veoma korisni za određivanje putanje kojom se podaci korisnica i korisnika kreću kada pristupaju internetu i jos specifičnije, sajtovima javnih preduzeća. Skoro desetina analiziranih sajtova ne koristi enkriptovani https protokol, što je manje više standard u 2022. godini, što predstavlja razlog za brigu i sumnjanje u bezbednost tih sajtova. Takođe, iako je više od 70% sajtova hostovano u Srbiji i u skoro trećini slučajeva podaci prolaze samo kroz Srbiju, kod nekoliko sajtova je ustanovljeno da se koriste posrednički servisi kao što je Cloudflare. Ovaj servis ima veliki značaj kada je u pitanju zaštita od DDoS napada, ali je važno ne zaboraviti da je Cloudflare kompanija sa sedištem u SAD, što znači da korisnički podaci prolaze kroz američke servere.
Drugi deo istaživanja bio je najkoncizniji i odnosio se na transparentnost obrade korisničkih podataka kroz dva pitanja – da li sajtovi poseduju politiku privatnosti i/ili politiku kolačića. Važno je napomenuti da se u ovom trenutku nije gledala sadržina samih politika, već samo da li bilo kakvo obaveštenje ili dokument postoji na sajtu. Iako najkraći deo, ovo je možda najvažniji deo celog istraživanja pošto pokazuje koliko su sajtovi ovih preduzeća, pa samim tim i sama preduzeća spremna da obaveštavaju svoje korisnice i korisnike o načinima na koje su njihovi podaci čuvani, skladišteni i prikupljani. Ova kategorija direktno je povezana sa prvom i trećom kategorijom i predstavlja zakonsku i javnu odgovornost koju ova preduzeća i njhovi sajtovi imaju prema svojim korisnicama i korisnicima.
Čak 80% sajtova javnih institucija nema objavljenu politiku privatnosti niti obaveštenje o kolačićima. Obaveštenje odnosno politika kolačića je pronađena na samo sedam sajtova.
Praćenje korisnica i korisnika preko sajtova je poslednja celina koja je analizirana. Ovaj deo istraživanja je specijalno interesantan, upravo jer su na sajtovima nekih preduzeća pronađene intruzivne tehnologije koje omogućavaju akterima trećih strana da prate i prikupljaju podatke koje korisnice i korisnici ostavljaju na sajtovima javnih preduzeća i da ih prosleđuju oglašivačima dalje preko drugih sajtova. Ne postoji ni jedan razlog zašto bi veb stranica gradskog javnog preduzeća koristila ovakve tehnologije, pogotovo ako njihovo korišćenje nije naglašeno na stranici predviđenoj za obaveštenje o kolačićima, odnosno politiku privatnosti. Iako samo šest sajtova poseduje politiku privatnosti na svom sajtu, 12 sajtova na svom sajtu koristi marketinške trekere, dok JKP „Beogradski vodovod i kanalizacija“ koji poseduje politiku privatnosti na svom sajtu koristi i Gugl analitiku ali i invazivnu metodu beleženja unosa što podrazumeva pamćenje bilo kojeg teksta koji korisnici unose dok borave na sajtu. Ova tehnologija smatra se invazivnom jer korisnici često mogu ostavljati i osetljive podatke kao što su adrese, brojevi ličnih dokumenata, brojevi telefona ili brojevi platnih kartica. Korišćenje ovakvih tehnologija se uglavnom ne naglašava u politikama privatnosti niti bilo gde u okviru sajtova.
Analiza beogradskih sajtova predstavlja dobar uvod za dalje istraživanje sajtova javnih preduzeća, kako u Beogradu tako i u drugim gradovima Srbije što bi omogućilo dobar pregled i uvid u bezbednosne strategije javnih preduzeća i službi na internetu.
Korak ka većoj transparentnosti finansiranja izborne kampanje na društvenim mrežama i sve veći budžet štabova kandidata za reklame na Fejsbuku, neki su od primarnih nalaza istraživanja ovogodišnjeg izbornog ciklusa u Srbiji. Mada segment izbora još nije formalno završen, SHARE Fondacija je u četvrtak, 30. juna predstavila rezultate analize aktivnosti kandidatana većim društvenim mrežama i u onlajn medijima.
Kroz analizu je utvrđeno da je stepen polarizacije onlajn prostora u Srbiji veliki, i to je posebno primetno na Tviteru, čiji je uticaj na političke kampanje neminovan, kako u svetu tako i ovde. Uprkos uklanjanju 8,500 SNS botovskih naloga pre nekoliko godina, čini se da organizovanje na ovoj mreži i dalje u velikoj meri najbolje savladava vladajuća stranka i samim tim uspeva da dopre do najšireg kruga korisnica i korisnika, odnosno potencijalnih glasača i kreira svoj narativ.
Mila Bajić, SHARE Fondacija
Tviter: koliko puta su nalozi retvitovani i citirani (quote tweet)
Učesnici na političkoj sceni sve češće koriste raspoložive digitalne platforme i alate za širenje svojih poruka, ali su građani u toj komunikaciji i dalje pretežno pasivni: pristalice političkih opcija umnožavaju zadate poruke, dok protivnici tom umnožavanju doprinose kroz negativne komentare.
Vladajuća stranka i njeni kandidati na različitim nivoima najveći su korisnici plaćenih reklama na platformama koje dozvoljavaju političko oglašavanje i otvaraju podatke o finansiranju takvih oglasa. Ogromna prostranstva vlasničkih platformi na internetu, međutim, i dalje su izvan društvenog dogovora o transparentnosti. Najposećeniji onlajn mediji pokazuju jasne znake svrstavanja, kampanja se prati stihijski, uz primetno odsustvo mehanizama za sprečavanje funkcionerske kampanje.
Jasno je da se politički akteri u zemlji značajno oslanjaju na internet kako bi nametnuli ili kontrolisali društveni diskurs, naročito u periodu izborne kampanje. Nekima je on glavni kanal komunikacije, usled nedostatka pristupa drugim medijima, tradicionalnim ili elektronskim. S druge strane, određeni akteri svoju jaku stranačku infrastrukturu prenose i na internet, te njihova kamanja oslikava disciplinu i posvećenost koja se može videti i u ne-digitalnom svetu.
Andrej Petrovski, SHARE Fondacija
Redovni predsednički i vanredni parlamentarni izbori, zajedno sa izborima za skupštinu Beograda i odbornike u pojedinim opštinama širom Srbije, održani su 3. aprila 2022. Kampanja je trajala oko mesec i po dana i odvijala se u senci različitih, globalnih i lokalnih događaja – od ekoloških protesta i trzavica u opozicionom bloku, do rata u Ukrajini, globalne energetske i krize snabdevanja i međunarodnih pritisaka na Srbiju da se pridruži osudi i sankcionisanju Rusije zbog invazije.
Kada su u pitanju metode istraživanja onlajn kampanja, trenutno postoje ogromna ograničenja usled netransparentnog delovanja velikih tehnoloških kompanija koje sa jedne strane onemogućavaju istraživačicama i istraživačima lak pristup sređenim podacima, ali takođe ne insistiraju na odgovornosti političkih aktera.
Mila Bajić, SHARE Fondacija
SHARE Fondacija od 2016. prati aktivnosti političkih kandidata u različitim izbornim ciklusima u Srbiji, analizira trendove u upotrebi digitalnih platformi i alata za političku komunikaciju, prikuplja podatke o povredama prava i dokumentuje prepreke i potrebe za nesmetano uživanje političkih sloboda u onlajn okruženju.
SHARE Fondacija u četvrtak 30. juna od 10h u Prostoru Miljenko Dereta (Dobračina 55, Beograd) predstavlja rezultate analize predizborne kampanje na mrežama i društvenim medijima. Ukoliko želite da nam se pridružite, molimo vas da potvrdite prisustvo popunjavanjem forme.
Za sve zainteresovane događaj prenosimo uživo na YouTube kanalu SHARE Fondacije.
Na događaju ćemo proći kroz metodologiju istraživanja kako su kandidatkinje, kandidati i koalicije na svim izbornim nivoima vodili svoje kampanje.
Analiza će ponuditi uvide u načine na koje su politički akteri delili svoje poruke na Tviteru i do koliko korisnika su te poruke stigle, kolika sredstva su utrošena na sponzorisane objave na Fejsbuku i kako su potencijalni birači targetirani, kao i na koji način su politički akteri završavali u naslovima u onlajn medijima i kojim tonom je o njima izveštavano u najčitanijim medijima.
Novi Indeks privatnosti u medijima (IPM) ukazao je na značajna poboljšanja lokalnih medija u Srbiji kada je reč o poštovanju privatnosti i zaštiti podataka publike. Napredak je postignut pre svega zahvaljujući promeni u jasnom i poštenom informisanju posetilaca sajtova o obradi njihovih ličnih podataka.
Da li čitaoci znaju šta se na sajtovima medija u Srbiji dešava sa ličnim podacima? Da li mediji prate naše ponašanje na internetu preko kolačića da bi unovčili svaki naš klik, kršeći zakonske i etičke norme za zaštitu privatnosti? Koji mediji nas pošteno informišu o obradi ličnih podataka na sajtu, a koji nas lišavaju svake kontrole?
Odgovore na ova i mnoga druga pitanja pretočili smo u bodove za Indeks privatnosti u medijima – IPM, kako bismo napravili merljivu skalu zaštite prava građana na privatnost i pratili napredak (ili nazadovanje) pojedinih sajtova. Prvo IPM rangiranje predstavljeno je prošlog septembra, a sudeći po novim rezultatima – došlo je do dramatičnog zaokreta. Vođstvo su preuzeli lokalni mediji pre svega zahvaljujući promeni u jasnom i poštenom informisanju posetilaca sajta o obradi njihovih ličnih podataka.
Takođe smo pripremili digitalne pečate kvaliteta za medije koji su se po broju osvojenih poena posebno istakli u određenim segmentima istraživanja, kao što su najbolje ocenjene mobilne aplikacije ili najbezbedniji tehnički parametri sajtova.
Značajnih promena je bilo i na dnu liste: najveći pad zabeležen je u primeni intruzivnih tehničkih alata za praćenje ponašanja korisnika na internetu i preprodaju prikupljenih podataka.
Za prvobitni Indeks odabrano je 50 sajtova informativnih medija u Srbiji, ali je jedan ispao iz trke jer je medij u međuvremenu ugašen. Na IPM portalu mogu se porediti novi rezultati sa rangiranjem iz prošle godine, a tu su i detalji o bodovanju i analize svakog medija, uz metodologiju i preporuke medijima. Istraživačima i stručnoj zajednici dostupni su i sirovi podaci analize.
SHARE Fondacija pruža stručnu podršku medijima koji nastoje da usklade svoje poslovanje sa pravnim i etičkim obavezama prema svojim čitaocima. Građanima i građanskim organizacijama smo na raspolaganju za dodatne informacije o zaštiti privatnosti na internetu – javite nam se na mejl [email protected].