Kako živimo u savremenom digitalnom vremenu, mnogi od nas previše vremena se oslanjamo na AI, a neke stvari ne bi trebali da delimo. U nastavku teksta Vam donosimo koje su to stvari…
U savremenom digitalnom svijetu ljudi svakodnevno koriste različite alate kako bi olakšali život, a među njima se posebno ističu platforme zasnovane na vještačkoj inteligenciji. ChatGPT je postao nezaobilazan dio rutine mnogih korisnika, bilo da im treba pomoć pri sastavljanju poslovnog mejla, savjet za bračne nesuglasice ili nešto sasvim opušteno poput pretvaranja fotografije psa u ljudski lik.
- Iako ova vrsta pristupačnosti djeluje oslobađajuće, postoji i ona druga strana – ona koja upozorava da se dijeljenjem ličnih informacija sa AI alatima rizikuje gubitak kontrole nad tim podacima. Upravo na to skreće pažnju stručnjakinja Dženifer King sa Univerziteta Stanford, koja tvrdi da onog trenutka kada se nešto unese u chatbot, korisnik praktično prestaje da bude vlasnik sopstvenih informacija. O ovome je u regionu više puta pisao (izvor: N1), navodeći da stručnjaci širom svijeta upozoravaju na sve veće izazove privatnosti.

Uz sve prednosti koje AI donosi, važno je razumjeti šta je sigurno dijeliti, a šta bi svakako trebalo izbjegavati. Najosnovnija preporuka odnosi se na lične identifikacione podatke. To podrazumijeva sve informacije koje direktno otkrivaju identitet: JMBG, brojeve lične karte, pasoša ili vozačke dozvole, datume rođenja, kućne adrese i telefonske brojeve. Iako pojedini sistemi pokušavaju automatski da prikriju osjetljive dijelove, stručnjaci upozoravaju da se nikada ne treba oslanjati isključivo na tehnologiju kada je sigurnost u pitanju.
- OpenAI navodi da njihovi modeli aktivno teže da izbjegnu prikupljanje ličnih podataka, ali to ne znači da ih korisnici smiju olako unositi. Razumno je pretpostaviti da je najbolja zaštita – nikada ne ostaviti trag koji se ne mora ostaviti, bez obzira na to koliko platforma djeluje pouzdano. Upravo takve preporuke sve češće ističu i domaći portali, a jedan od njih je i (izvor: Nova.rs), koji naglašava da korisnik mora biti prvi čuvar sopstvene privatnosti.
Kada je riječ o medicinskim podacima, situacija postaje još složenija. Zdravstveni sistem je zakonski obavezan da čuva povjerljivost medicinske dokumentacije, ali AI platforme se takvim zakonima uglavnom ne podređuju. To znači da slanje kompletnog nalaza, sa svim ličnim detaljima, može predstavljati ozbiljan rizik. Ako korisnik ipak želi neko tumačenje laboratorijskih rezultata, stručnjaci savjetuju da se dokument prethodno uredi tako da na njemu ostanu samo čisti podaci o rezultatima, bez imena, brojeva kartona ili bilo kojih informacija koje bi mogle otkriti identitet.

Isti oprez treba primijeniti i na finansijske podatke. Brojevi bankovnih računa, investicionih fondova ili kartica nikada ne bi trebalo da budu unijeti u razgovor, jer bi u slučaju narušavanja bezbjednosti ti podaci mogli biti zloupotrijebljeni. Osjetljivi finansijski identitet korisnika ne bi smio završavati na mjestu koje nije u potpunosti kontrolisano.
- Ono što mnogi često zaborave jeste da i naizgled banalne informacije mogu dovesti do problema. Lozinke i korisnička imena, kao kapije privatnih digitalnih prostora, nikada ne bi trebalo da se dijele sa chatbotovima. Iako se ponekom korisniku može učiniti praktičnim da AI obavi određeni zadatak umjesto njega, odlaganje ovakvih podataka u ruke mašine predstavlja rizik koji lako prevazilazi benefite. Najsigurnije je koristiti menadžere lozinki, posebno dizajnirane da čuvaju takve informacije, a ne AI alate čija namjena nije skladištenje visoko povjerljivih podataka.
I poslovni sektor snosi svoju dozu rizika kada je riječ o korišćenju vještačke inteligencije. Pisanje mejlova, analiza dokumentacije ili uređivanje sadržaja uz pomoć javno dostupnih AI platformi, može dovesti do nenamjernog dijeljenja povjerljivih informacija o klijentima, projektima ili internim strategijama. Upravo zato mnoge kompanije prelaze na poslovne verzije AI alata ili razvijaju sopstvene sisteme kako bi zaštitile ono što smatraju ključnim. U domaćem kontekstu, o ovim rizicima često je izvještavao (izvor: B92), naglašavajući da firme sve više ulažu u edukaciju zaposlenih o sigurnom korišćenju AI tehnologije.

Uprkos svemu, ljudi i dalje žele da koriste AI jer im olakšava posao, ubrzava procese i pomaže u svakodnevnim dilemama. Zbog toga stručnjaci nude niz preporuka koje mogu povećati nivo privatnosti. Osnovna mjera je dobro osigurati nalog jakom lozinkom i višestepenom autentifikacijom. Pojedini AI alati nude i opciju privremenog ili „anonimnog“ razgovora, gdje se istorija ne čuva. Ovaj način rada, iako ne garantuje apsolutnu sigurnost, svakako pruža dodatni sloj zaštite korisniku koji želi smanjiti digitalni otisak. Takvi režimi postaju sve popularniji jer se korisnici osjećaju slobodnije kada znaju da njihov razgovor neće trajati duže od trenutka kada ga zatvore.
- Stručnjaci poput Džejsona Klintona iz kompanije Anthropic savjetuju i redovno brisanje razgovora. Iako se podaci ne uklanjaju trenutnim brisanjem, već obično u roku od mjesec dana, to je i dalje jedan od efikasnih koraka u smanjenju rizika. Ono što se posebno naglašava jeste da korisnici treba da razmišljaju kao da su svaka informacija i svaka poruka potencijalno dostupni drugim stranama, te da je najpametnije postupati uz izuzetnu dozu opreza.
U konačnici, cijela ova priča o sigurnosti podataka u digitalnom dobu pokazuje da tehnologija može biti izvanredno korisna, ali zahtijeva odgovorno korišćenje. Korisnici su ti koji određuju granicu između praktičnosti i rizika, a razumno postupanje može značajno smanjiti mogućnost zloupotrebe. Vještačka inteligencija postaje sve moćnija, ali paralelno s tim rastu i izazovi. Zato je potrebno stalno podsjećanje da privatnost nije nešto što se smije olako prepustiti algoritmima, već vrijednost koju treba stalno čuvati i svjesno štititi. Dok AI napreduje i postaje sve sofisticiraniji, ostaje na čovjeku da zadrži kontrolu nad onim što je najosjetljivije – svojom digitalnom sjenom i podacima koji mogu definisati život više nego što većina misli.
















