Svaštara

Stručnjaci upozoravaju: O ovih sedam stvari nikad ne razgovarajte s ChatGPT-om

U eri u kojoj su AI alati postali dio svakodnevice, stručnjaci upozoravaju da neoprezno dijeljenje ličnih i povjerljivih podataka s chatbotovima može predstavljati ozbiljan bezbjednosni rizik. Evo koje informacije nikada ne biste trebali unositi u razgovor s ChatGPT-om i sličnim modelima.

Lični podaci

Nikada ne biste trebali dijeliti svoje lične podatke poput imena, prezimena, adrese, JMBG-a, broja lične karte ili pasoša s AI chatbotovima. To uključuje i fotografije tih dokumenata. Ako koristite chatbot za izradu biografije (CV-a), bolje je tražiti od njega samo obrazac koji ćete sami popuniti, nego unositi svoje lične podatke u model.

Informacije o ličnim finansijama

Kao što se savjetuje oprez pri dijeljenju finansijskih podataka poput broja kreditnih kartica, broja računa ili lozinki za internet bankarstvo, isto pravilo važi i za AI modele. Umjesto dijeljenja stvarnih podataka, bolje je koristiti izmišljene primjere ako tražite savjete o kreditima ili poreskim uštedama.

Lozinke i šifre

Otkrivanje lozinki za pristup vašim korisničkim ili poslovnim nalozima izuzetno je neoprezno. Kao što ne biste povjerili svoje ključeve nepoznatoj osobi, nemojte ni AI modelima dijeliti lozinke i korisnička imena.

Privatne informacije

AI model nije mjesto za dijeljenje osjetljivih ili povjerljivih informacija. Lične stvari poput problema, glasina ili detalja o zdravlju i porodici ne bi trebale biti predmet razgovora s AI modelima. Ne tretirajte ga kao ispovjednika ili prijatelja kojem možete otkriti sve tajne.

Povjerljive informacije o firmama ili poslodavcu

Iako se može činiti praktičnim koristiti ChatGPT za izradu ugovora ili poslovnih dokumenata, to nije bez rizika. Isto važi i za dijeljenje povjerljivih informacija, poput podataka o patentima, prototipovima, poslovnim planovima ili finansijama. To je jedan od razloga zašto mnoge firme blokiraju pristup AI modelima na službenim računarima.

Eksplicitan sadržaj

Čak i ako postavite šalu poput „kako se trajno riješiti nekoga“, to vam može donijeti probleme. Ne samo da AI modeli poput ChatGPT-a neće odgovoriti na takva pitanja, već mogu automatski označiti sumnjive upite. Zato je bolje suzdržati se od takvih pitanja, bez obzira na ton u kojem ih postavljate, prenosi Večernji.hr,pišu Nezavisne

Medicinske informacije

Mnogi korisnici danas zamjenjuju Google s ChatGPT-om, tretirajući ga gotovo kao ličnog ljekara. Iako nije problem tražiti pojašnjenje za neki medicinski pojam, važno je izbjegavati dijeljenje ličnih podataka u svojim upitima. Bolje je postaviti opšte pitanje, poput: „Preporuči mi vježbe za muškarca u tridesetim godinama koji ima problema s išijasom.“

Ako niste sigurni trebate li podijeliti neku informaciju, zapitajte se: „Da li bih volio da neko objavi moj upit na internetu?“ Ako je odgovor „ne“, bolje je da se suzdržite od postavljanja tog pitanja AI modelu.


Facebook komentari

Izneseni komentari su privatna mišljenja autora i ne odražavaju stavove redakcije portala Haber.ba. Molimo autore komentara da se suzdrže od vrijeđanja, psovanja i vulgarnog izražavanja. Portal Haber.ba zadržava pravo da obriše komentar bez prethodne najave i objašnjenja - Više o Uslovima korištenja...
Na vrh