Utilizarea pe scara larga a inteligentei artificiale generative a devenit o realitate in vietile a milioane de oameni, iar ChatGPT este unul dintre cele mai cunoscute instrumente din aceasta categorie. Potrivit unei analize publicate de Forbes la inceputul lunii aprilie 2025, peste 100 de milioane de utilizatori interactioneaza zilnic cu acest tip de tehnologie, adresand mai mult de un miliard de intrebari.
Insa, pe masura ce AI-ul devine tot mai prezent in activitatea profesionala si personala, expertii in securitate cibernetica avertizeaza asupra riscurilor privind confidentialitatea datelor. ChatGPT si alte chatboti similari opereaza in cloud, iar datele introduse de utilizatori pot fi revizuite de oameni sau folosite pentru a antrena viitoare versiuni ale modelelor.
In lipsa unor garantii clare privind pastrarea confidentialitatii, este important ca utilizatorii sa fie constienti ca orice informatie introdusa intr-un astfel de sistem trebuie tratata ca fiind publica.
Cereri ilegale sau neetice
Primul si cel mai clar tip de continut care nu trebuie introdus intr-un chatbot AI il reprezinta solicitarile legate de activitati ilegale, daunatoare sau neetice. Platformele mari de AI, precum ChatGPT, sunt echipate cu filtre automate care blocheaza, in mod activ, astfel de cereri. Cu toate acestea, simplul fapt de a incerca sa obtii informatii despre cum sa comiti o infractiune – cum ar fi frauda, atacuri informatice, manipulare psihologica sau falsificare – poate avea consecinte.
Furnizorii de tehnologie AI isi rezerva dreptul de a suspenda conturile utilizatorilor care incalca politicile de utilizare, iar in unele cazuri pot exista notificari catre autoritati, mai ales atunci cand se suspecteaza intentii reale de incalcare a legii.
Este important de mentionat ca legislatia privind utilizarea AI variaza de la o tara la alta. In China, de exemplu, este ilegal sa folosesti un AI pentru a submina autoritatea statului sau stabilitatea sociala. In Uniunea Europeana, actul legislativ privind inteligenta artificiala prevede ca materialele AI, cum ar fi imaginile sau videoclipurile „deepfake”, trebuie etichetate clar ca fiind generate artificial. In Marea Britanie, Legea privind siguranta online (Online Safety Act) incrimineaza distribuirea imaginilor explicite generate de AI fara consimtamant.
Date de autentificare si parole
Un alt tip de informatie care nu ar trebui niciodata introdus intr-un chatbot este cel legat de conturile personale: nume de utilizator, parole, coduri de autentificare sau orice alta informatie care poate da acces la servicii online. Pe masura ce AI-ul devine mai sofisticat si mai integrat in aplicatii si platforme digitale, tentatia de a-l folosi pentru gestionarea conturilor creste.
Cu toate acestea, este important sa retinem ca datele introduse intr-un chatbot public sunt trimise catre servere externe si, in multe cazuri, pot fi stocate temporar sau analizate. Au existat cazuri in care datele sensibile ale unui utilizator au aparut din greseala in raspunsurile oferite altor utilizatori, ceea ce evidentiaza riscul de expunere accidentala.
Pana cand nu exista garantii criptografice stricte si mecanisme clare de control al accesului, este recomandat ca niciun chatbot AI sa nu primeasca informatii de autentificare, indiferent cat de util sau personalizat pare.
Informatii financiare
Din aceleasi motive, este nerecomandat sa introduci informatii financiare sensibile intr-un sistem AI generativ. Acestea includ numere de conturi bancare, date despre carduri de credit, coduri de securitate sau detalii despre tranzactii.
Spre deosebire de aplicatiile bancare sau sistemele de plati online care sunt construite pe arhitecturi de securitate riguroase (inclusiv criptare, autentificare multipla si protocoale de stergere automata a datelor), chatbot-urile AI nu sunt create pentru a gestiona astfel de informatii in siguranta.
Odata introdusa, o astfel de informatie poate ramane stocata intr-un jurnal de conversatie si, teoretic, ar putea fi accesata de persoane autorizate din partea dezvoltatorului platformei – sau, in cazul unor brese de securitate, chiar de terti. Acest lucru creste riscul de frauda, furt de identitate sau atacuri de tip phishing.
Informatii confidentiale de natura profesionala
O alta categorie de informatii care trebuie protejata in interactiunea cu un AI este cea care intra sub incidenta confidentialitatii profesionale. De exemplu, documente interne ale unei companii, date despre clienti, planuri strategice, procese juridice sau date tehnice ale unor produse pot fi considerate secrete comerciale.
Angajatii au adesea obligatii contractuale sau legale de a proteja astfel de date. Introducerea lor intr-un chatbot AI poate constitui o incalcare grava a acestor obligatii, mai ales daca datele ajung sa fie stocate sau folosite in mod neintentionat de platforma.
Un caz notabil este cel al unor angajati Samsung care, in 2023, au introdus in ChatGPT fragmente de cod sursa confidential pentru a obtine ajutor in dezvoltare. Aceasta actiune a dus la declansarea unei anchete interne si la revizuirea politicilor privind utilizarea AI in cadrul companiei.
Este esential ca firmele sa isi instruiasca angajatii in privinta utilizarii responsabile a inteligentei artificiale si sa stabileasca politici clare de securitate a datelor.
Informatii medicale personale
Intr-un context in care AI-ul poate parea un partener util pentru a obtine raspunsuri rapide legate de sanatate, multi utilizatori sunt tentati sa introduca simptome sau detalii medicale in conversatii. Totusi, este important de stiut ca aceste date, odata introduse, nu beneficiaza de protectia oferita de sistemele medicale specializate.
Chatboturile publice nu au nici statutul legal de furnizori de servicii medicale, nici infrastructura necesara pentru a asigura confidentialitatea datelor sensibile. In cazul in care aceste date sunt retinute sau procesate pentru „imbunatatirea serviciului”, riscurile legate de confidentialitate sunt semnificative.
Pentru pacienti sau pentru entitatile din domeniul sanatatii care opereaza sub incidenta reglementarilor stricte (precum GDPR sau HIPAA in SUA), introducerea datelor medicale intr-un AI public poate duce la amenzi substantiale si pierderi de reputatie.
In era digitala, utilizarea responsabila a inteligentei artificiale nu tine doar de tehnologie, ci si de educatia utilizatorilor. A trata fiecare conversatie cu un chatbot ca fiind potential publica este o masura minima de siguranta. Pe masura ce aceste instrumente vor deveni tot mai integrate in fluxurile zilnice de lucru si in viata personala, capacitatea fiecaruia de a intelege ce informatii pot fi partajate si ce trebuie protejat va face diferenta intre un instrument util si un risc major de securitate.
