Acest material valorifică și adaptează concepte și scenarii dezvoltate în cadrul programului educațional „Analizează – Decide – Acționează”, inițiat de Directoratul Național de Securitate Cibernetică, cu scopul consolidării rezilienței digitale la nivel individual și organizațional. Demersul urmărește clarificarea mecanismelor prin care inteligența artificială poate influența percepția umană și evidențierea unor măsuri concrete de prevenție, detecție și reacție, esențiale pentru protecția utilizatorilor în fața noilor forme de manipulare algoritmică.
În ultimul deceniu, inteligența artificială a devenit infrastructura invizibilă a spațiului digital. Nu o vedem, dar o resimțim în fiecare notificare, în fiecare recomandare, în fiecare conversație automatizată. Ea organizează fluxuri informaționale, personalizează reclame, optimizează căutări și generează conținut. În sine, este o realizare tehnologică remarcabilă. Însă, în mâinile greșite, devine un instrument de influență cu o precizie și o scalabilitate fără precedent.
Programul „Analizează – Decide – Acționează”, dezvoltat de Directoratul Național de Securitate Cibernetică, pleacă de la o realitate esențială: în era AI, securitatea nu mai este doar o problemă tehnică. Este o problemă cognitivă, emoțională și socială, iar manipularea modernă nu mai este vizibilă, ci personalizată, adaptivă și scalabilă.
Inteligența artificială: putere tehnologică și vulnerabilitate cognitivă
Inteligența artificială (IA) înseamnă sisteme capabile să simuleze procese umane precum învățarea, analiza, identificarea de tipare, anticiparea și generarea de conținut. Modelele generative pot crea texte, imagini, voci și videoclipuri aproape imposibil de distins de realitate. Spre deosebire de algoritmii clasici, ea nu execută doar reguli fixe, ci își ajustează comportamentul în funcție de interacțiuni.
Această capacitate de adaptare produce beneficii extraordinare — automatizare, eficiență, sprijin educațional, optimizare economică. Dar aceeași adaptabilitate permite și personalizarea manipulării.
Diferența fundamentală față de propaganda clasică este precizia. Dacă în trecut mesajele erau generale, astăzi ele sunt calibrate individual, în funcție de: istoricul său digital, preferințele ideologice, vulnerabilitățile emoționale, obiceiurile de consum informațional, rețeaua de relații.
Când realitatea este filtrată
Una dintre cele mai periculoase forme de influență este izolarea utilizatorului într-o bulă informațională. Algoritmii prioritizează conținutul care confirmă opiniile deja existente și reduc expunerea la perspective alternative. Utilizatorul nu este forțat să creadă ceva anume. Pur și simplu i se oferă constant aceeași direcție narativă.
Astfel, manipularea modernă nu presupune neapărat minciună directă. De multe ori, ea constă în: controlul contextului, ordonarea strategică a informațiilor, repetarea selectivă a unor idei, suprimarea alternativelor.
Algoritmii decid ce vedem, în ce ordine și cu ce intensitate. Această selecție continuă modelează realitatea percepută. Dacă o anumită perspectivă este afișată constant, iar alte perspective sunt absente, utilizatorul nu simte că este manipulat — ci doar că este informat.
Impactul este profund: radicalizare progresivă; scăderea toleranței față de opinii diferite; acceptarea mai ușoară a informațiilor false care confirmă convingerile personale; fragmentarea societății în realități paralele.
Măsuri de prevenție:
– diversificarea deliberată a surselor de informare;
– accesarea periodică a conținutului din afara zonei de confort ideologic;
– utilizarea navigării incognito sau fără personalizare;
– ajustarea manuală a preferințelor de afișare pe platforme.
Algoritmii nu optimizează pentru adevăr. Optimizează pentru atenție și reacție.
Emoția ca instrument de control
Inteligența artificială afectivă (Emotion AI) poate analiza indicii subtile: timpul petrecut pe conținut negativ, tiparele de reacție, tonul vocii, ritmul tastării. Pe baza acestora, sistemele pot ajusta conținutul pentru a amplifica o stare emoțională. Furia, frica și anxietatea cresc implicarea. Implicarea generează date. Datele alimentează sistemul. Se creează un cerc în care emoția devine combustibil pentru optimizare algoritmică.
Cum ne protejăm în fața manipulării emoționale?
– Întârziem reacția. Orice conținut care provoacă un impuls puternic trebuie lăsat să „respire” câteva ore. Manipularea mizează pe reacție imediată.
– Separăm emoția de fapt. Ce informație verificabilă există dincolo de titlu?
– Limităm consumul în perioade vulnerabile. Oboseala, stresul sau anxietatea reduc capacitatea critică.
– Diversificăm sursele. O emoție alimentată din mai multe surse diferite este mai probabil autentică decât una repetată identic într-un singur ecosistem.
– Conștientizăm care sunt „declanșatorii” emoționali.
Empatia simulată și conversațiile care manipulează
Un alt front sensibil este cel al interacțiunilor conversaționale. Chatbot-uri aparent legitime pot iniția dialoguri sub pretexte credibile: oferte de angajare, consiliere financiară, mentorat profesional. Limbajul este fluent, empatic, convingător. În realitate, interacțiunea poate fi complet automatizată.
Sistemele bazate pe modele lingvistice avansate pot:
– adapta tonul și vocabularul în funcție de emoția utilizatorului;
– construi relații de încredere simulate;
– solicita documente, date personale sau acțiuni riscante într-un mod gradual.
Prevenție:
– verificarea identității prin canale multiple;
– refuzul transmiterii documentelor fără validare oficială;
– atenție la presiunea subtilă sau la promisiuni prea rapide;
– evitarea divulgării detaliilor personale în conversații neconfirmate.
Empatia afișată de un AI este o simulare. Conexiunea pare reală, dar este programată.
Deepfake și iluzia vizuală
Inteligența artificială poate genera videoclipuri și înregistrări audio în care persoane reale par să spună sau să facă lucruri pe care nu le-au făcut niciodată. Momentul publicării este adesea strategic: înaintea unor alegeri, în timpul unei crize sau pentru a destabiliza reputații.
Realismul nu mai este o garanție a autenticității.
Prevenție:
– evitarea distribuirii conținutului senzațional fără verificare;
– utilizarea unor instrumente specializate de detectare deepfake;
– compararea informației cu declarații și surse oficiale;
– analizarea contextului și a momentului apariției materialului.
În era IA, scepticismul informat devine competență esențială.
Spear phishing și personalizarea înșelăciunii
Atacurile moderne nu mai sunt generice. Inteligența artificială permite crearea de mesaje personalizate, bazate pe informațiile publice ale țintei. Mesajele sunt coerente, bine redactate și contextualizate.
Semnalul de alarmă nu mai este greșeala gramaticală. Dimpotrivă, un mesaj impecabil poate indica un atac sofisticat.
Prevenție tehnică și comportamentală:
– activarea autentificării multifactor pentru toate conturile;
– confirmarea solicitărilor printr-un canal alternativ;
– atenție la presiunea subtilă sau la urgențe artificiale;
– utilizarea soluțiilor anti-phishing;
– limitarea expunerii informațiilor personale online.:
– actualizarea constantă a sistemelor.
Iluzia consensului social
Rețele de conturi automatizate pot crea impresia că o opinie este majoritară. Profiluri generate artificial, cu imagini credibile și activitate aparent reală, amplifică o idee până când aceasta pare dominantă.
Presiunea socială este una dintre cele mai puternice forțe psihologice. Dacă „toți” par să creadă ceva, tendința este să ne aliniem.
Cum ne protejăm:
– verificăm autenticitatea profilurilor;
– analizăm istoricul și diversitatea postărilor.;
– refuzăm de a ne schimba o convingerea doar din presiunea aparentă a majorității;
– căutăm argumente, nu reacții.
Majoritatea digitală poate fi artificială.
Educația – linia reală de apărare
Prevenția în era IA nu înseamnă doar instalarea unui antivirus. Înseamnă alfabetizare tehnologică, gândire critică și disciplină informațională.
Întrebările esențiale devin reflexe:
Cine are de câștigat?
De ce văd această informație acum?
Ce emoție încearcă să-mi declanșeze?
Ce alte perspective există?
Autonomia cognitivă devine o competență strategică.
Pentru utilizatori individuali, aceasta înseamnă disciplină informațională.
Pentru educatori, înseamnă introducerea alfabetizării AI în curricula școlară.
Pentru instituții, înseamnă politici clare de raportare și instruire periodică.
Pentru lideri, înseamnă responsabilitate în comunicare și transparență.
Programul „Analizează – Decide – Acționează” propune exact această transformare: utilizatorul informat nu este o țintă ușoară. Într-o lume în care algoritmii pot anticipa și influența comportamente, protecția reală începe cu luciditatea.
Inteligența artificială poate personaliza, amplifica și automatiza influența. Poate modela conținutul, contextul și emoția.
Dar nu poate înlocui discernământul.
Într-o lume în care realitatea poate fi sintetizată, iar consensul poate fi simulat, cea mai puternică formă de securitate rămâne gândirea critică susținută de educație și practică constantă.
Ideile dezvoltate au la bază conceptele și direcțiile strategice promovate în cadrul programului educațional „Analizează – Decide – Acționează”, implementat de Directoratul Național de Securitate Cibernetică, inițiativă dedicată creșterii nivelului de alfabetizare cibernetică și consolidării rezilienței digitale la nivel societal. Într-un ecosistem informațional modelat de algoritmi și tehnologii predictive, protecția eficientă nu mai poate fi exclusiv tehnică; ea presupune educație continuă, vigilență operațională și exercițiul constant al gândirii critice.
Accesează și:
– Programul educațional „Analizează – Decide – Acționează”, inițiat de Directoratul Național de Securitate Cibernetică – ”dnsc.ro”
– 05.12.2025: Western Intelligence and Cybersecurity Agencies issue AI guidance for Operational Technology (en/ro) – ”stiridigitale.ro”
– 12.11.2025: Efectul Dunning-Kruger, analfabetismul funcțional și manipularea colectivă în societatea românească – ”stiridigitale.ro”
– 24.04.2025: Mr. Narcis Răducu: ”Fake-News și Manipulare” – ”stiridigitale.ro”
– 07.09.2024: Manipularea Psihologică a Populației – analiză – ”stiridigitale.ro”
– 01.04.2024: DNSC a lansat un ghid pentru identificarea materialelor de tip Deepfake – ”stiridigitale.ro”
– 11.01.2024: Ce este tehnologia deep fake și cum ne putem proteja de capcanele din online care se folosesc de aceasta – ”stiridigitale.ro”
Foto: ”freepik.com”














