Republica Moldova a devenit, în ultimele săptămâni dinaintea alegerilor, un adevărat câmp de luptă informațional. Un raport publicat de Expert Forum (EFOR) dezvăluie dimensiunea alarmantă a fenomenului: 3.392 de videoclipuri analizate, 36.338 de comentarii examinate și 100 de conturi false identificate ca parte a unor operațiuni de comportament inautentic coordonat (CIB).
Departe de a fi doar „ferme de troli” clasice, rețelele descoperite combină inteligența artificială, tactici psihologice rafinate și infrastructuri de amplificare algoritmică pentru a manipula discursul public. Totul cu un singur scop: să influențeze percepția alegătorilor indeciși exact în momentul cel mai vulnerabil – cu mai puțin de o lună înainte de vot.
Cifrele manipulării: un volum uriaș de conținut artificial
EFOR a monitorizat 469 de hashtag-uri, dintre care 87 cu conținut politic explicit. Rezultatele sunt clare:
3.392 de videoclipuri analizate într-o fereastră de 30 de zile, dintre care 529 direct implicate în campanii de amplificare coordonată.
36.338 de comentarii examinate; 10.196 erau duplicate – mesaje copy-paste sau spam cu emoji.
Cele mai frecvente: combinații de emoji (peste 800 de repetări fiecare) și sloganuri politice precum „jos PAS” (213 repetări).
100 de conturi inautentice cartografiate ca noduri centrale ale rețelelor de manipulare.
De la „mătușa cu flori” la „AI Lover Woman”
Raportul descrie două tehnici-cheie care exploatează biasuri psihologice:
Tactica „mătușa cu flori” – conturi cu poze aparent banale (flori, animale, portrete vagi), care creează impresia unor persoane obișnuite. Mesajele lor, în realitate exclusiv propagandă, devin mai credibile prin familiaritatea vizuală.
„Lover Woman” varianta AI – conturi cu fotografii de tinere atrăgătoare, generate sau reciclate, folosite pentru a spori impactul mesajelor anti-UE sau pro-ruse. Raportul arată că un mesaj politic e mai ușor acceptat de la o „frumoasă moldoveancă” decât de la un profil anonim.
În spatele avatarurilor se ascunde însă o industrie de generare automată: poze sintetice, biografii fabricate, conținut creat de modele lingvistice avansate.
Narativele dominante: frică, resentiment și anti-Sandu
Analiza a 400 de videoclipuri transcrise arată trei axe principale:
Atacuri la persoană – demonizarea președintei Maia Sandu, etichetată ca „vândută Occidentului”.
Tensiuni etnice și regionale – amplificarea conflictului cu Găgăuzia și specularea condamnării Evgheniei Guțul.
Amenințări externe – mesaje alarmiste despre NATO, UE și presupuse planuri occidentale de a forța Moldova într-un conflict cu Rusia.
Distribuția acestor narațiuni creează o atmosferă de panică și resentiment, menită să erodeze încrederea în guvernare și să mobilizeze electoratul indecis împotriva PAS.
Infrastructura invizibilă: diviziunea muncii digitale
EFOR a identificat o diviziune a rolurilor în rețelele de conturi false:
„Postaci” care produc exclusiv propagandă.
Comentatori care inundă videoclipurile cu mesaje duplicate.
Conturi de amplificare care dau follow, like și share în masă pentru a forța viralizarea.
Astfel se creează iluzia unui val organic de indignare și sprijin, în realitate regizat de algoritmi și rețele opace.
Comparația cu România: „Metoda Georgescu” reîncălzită peste Prut
Ceea ce vedem azi în Moldova seamănă izbitor cu scenariile documentate în România. În vara lui 2025, un alt raport EFOR descria cum „Schema Călin Georgescu” a fost folosită pentru a propulsa artificial candidatul de extremă dreapta prin rețele TikTok.
Mai recent, la Chișinău, aceeași metodă a fost aplicată pentru Vasile Costiuc, liderul partidului „Democrația Acasă” și aliat al lui George Simion. În doar o săptămână, hashtag-ul #vasilecostiuc a explodat cu un salt de 300% al vizibilității, grație unei rețele de 17 conturi principale și aproape 1.000 de conturi-soldat.
Raportul actual confirmă că fenomenul nu e izolat, ci parte a unei noi industrii de publicitate politică mascată, cu potențial de a distorsiona percepția publică la scară largă.
Riscuri pentru securitatea națională
Transparența online nu mai e o problemă tehnică, ci una de securitate. „Boții” generați de AI nu doar că inundă spațiul public cu dezinformare, dar reușesc să o facă mimând perfect comportamentul uman.
Alegătorii indeciși („late deciding voters”) sunt cei mai vulnerabili: în ultimele zile de campanie, expunerea la astfel de conținut poate schimba decisiv opțiunea de vot.
Lipsa de intervenție din partea platformelor, care invocă libertatea de exprimare, lasă loc pentru rețele invizibile de influență.
Moldova, aflată la intersecția presiunilor geopolitice ruse și europene, riscă să devină „cobaiul” unui nou tip de război hibrid.
Concluzii: o democrație sub asediu algoritmic
Raportul EFOR avertizează că „paradoxul democrației digitale” este deja vizibil: conturi cu câteva sute de urmăritori pot crea senzația unei mase critice prin amplificare algoritmică.
Comparând cu România – unde „metoda Georgescu” a arătat cât de ușor poate fi ridicat un candidat obscur – Moldova riscă să experimenteze o versiune și mai sofisticată, alimentată de AI.
Soluțiile propuse: reglementări mai stricte, monitorizare independentă și transparență reală din partea platformelor. Altfel, alegerile ar putea deveni nu expresia voinței populare, ci rezultatul unei competiții între rețele invizibile de conturi false și algoritmi opaci.


































Comentează