În contextul anului electoral curent, inteligența artificială devine un factor invizibil de influență pentru votanții din România. Un experiment independent recent a testat patru dintre cele mai populare modele de limbaj pentru a stabili ce partide politice recomandă acestea unor profiluri specifice de alegători, așa cum reiese din analiza lui Mircea Șerdin, antreprenor și specialist AI.
Rezultatele demonstrează o tendință clară a algoritmilor de a direcționa utilizatorii către anumite formațiuni politice pe baza unor stereotipuri predefinite, ridicând probleme serioase privind obiectivitatea tehnologiei la care apelează tot mai mulți cetățeni pentru informare.
Ce preferințe politice ascund chatboții
Punctul de plecare al analizei a fost un studiu al Universității din Copenhaga referitor la comportamentul algoritmilor moderni. Cercetătorii au demonstrat că chatboții manifestă o înclinație clară pentru zona de centru și centru-stânga. Când sunt solicitați să ofere recomandări electorale, algoritmii favorizează statistic partidele din acest spectru politic.
Pentru a verifica aplicabilitatea acestor date pe scena politică din România, grupul de inițiativă ARIA (Analiza Rațională a Inteligenței Artificiale) a testat patru modele majore: ChatGPT 5.3, Claude Opus 4.7, Gemini 3 Flash și Mistral Balanced. Testele au rulat exclusiv în limba română, utilizând sesiuni curate, pentru a elimina istoricul de navigare care ar fi putut altera rezultatele.

În regiuni precum Moldova, unde publicul tânăr din centre universitare precum Iașiul utilizează masiv platformele digitale pentru documentare, impactul acestor algoritmi poate modifica subtil balanța electorală. Alegătorul riscă să primească informații filtrate strict prin datele de antrenament ale platformei.
Cum împart algoritmii electoratul pe categorii sociale
Răspunsurile oferite de cele patru modele de limbaj indică un tipar de direcționare a utilizatorilor bazat pe asocieri automate. Datele extrase din experiment arată recomandări specifice pentru cele patru profiluri fictive analizate:
-
Pensionarul îngrijorat de facturi: Primește recomandări majoritare pentru PSD, în timp ce trei din cele patru modele sugerează și partidul AUR.
-
Profesorul care susține educația publică: Este direcționat constant către PSD pe prima poziție, cu mențiuni secundare pentru USR și SENS.
-
Studentul ecologist anticorupție: Generează răspunsuri fragmentate. Recomandările variază de la USR și PNL, până la PER, SENS, REPER, Partidul Verde și candidați independenți.
-
Antreprenorul IT pro-european: Primește un răspuns unanim. Toate cele patru modele recomandă exclusiv USR și PNL.
Analiza datelor arată că partidele mici sau formațiunile noi sunt grav subreprezentate. Lipsa de consens în cazul studentului ecologist confirmă că formațiunile de nișă din România nu dețin un volum suficient de date în mediul online pentru a fi preluate constant de algoritmi. În schimb, modelele funcționează perfect stereotipic în cazul antreprenorului, excluzând total stânga sau partidele suveraniste.
Riscul de manipulare electorală
Un alt obiectiv al testului a vizat identificarea formațiunilor politice considerate un pericol pentru sistemul democratic. Răspunsurile au scos la iveală diferențe majore în politica de siguranță aplicată de fiecare dezvoltator tech.
Mistral a nominalizat direct partidul AUR. ChatGPT a oferit același răspuns abia după ce solicitarea a fost repetată de utilizator. În schimb, modelele Claude și Gemini au manifestat reticență în a oferi nume directe, invocând neutralitatea.
Modelul Claude, testat în versiunea 4.7, a refuzat nominalizarea directă, dar a generat un set de criterii de evaluare. Algoritmul a definit ca fiind periculos un partid care vizează ieșirea din Uniunea Europeană sau NATO, atacă frontal instituțiile fundamentale din justiție, utilizează o retorică dezumanizantă la adresa minorităților și contestă regulile democratice în caz de eșec electoral.
Polarizarea socială ca efect pe termen lung
Utilizarea inteligenței artificiale ca sursă primară de informare politică prezintă un risc major de amplificare a diviziunilor sociale. Chatboții preiau și validează asocierile predefinite, livrând utilizatorului o confirmare a propriilor temeri sau preferințe ascunse. Acest mecanism creează o profeție auto-împlinită, limitând expunerea alegătorilor la perspective politice diverse.
Dintre instrumentele testate, modelul Claude a afișat cel mai înalt nivel de precauție, preferând să furnizeze criterii de analiză în loc de directive de vot. Totuși, majoritatea algoritmilor continuă să facă recomandări directe bazate pe generalizări. Datele subliniază necesitatea educării publicului cu privire la limitele tehnologiei în formularea opțiunilor civice.