Peste 12 foști angajați ai giganților tech au dezvăluit pentru BBC că platformele prioritizează conținutul nociv pentru a crește timpul petrecut online. Într-o eră a dependenței digitale, cine îi protejează pe utilizatorii vulnerabili din România de „fluxurile problematice” impuse de corporații?
Un raport recent, publicat de jurnaliștii britanici de la BBC pe 16 martie, aruncă o lumină crudă asupra modului în care funcționează, de fapt, marile rețele sociale. Informațiile furnizate de peste o duzină de avertizori de integritate (whistleblowers) confirmă ceea ce experții în psihologie infantilă și siguranță cibernetică bănuiau de mult: pentru Meta (compania-mamă a Facebook și Instagram) și TikTok, retenția utilizatorului scuză mijloacele. Chiar și atunci când mijloacele implică expunerea minorilor la conținut toxic.
Goana după atenție, cu prețul siguranței
Declarațiile foștilor angajați demontează mitul algoritmului „neutru”. Un fost angajat al Meta a explicat cum presiunea de a concura cu ascensiunea fulminantă a rețelei chinezești TikTok i-a determinat pe manageri să ceară explicit permiterea unui conținut mai „problematic” în fluxurile utilizatorilor. Logica de business este cinică, dar eficientă: conținutul care stârnește emoții puternice – furie, șoc sau indignare – generează cel mai mare engagement (implicare și timp pe platformă).
Mai grav este însă modul în care funcționează sistemul de prioritizare a sesizărilor. Un fost angajat TikTok a adus dovezi că echipele de moderare au fost instruite să trateze cu prioritate absolută cazurile în care erau implicați politicieni, lăsând la coada listei raportările privind postările dăunătoare în care apăreau copii. Deși ambele corporații au negat oficial aceste acuzații, tiparul dezvăluirilor indică o problemă sistemică de guvernanță corporativă.
Mecanismul dependenței: ce ne arată datele din spatele ecranului
Pentru a înțelege de ce giganții tech riscă astfel de scandaluri de PR, trebuie să privim arhitectura tehnică și financiară a acestor platforme:
- Economia atenției: Veniturile platformelor depind direct de numărul de reclame afișate. Fiecare secundă în plus petrecută de un adolescent dând scroll se traduce în profit net pentru acționari.
- Optimizarea extremă: Algoritmii de recomandare nu fac diferența între un conținut educativ și unul periculos; ei măsoară doar retenția. Dacă un videoclip care promovează tulburări de alimentație sau comportamente riscante reține atenția unui copil cu două secunde mai mult decât unul neutru, algoritmul îl va amplifica exponențial.
- Moderarea inegală: Din rațiuni financiare și de resurse umane, platformele se bazează masiv pe Inteligența Artificială pentru a filtra conținutul nociv. Rata de eroare rămâne însă uriașă în cazul nuanțelor locale, iar moderatorii umani (deja suprasolicitați) sunt direcționați către „țintele mari”, precum crizele politice, ignorând micro-traumele suferite de utilizatorii de rând.
Generația „scroll”: un semnal de alarmă pentru părinți și educatori
Deși epicentrul acestor dezvăluiri este în Statele Unite și Marea Britanie, unda de șoc lovește direct în ecranele telefoanelor din România și, implicit, din Iași. Un studiu recent la nivel european arată că adolescenții români petrec, în medie, peste 4 ore zilnic pe rețelele sociale, o pondere uriașă din timpul lor de veghe fiind controlată de acești algoritmi.
În lipsa unei discipline clare de educație digitală în programa școlară românească, copiii devin cobai într-un experiment social pe scară largă. În clinicile de psihoterapie din Iași, specialiștii raportează o creștere alarmantă a cazurilor de anxietate, depresie și dismorfie corporală în rândul tinerilor cu vârste cuprinse între 12 și 16 ani, fenomene adesea corelate direct cu modelele comportamentale promovate agresiv pe TikTok și Instagram.
Unde tragem linia și ce urmează?
Reacția la aceste dezvăluiri nu poate rămâne doar la stadiul de indignare. La nivel european, Digital Services Act (DSA) – o legislație proaspătă și ambițioasă – promite să oblige aceste platforme la o transparență mult mai mare a algoritmilor și să impună amenzi uriașe pentru nerespectarea siguranței minorilor. Totuși, implementarea și sancționarea sunt procese lente, care se pot întinde pe ani de zile.
Până când instituțiile vor reuși să pună frână acestor derapaje tehnologice, prima linie de apărare rămâne în familie și în școală. Așteptarea ca platformele să se auto-reglementeze, având în vedere presiunea acționarilor pentru profit, este o naivitate pe care nu ne-o mai putem permite. Controlul parental riguros, limitarea timpului de ecran și discuțiile deschise cu tinerii despre mecanismele de manipulare din spatele „conținutului viral” nu mai sunt doar recomandări, ci instrumente esențiale de supraviețuire în mediul digital de astăzi.
