
Munca ascunsă din spatele inteligenței artificiale
În spatele promisiunilor despre viitorul spectaculos al inteligenței artificiale se conturează o realitate mult mai dură: mii de colaboratori plătiți la proiect, recrutați pentru a „antrena” algoritmi, spun că au fost puși să folosească profiluri personale, lucrări protejate de drepturi de autor și materiale tulburătoare, într-un sistem pe care mulți îl descriu drept precar, opac și moral apăsător.
O platformă de muncă flexibilă, prezentată drept o oportunitate pentru specialiști din domenii precum medicina, fizica sau economia de a contribui la dezvoltarea celor mai avansate sisteme de inteligență artificială, este descrisă de unii dintre cei care au lucrat acolo într-un mod cu totul diferit. În locul unei activități strict academice sau tehnice, aceștia afirmă că au ajuns să sorteze, eticheteze și extragă informații din conturi de Facebook și Instagram, să caute imagini realizate de artiști umani pentru a alimenta baze de date vizuale și să transcrie conținut explicit ori extrem de deranjant.
Mărturiile lor deschid o fereastră către o lume aproape invizibilă publicului larg: aceea a muncitorilor din umbră care fac posibilă evoluția accelerată a inteligenței artificiale. Mulți dintre acești colaboratori sunt profesori, doctoranzi, jurnaliști sau bibliotecari care, confruntați cu insecuritate economică și cu presiunea unei piețe a muncii tot mai amenințate de automatizare, au acceptat astfel de proiecte ca sursă suplimentară de venit. Pentru unii, însă, experiența a fost însoțită de un profund disconfort moral.
Cei care au lucrat pe această platformă susțin că sarcinile primite au depășit cu mult ideea de „rafinare” a unor modele performante. Unii povestesc că au fost trimiși să examineze profiluri publice de social media, să identifice persoane după nume, relații și locații, uneori inclusiv în cazul unor minori. Alții spun că au fost obligați să găsească imagini noi, diferite de cele deja încărcate de alți colaboratori, ceea ce i-a împins să caute tot mai adânc în conturile altor oameni sau în paginile unor artiști și creatori. În acest proces, spun ei, granița dintre „date publice” și intimitatea vieții personale a devenit extrem de fragilă.
Unul dintre cele mai sensibile puncte ale acestor mărturii privește tocmai surpriza pe care ar avea-o utilizatorii rețelelor sociale dacă ar ști cât de concret sunt analizate imaginile și postările lor. Pentru cei implicați, nu era vorba doar despre un flux abstract de date, ci despre fotografii cu oameni reali, cu prieteni, cu membri ai familiei, cu copii, toate convertite în materiale de antrenare pentru sisteme automate. Iar tocmai această transformare a vieții cotidiene în combustibil pentru AI a fost percepută de unii drept una dintre cele mai neliniștitoare dimensiuni ale muncii lor.
Pe lângă conținutul extras din social media, colaboratorii spun că au întâlnit și o gamă largă de materiale șocante. Unii au fost puși să transcrie coloane sonore pornografice, alții să eticheteze imagini cu animale moarte, excremente sau scene de vomă. Un doctorand a afirmat că a trebuit să analizeze inclusiv o diagramă a organelor genitale ale unui copil, deși anterior li se comunicase că proiectele nu vor include nuditate, sânge sau conținut explicit. În alte cazuri, sarcinile au inclus scenarii violente, formulate în stil operațional, care ridicau semne de întrebare nu doar despre natura materialului, ci și despre scopul exact al antrenării algoritmilor.
Această lipsă de claritate este, de altfel, una dintre nemulțumirile recurente. Mulți dintre colaboratori spun că nu știau cu adevărat ce modele antrenează, pentru ce companii lucrează efectiv și în ce fel vor fi folosite datele pe care le etichetează. Unii afirmă că au interacționat cu sisteme precum ChatGPT sau Claude în cadrul anumitor sarcini, iar alții bănuiau că lucrează indirect la modele dezvoltate de Meta. În lipsa unor explicații complete, sentimentul dominant a fost acela că ei contribuie la o mașinărie imensă, fără a avea acces la imaginea de ansamblu.
În paralel, descrierile privind condițiile de lucru conturează un model clasic de muncă digitală fragmentată: plată pe sarcină, venituri fluctuante, disponibilitate imprevizibilă a proiectelor, interviuri repetate fără plată pentru calificarea la noi misiuni și monitorizare permanentă prin software dedicat. Unii colaboratori spun că li s-au promis inițial câștiguri mari, pentru ca ulterior să fie redirecționați către proiecte mai slab plătite. Alții suspectează că inclusiv interviurile de selecție, în care trebuiau să demonstreze competențe sau să ofere răspunsuri detaliate, puteau deveni la rândul lor material de antrenament pentru AI.
Tocmai această combinație dintre nesiguranță economică și sentimentul că își instruiesc propriii înlocuitori alimentează una dintre cele mai puternice tensiuni ale epocii. Pentru un artist care a lucrat pe astfel de sarcini, experiența a produs rușine și vinovăție, pentru că, spune el, a contribuit direct la automatizarea visurilor și speranțelor sale profesionale. Este o mărturie care rezumă probabil cel mai bine drama acestei noi clase de muncitori digitali: oameni suficient de calificați încât să alimenteze revoluția AI, dar prea vulnerabili economic pentru a o putea refuza.
Cazul mai scoate la suprafață și o contradicție tot mai evidentă în industria tehnologică. Marile companii promovează inteligența artificială drept un salt către eficiență, creativitate și progres, însă în spatele acestei promisiuni există o infrastructură uriașă de muncă umană ieftină, fragmentată și adesea invizibilă. Modelele devin mai „inteligente” nu doar prin puterea de calcul și inovația inginerească, ci și prin mii de ore de triere, clasificare, corectare și selecție realizate de oameni aflați la distanță, de multe ori fără protecții clare și fără o înțelegere completă a impactului muncii lor.
Compania implicată respinge o parte dintre acuzații și susține că oferă muncă flexibilă, cu plată transparentă, iar colaboratorii aleg singuri când și cum participă. Reprezentanții săi afirmă că proiectele problematice sunt oprite atunci când conținutul este semnalat, că nu se lucrează cu materiale de abuz sexual asupra copiilor și că participanții nu sunt obligați să continue sarcini care le provoacă disconfort. De asemenea, susțin că folosirea instrumentelor de monitorizare are rolul de a asigura o plată corectă și nu de a supraveghea activitatea în mod agresiv.
Cu toate acestea, declarațiile celor care au lucrat efectiv pe platformă arată că, în practică, granița dintre flexibilitate și precaritate este foarte subțire. Pentru mulți, „libertatea” de a accepta sau nu proiecte este limitată de nevoia urgentă de bani, iar posibilitatea de a refuza conținut deranjant devine relativă atunci când veniturile sunt instabile și concurența este mare. În plus, chiar dacă materialele provin din spațiul public, întrebarea esențială rămâne: cât de legitim este ca viețile, imaginile și creațiile altor oameni să fie transformate, la scară industrială, în hrană pentru algoritmi?
În fond, scandalul nu este doar despre o singură companie sau despre un singur contract de externalizare. El vorbește despre costul uman ascuns al inteligenței artificiale și despre o industrie care își construiește viitorul pe un paradox dureros: promite automatizare, dar depinde masiv de muncă umană; promite eficiență, dar produce insecuritate; promite progres, dar ridică dileme etice tot mai greu de ignorat.
Iar pentru cei care continuă să accepte astfel de sarcini, realitatea este poate cea mai tulburătoare dintre toate. Chiar dacă înțeleg riscurile, chiar dacă se simt inconfortabil, chiar dacă bănuiesc că lucrează la sistemele care le vor diminua șansele profesionale în viitor, mulți nu văd o alternativă reală. În economia nouă a inteligenței artificiale, disperarea a devenit uneori chiar combustibilul care o alimentează.



























