
Alfabetizare în AI sau cum să înveți să citești din nou. De data aceasta, responsabil, în limbajul mașinilor.
Există un moment în viața fiecărei generații când lumea cere brusc un nou tip de alfabetizare. Bunicii noștri au trebuit să învețe să citească scris de mână și să înțeleagă contracte. Părinții noștri au trebuit să se împace cu calculatoarele și telefoanele cu touchscreen. Noi am trebuit să navigăm internetul și rețelele sociale. Acum a venit rândul inteligenței artificiale.
Diferența față de alte tranziții? De data aceasta, pentru că este sensibil, Europa nu a așteptat să vadă ce se întâmplă. A emis un act, ca o lege, AI act. Dincolo de obligatitivitate, e important să înțelegem că e o responsabilitate care ne susține pe noi ca oameni.
Ce a decis Europa și de ce e important
La 1 august 2024 a intrat în vigoare Regulamentul (UE) 2024/1689, cunoscut drept AI Act, primul cadru legislativ dedicat inteligenței artificiale din lume, cu aplicabilitate directă în toate statele membre. Nu e un ghid de bune practici. Nu e o recomandare, ci e o lege.
Și chiar dacă Europa a ales, în stilul ei caracteristic, o implementare graduală, primul prag important a fost atins pe 2 februarie 2025, când au intrat în vigoare obligațiile privind alfabetizarea în domeniul AI și interdicțiile legate de practicile cu risc inacceptabil.
AI Act definește alfabetizarea în domeniul AI ca fiind competențele, cunoștințele și înțelegerea necesare pentru a facilita utilizarea sistemelor de inteligență artificială în cunoștință de cauză, inclusiv conștientizarea oportunităților, riscurilor și prejudiciilor pe care le poate implica această tehnologie.
Altfel spus: nu e suficient să folosești ChatGPT la birou, ci trebuie să înțelegi ce face, unde greșește și ce consecințe poate avea asupra ta și asupra altora.
Ce prevede AI Act: interziceri, obligații și termene
Structura logică a regulamentului
AI Act funcționează pe un principiu simplu: cu cât riscul e mai mare, cu atât obligațiile sunt mai stricte. Regulamentul clasifică sistemele AI în patru categorii de risc, fiecare cu un regim juridic distinct.
1. Ce este interzis: risc inacceptabil (în vigoare din 2 februarie 2025)
Sunt interzise complet sistemele AI care:
- manipulează comportamentul uman prin tehnici subconștiente
- exploatează vulnerabilitățile grupurilor protejate
- realizează scoring social generalizat al cetățenilor
- identifică biometric persoane în timp real în spații publice (cu excepții stricte pentru securitate națională)
2. Sisteme de risc înalt și obligații stricte (august 2026 — decembrie 2027)
Sunt considerate de risc înalt sistemele AI utilizate în: infrastructură critică (energie, apă, transport), educație — evaluarea candidaților și rezultatelor școlare, ocuparea forței de muncă, servicii esențiale, aplicarea legii, justiție și managementul frontierelor.
Pentru acestea, organizațiile trebuie să implementeze managementul riscurilor, supravegherea umană, jurnalizarea deciziilor, documentație tehnică detaliată și înregistrarea în baza de date europeană EU AI.
Un detaliu important și îngrijorător: Comisia Europeană propune prin Digital Omnibus să amâne aplicarea deplină a regulilor pentru sisteme de risc înalt până în decembrie 2027. Criticii spun că aceasta echivalează cu o strategie de „dereglementare pentru accelerare” și că cetățenii vor plăti prețul putând fi refuzați la un credit din cauza unui algoritm biased, sau taxați cu prime de asigurare mai mari bazate pe starea de sănătate prezisă, fără știrea lor.
3. Transparență și marcare (august 2026)
Regulamentul introduce obligații specifice de transparență: când oamenii interacționează cu chatboți sau asistenți virtuali, trebuie informați că vorbesc cu o mașină. Conținutul generat de AI, precum text, imagini, audio, video — trebuie marcat corespunzător, iar deepfake-urile și textele destinate informării publice trebuie clar și vizibil etichetate.
4. Alfabetizarea în AI. Art. 4 (în vigoare din 2 februarie 2025)
Companiile trebuie să implementeze programe de alfabetizare diferențiate, în funcție de rolul fiecărei persoane și de gradul de implicare cu sistemele AI. Organizațiile trebuie să documenteze inițiativele de formare pentru a demonstra conformitatea în cazul unor verificări.
5. Sancțiuni
Nerespectarea dispozițiilor intrate în vigoare la 2 februarie 2025 atrage sancțiuni severe. Concret, amenzile pot ajunge la 35 de milioane de euro sau 7% din cifra de afaceri globală pentru încălcarea interdicțiilor, și la 15 milioane sau 3% pentru alte neconformități.
Despre AI literacy (alfabetizare în AI) și de ce contează mai mult decât pare
Putem fi tentați să tratăm această obligație ca pe o birocrație în plus, un curs bifat undeva în dosarul de HR, o prezentare PowerPoint vizionată pe jumătate în timp ce răspundem la emailuri. Personal o văd ca pe o Mare greșeală pentru că este vorba despre noi.
Alfabetizarea în AI nu e o altă haichiță cerută de UE sau o tendință de moment sau, cel puțin, așa văd. Personal, să învțăm acum despre AI cum ne ajută, dar și cum ne impactează e un act de responsabilitate și răspunsul la o realitate concretă: suntem în punctul în care algoritmii AI, mai nou și agenții AI, iau astăzi decizii care afectează direct cetățenii . Cum așa? Aprobă sau resping cereri, filtrează candidați la angajare, monitorizează spații publice, gestionează infrastructuri critice, generează mesaje și vizualuri ce pot propaga deepfake și conduce spre o spirală ireală ce poate ajuta individul și chiar democrația.
Să o luăm cu abc-ul cum funcționeză lucrurile, cum ne susține și ne poate impacta AI, e cel mai bun lucru pe care îl putem face noi toți pentru fiecare dintre noi. Când nu înțelegi cu ce instrument lucrezi, nu poți să îi contești deciziile, nu poți să îi semnalezi erorile și nu poți să te aperi când greșește în defavoarea ta. Iar sistemele AI greșesc. Oricât de performante ar fi, rămân instrumente imperfecte, antrenate pe date imperfecte, calibrate de oameni cu propriul subiectivism.
Alfabetizarea în AI înseamnă, în fond, să recâștigăm un drept fundamental: acela de a înțelege sistemele care ne influențează viața.
Ce înseamnă asta în practică, pentru companii și angajați
Reglementarea nu e adresată doar giganților tech din Silicon Valley. Orice companie care utilizează un sistem AI în activitatea sa profesională devine, din punct de vedere legal, un „implementator”. Iar una dintre primele și cele mai importante obligații care le revin implementatorilor este instruirea propriilor angajați.
Folosești un instrument de AI pentru a redacta oferte? Ești implementator. Ai un sistem care filtrează CV-uri? Ești implementator. Folosești un chatbot pentru relația cu clienții? Tot implementator ești.
Obligația de formare nu e uniformă și asta e un lucru înțelept al regulamentului. Angajații unei companii au nevoi diferite: specialiștii IT trebuie să înțeleagă detaliile tehnice ale sistemelor AI, în timp ce echipele de vânzări trebuie să fie capabile să identifice anomaliile și să le raporteze. Nu toată lumea trebuie să știe să construiască un model de machine learning. Dar toată lumea trebuie să știe că AI-ul poate fi înșelat și că ne poate înșela, că poate perpetua discriminări, că poate scurge date cu caracter personal, că nu e infailibil.
Biroul European pentru Inteligență Artificială a clarificat că simpla lectură a unor instrucțiuni scrise nu este suficientă. Companiile trebuie să asigure un proces de învățare activă, care să dezvolte competențe și cunoștințe relevante.
Cu alte cuvinte: bifatul unui curs online de 20 de minute nu va fi suficient.
Provocările reale ale acestei obligații așa cum le văd
Până aici, totul sună rezonabil. Dar orice reglementare serioasă merită și o privire critică.
Ambiguitatea definiției
Prima provocare e ambiguitatea definiției. Ce înseamnă, concret, un „nivel adecvat” de alfabetizare? Regulamentul nu oferă un curriculum standard, nu specifică ore minime de formare, nu definește indicatori de evaluare. Fiecare companie interpretează și implementează după bunul plac, ceea ce riscă să transforme o obligație serioasă într-un exercițiu de conformitate superficială.
Inegalitatea de resurse
A doua provocare e inegalitatea de resurse. Marile corporații au departamente juridice, specialiști în conformitate și bugete generoase. Chiar dacă AI Act prevede unele măsuri de sprijin pentru IMM-uri, firmele mici nu sunt scutite de obligații. Un antreprenor cu zece angajați care folosește un instrument AI pentru contabilitate are aceleași obligații de principiu ca o bancă cu mii de salariați, dar nu are aceleași resurse pentru a le îndeplini.
Absența sancțiunilor pentru nealfabetizare în AI
A treia provocare e absența sancțiunilor directe pentru neîndeplinirea obligației de alfabetizare. Deși nu sunt prevăzute sancțiuni specifice pentru această obligație, nivelul de conformitate ar putea fi luat în considerare în cazul altor încălcări ale regulamentului. E o logică indirectă: nu ești amendat că nu ți-ai instruit angajații, dar dacă ceva merge prost, acel gap de formare va fi folosit împotriva ta. E un instrument mai subtil, dar și mai dificil de anticipat.
Și, în fine, există întrebarea mai profundă pe care regulamentul o lasă fără răspuns: alfabetizarea în AI e responsabilitatea companiilor sau a statului? Dacă un angajat din sectorul privat e obligat să știe cum funcționează AI-ul, ce se întâmplă cu cetățeanul obișnuit care interacționează cu sisteme AI în relația cu instituțiile publice?
Cine îl formează pe acesta?
Domenii care arată cum responsabilitatea și înțelegerea riscurilor AI e diferit, iar AI literacy implică altceva
Marketing: industria care manipulează fără să știe că o face
Să începem cu sectorul cel mai nereflexiv față de propria putere. Marketingul a adoptat AI-ul cu entuziasm și cu puțină filosofie, dimpotrivă foarte mulți au preluat cu hype exagerat, uitând că angajații din aceste domenii sunt primii în pericol de a rămâne fără job-uri. Instrumentele de personalizare, de generare automată de conținut, de optimizare a campaniilor, de segmentare a audienței, toate sunt acum standard în orice agenție sau departament de marketing. Algoritmii analizează comportamentul utilizatorilor pe diverse platforme, identificând tipare de consum și preferințe individuale, iar reclamele se adaptează în timp real în funcție de locație, tipul de dispozitiv sau chiar momentul zilei.
Diferite LLM-uri (GPT) în special e antrenat spre rezultat, iar textele generate sunt de tip FOMO, ducând spre vulnerabilizare.
Sună eficient și, într-un fel, este. Problema e că eficiența și etica nu merg întotdeauna mână în mână.
Studiile arată că algoritmii AI ai platformelor pot detecta „primele momente de vulnerabilitate” ale utilizatorilor și le trimit reclame pentru produse achiziționate impulsiv tocmai în acele momente, chiar dacă produsele sunt de calitate scăzută și utilizatorul nu are nevoie reală de ele. Nu e o teorie conspiraționistă, ci e o strategie documentată, optimizată și scalată la miliarde de oameni.
Platformele digitale pot modela cadrul și controla momentul lansării ofertelor, țintind utilizatorii la nivel individual cu strategii de manipulare mult mai eficiente și mai dificil de detectat decât orice metodă tradițională de marketing.
Întrebarea incomodă pentru oamenii din marketing este aceasta: câți dintre cei care operează aceste instrumente înțeleg cu adevărat ce fac? DIncolo de urletul eficiență, rezultat, milioane de euro în x pași, câți conștientizează că algoritmul pe care îl folosesc poate exploata starea emoțională a unui utilizator pentru a-l împinge spre o decizie de cumpărare pe care nu ar fi luat-o în alte condiții? Câți și-au pus problema că există o linie fină, dar care schimbă jocul, între personalizare și manipulare?
Și care ar mai fi riscurile? Printre riscurile recunoscute ale AI în publicitate se numără bias-ul algoritmic, care poate favoriza anumite categorii de audiență și ignora grupuri marginalizate, și lipsa de transparență deciziile luate de AI despre cine vede ce reclamă și de ce sunt greu de explicat și pot afecta fundamental încrederea consumatorilor. Depsre o parte dintre acestea am mai scris în articolul despre utilizarea etică a AI.
Alfabetizarea în AI nu e, pentru marketing, un curs de conformitate. E o problemă de etică profesională. Un specialist în marketing care nu înțelege instrumentele cu care lucrează nu poate face distincția dintre o campanie bună și una care exploatează sistematic vulnerabilități umane. Nu pentru că e o persoană rea, ci pentru că nu are vocabularul să numească problema.
AI Act interzice explicit sistemele AI care manipulează comportamentul uman prin tehnici subconștiente sau care exploatează vulnerabilitățile grupurilor protejate, iar dacă ne uităm atent, textele generate cu unul dintre modele sunt exclusiv manipulative, chiar dacă granița dintre personalizare agresivă și manipulare subconștientă e tocmai genul de frontieră pe care nu o poți recunoaște fără un nivel minim de alfabetizare. Altfel, ești în ilegalitate fără să știi.
Jurnalism: cine mai verifică realitatea când realitatea poate fi generată?
Jurnalismul are o problemă dublă față de AI: e simultan victimă și vector.
Victimă pentru că AI-ul poate genera mii de articole false, comentarii și postări pe rețelele sociale în câteva secunde, creând ceea ce s-ar putea numi fabrici de știri invizibile, capabile să convingă populația că o minciună e adevărată prin simpla repetiție la scară masivă.
Vector pentru că redacțiile care nu înțeleg AI-ul ajung să preia, să amplifice sau să legitimeze conținut generat artificial, fie din grabă, fie din neatenție, fie din lipsa instrumentelor de verificare.
Dar problema e și mai profundă de atât.
Deepfake-ul: tehnologia care creează video-uri sau înregistrări audio în care o persoană publică pare că spune lucruri pe care nu le-a spus niciodată — a ajuns la un nivel de sofisticare care face verificarea din ce în ce mai dificilă. Un jurnalist care nu știe cum funcționează aceste tehnologii nu le poate detecta, nu le poate explica audienței și nu poate oferi contextul necesar pentru ca publicul să le înțeleagă.
Există și un al treilea nivel, mai subtil: agenda publică. Rețelele sociale folosesc AI pentru a arăta utilizatorilor doar ceea ce le place, creând bule de opinie — fenomen prin care algoritmii filtrează realitatea, arătând oamenilor doar informații care le confirmă convingerile, ascunzând perspectivele opuse. Jurnalistul care nu înțelege cum funcționează acești algoritmi de distribuție a conținutului nu poate înțelege de ce unele povești ajung la milioane de oameni și altele dispar în zgomot și nu poate nici contracara activ aceste mecanisme.
Alfabetizarea în AI pentru jurnaliști nu înseamnă să înveți să codezi sau să construiești modele. Înseamnă să știi că o imagine poate fi generată, că o voce poate fi clonată, că un articol poate fi fabricat la scală industrială, că distribuția conținutului nu e neutră și că platformele pe care trăiesc știrile au propriile lor interese algoritmice. Fără acest fundament, verificarea de fapte devine tot mai fragilă, iar autoritatea editorială, deja erodată, se subțiază și mai mult.
Societatea civilă: gardianul care doarme?
Dacă marketingul produce, jurnalismul verifică și statul reglementează, cine apără cetățeanul în spațiul dintre aceste instituții? Teoretic: societatea civilă. Practic: o societate civilă care nu înțelege AI-ul nu poate nici să îl conteste.
Potrivit Inspectoratului General al Poliției Române, manipularea modernă nu mai este stridentă, ci personalizată și invizibilă, chiar arată aceste lucruri printr-o campanie în social media cu diferite exemple de deepfake. Iar dacă aceasta e concluzia Poliției Române, nu a unui ONG de advocacy digital, înseamnă că problema a depășit stadiul de îngrijorare de nișă.
Societatea civilă are rolul să reprezinte interesele cetățenilor față de instituțiile care îi afectează, stat, corporații, platforme. Dar pentru a reprezenta aceste interese în mod real, trebuie să înțeleagă cu ce instrumente operează aceste instituții. O organizație de drepturile omului care nu înțelege cum funcționează un sistem de scoring algoritmul folosit de angajatori sau autorități publice nu poate contesta decizii discriminatorii. Un grup de advocacy pentru consumatori care nu știe ce e un dark pattern digital nu poate proteja oamenii de el.
AI Act prevede că sunt interzise sistemele AI care exploatează vulnerabilitățile grupurilor protejate, dar cine sesizează autoritățile când un astfel de sistem operează? Cine documentează cazurile? Cine face legătura între experiența individuală a unui cetățean și un pattern sistemic al unui algoritm? Teoretic, societatea civilă. Dar numai dacă are instrumentele conceptuale să recunoască ce vede.
Alfabetizarea în AI pentru societatea civilă e o condiție a supraviețuirii ei ca actor relevant. Altfel, riscă să lupte cu instrumente ale secolului XX împotriva unor structuri de putere ale secolului XXI.
HR: cultura organizațională vs. bifarea conformității
Poate nicăieri tensiunea dintre litera legii și spiritul ei nu e mai vizibilă decât în HR.
Un studiu realizat înainte de adoptarea regulamentului arată că 57 % dintre angajații care foloseau AI la locul de muncă nu dezvăluiau acest lucru șefilor lor. Ce ne arată asta? Nu neapărat că angajații ar fi ascuns ceva rău,ci mai degrabă că organizațiile nu au creat un spațiu sigur în care utilizarea AI să fie discutată deschis, normată și înțeleasă.
Astfel, nivelul de alfabetizare în AI variază în funcție de rol: specialiștii IT necesită cunoștințe avansate, în timp ce alți angajați au nevoie să înțeleagă mai ales riscurile și limitele tehnologiei.Aceasta e singura formă de formare care are sens diferențiată, contextualizată, legată de munca reală a fiecărei persoane
Mai e un aspect. Adevărata problemă din HR nu e curricula de formare, ci mai degrabă cultura.
Sistemele de recunoaștere a emoțiilor la locul de muncă sau în interviuri și categorizarea biometrică pentru a deduce caracteristici sensibile, opinii politice, religie, orientare sexuală sunt deja complet interzise prin AI Act din 2 februarie 2025. Totuși, câte companii știu că astfel de platforme există, că unele le-au folosit deja și că utilizarea lor este acum ilegală? Câți angajați știu că au dreptul să refuze un interviu condus de un sistem care le „citește” emoțiile?
Alfabetizarea în AI în HR nu e doar despre cum să folosești un instrument de recrutare. E despre cum să construiești o organizație în care oamenii înțeleg drepturile pe care le au în relație cu tehnologia care îi afectează și în care există mecanisme reale de semnalare și corecție, nu doar o politică internă de suprafață și lipită pe un panou.
Un exemplu de ce e importantă alfabetizarea AI care a apărut pe măsură ce făceam acest articol. De ce e importantă gândirea critică
AI e cea mai tare invenție de la apă caldă încoace, dar tocmai pentru că e ca focul, poate arde. 🙂 M-am ajutat de instrumente AI în documentare și perspective pentru așa cum vedeam eu (domenii care au risc pentru societate. Apropos, încă nu am introdus sănătatea mintală. O să vină un articol dedicat). La un punct mi-a dat procentul de 67% dintre persoane nu recunosc că folosesc AI la muncă. Cum știam că procentele de adopție sunt altele am chestionat acel 67%, l-am întrebat de unde l-a scos și, bineînțeles, nu a găsit. A venit cu alte cifre, diferite. Și, bineînțeles, le-am verificat și pe acelea, după cum am verificat fiecare sursă sugerată. Unele dintre ele sunt în subsol.
AI devine mai deștept. TU?
Mă apropii de final, dar nu înainte de a spune și ce mă preocupă la nivel de umanitate. E evident că AI devine mai deștept. Exponențial mai deștept, după cum arată toți guru din domeniu. În tot acest timp noi, oamenii, ne externalizăm gândirea, iar aceasta e ca un mușchi care se atrofiază. Așa cum ni s-au atrofiat mușchii de nemișcare, la fel se subțiază și mușchii creierului. Numai că aici e mai provocator că pe aceia nu îi vedem și tot externalizând procesele noastre cognitive critice, care ne apără de deepfake, decizii eronate etc devenim mai expuși. Practic, AI devine mai deștept, noi pe dos. Și asta e o alegere.
Alfabetizarea AI ca responsabilitate colectivă, nu doar ca obligație legală
Ne place să credem că progresul tehnologic e neutru, că e un instrument, nu mai mult și, vă recunosc, în acest articol sunt ponderată, nu am scris cum văd lucrurile până la capăt.
Fiecare instrument a venit cu schimbări de profunzime. Istoria nu confirmă această credință. Tiparul a schimbat distribuția puterii. Telefonul a schimbat ce înseamnă intimitate. Internetul a schimbat ce înseamnă adevăr. AI-ul schimbă ceva mai profund: schimbă cine și cum poate lua decizii despre viața altora, inclusiv a fiecăruia la nivel individual. E un fenomen exponențial, fără precedent că implică gândire și decizie și cu o viteză de evoluție și adopție uluitoare. Depinde de noi cum ne responsabilizăm la nivel de individ.
Până la urmă, scopul final al oricărei forme de alfabetizare în AI este transformarea cetățeanului dintr-un simplu consumator pasiv într-un utilizator informat, capabil să deosebească realitatea de simularea digitală.
Totuși nu poți fi un utilizator informat al unei tehnologii pe care nu o înțelegi, după cum nu poți înțelege o tehnologie dacă nimeni nu ți-a dat instrumentele conceptuale să o privești critic.
Alfabetizarea în AI e dincolo de o obligație legală cu termen de scadență. Nu e un curs pe care îl bifezi și uiți pentru că această tehnologie evoluează, după cum am spus, exponențial mai rapid, în timp ce noi involuăm utilizând-o fără discernământ. D aici nevoia unui proces continuu de înțelegere a lumii în care trăim, a sistemelor care ne influențează deciziile, a instituțiilor care le operează și a drepturilor pe care le avem în relație cu ele.
AI act a creat pârghiile legale, dar rămâne de văzut dacă societatea, fiecare dintre noi, până la urmă, va răspunde cu birocrație sau cu înțelepciune.
Resurse:
https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng
https://www.ai4business.ro/post/ai-act-obligatii-training-angajati-amenzi
Și un articol personal similar:
https://trans-formare.ro/2026/03/03/folosirea-etica-a-ai-intre-super-entuziasm-si-responsabilitate/



