Inteligența artificială: aliat sau amenințare?
Definită drept "capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă", "inteligența artificială" (AI) implică dezvoltarea de algoritmi și modele
Corina Cristea, 15.03.2024, 15:15
Definită drept „capacitatea unui sistem de a interpreta corect datele externe, de a învăța din astfel de date și de a folosi ceea ce a învățat pentru a-și atinge obiective și sarcini specifice printr-o adaptare flexibilă”, „inteligența artificială” (AI) implică dezvoltarea de algoritmi și modele care permit mașinilor să perceapă și să își motiveze mediul și să facă acțiuni adecvate. Acești algoritmi folosesc volume mari de date și tehnici avansate, cum ar fi învățarea automată, învățarea profundă, procesarea limbajului natural și viziunea computerizată. Fondată ca disciplină academică în 1956, inteligența artificială este tot mai prezentă, iar beneficiile sale sunt incontestabile. Acestea pot merge de la asistență medicală mai bună la procese de fabricație mai eficiente, de la un transport mai sigur și curat la surse de energie mai ieftine și mai durabile.
În cazul companiilor, AI poate facilita, de exemplu, dezvoltarea unei noi generații de produse și servicii și poate îmbunătăți siguranța la locul de muncă, deoarece roboții pot realiza activitățile periculoase. Inteligența artificială vine, însă, la pachet cu aspecte negative, precum posibile amenințări la adresa securității, democrației, companiilor și locurilor de muncă. Am ajuns în punctul în care să ne temem că inteligența artificială și instrumentele cu care aceasta ne modifică realitatea ne vor decide viitorul? Sunt voci care susțin că acest lucru nu este exclus. Un exemplu ține de sfera politicului, de posibilitățile de influențare a electoratului, de exemplu prin deep-fakes, create folosind inteligența artificială. Conferențiar universitar doctor Flavia Durach, specialist în studiul dezinformării, explică mecanismul de funcționare
„Există câteva riscuri legate de deep-fakes. În primul rând, este vorba despre exacerbarea componentei emoționale, exacerbarea anumitor dispoziții emoționale la nivelul electoratului, care la un moment dat pot avantaja un anumit candidat sau o anumită formațiune politică. Pentru că manipularea emoțională are un rol important în dezinformare și pentru că poate să ducă la decizii iraționale, la subminarea gândirii critice, la a lua de-a gata un anumit tip de mesaj care are o componentă emoțională puternică, de exemplu frică sau acest sentiment de a fi scandalizați.
În ce privește integritatea alegerilor, aici într-adevăr putem avea acel tip de situații în care un candidat sau echipa de campanie sau anumiți actori care au un interes pot să creeze deep-fakes pentru a discredita contracandidații, pentru a crea îndoieli în mintea votanților. Și aici, miza cea mai mare este asupra votanților nehotărâți, cei care sunt supuși poate unor presiuni încrucișate din mediul lor spre a înclina votul într-o parte sau în alta, aceștia sunt probabil cei mai susceptibili. Deep-fakes prin natura lor au un potențial mare de a fi virale, sunt ușor de urmărit, de obicei au toate caracteristicile conținutului audio-video cu o viralitate puternică, deci se pot răspândi ușor.”
În încercarea de a contracara astfel de practici, un grup de 20 de companii din sectorul tech, inclusiv marii dezvoltatori de programe de inteligență artificială, au semnat recent un acord care prevede ca acestea să combată dezinformarea electorală din acest an. Printre cei mai importanți semnatari se numără OpenAI, Microsoft și Meta. Finalizat la Conferința de Securitate de la Munchen, acordul include, pe lângă companiile AI, și unele dintre cele mai populare rețele de socializare. Meta, împreună cu TikTok și X (fosta Twitter), trebuie să se asigure că orice conținut dăunător sau fals este eliminat de pe platformele lor. OpenAI, Microsoft și restul de companii AI se vor asigura că vor identifica imaginile, clipurile video și audio generate cu ajutorul inteligenței artificiale și vor informa corect utilizatorii în această privință. Măsura agreată de majoritatea companiilor este etichetarea conținutul AI, în principal printr-un watermark. Este un bun început, consideră Flavia Durach
„Totuși, trebuie să ținem cont că avem și experiența unor fake-news-uri mai puțin sofisticate din timpul pandemiei de COVID-19, când asemenea promisiuni au existat, aceste măsuri de etichetare a conținutului au fost luate, însă studii independente de la think tank-uri sau cercetători neafiliați acestor platforme digitale au găsit o grămadă de limitări ale acestor măsuri. În sensul în care o bună parte a conținutului care dezinforma în acele contexte a reușit să scape nedetectat de politicile de moderare, de măsurile de detecție. Prin urmare, fără să mă pricep la aspectele tehnice, am o doză de scepticism privind eficacitatea și eficiența acestor măsuri prin prisma experiențelor anterioare.”
„În absența unor măsuri legislative, a unor reglementări stabilite la nivel național, supranațional, dacă nu punem la baza eforturilor niște politici de dezvoltare a inteligenței artificiale de pe niște baze etice și cu minimizarea riscurilor nu vom putea face nimic”, consideră specialistul în studiul dezinformării Flavia Durach. Niște pași importanți s-au făcut deja în acest sens la nivelul UE – noua lege privind inteligența artificială aprobată în această săptămână în plenul Parlamentului European prevede, între altele, obligația pentru dezvoltatori de a preciza că sunetele, imaginile și textele produse de AI sunt artificiale. Trebuie să mai treacă, însă, ceva timp, deoarece legea va deveni deplin aplicabilă la 24 de luni de la intrarea în vigoare, cu o abordare graduală.