Alexia Stan
„Donald Trump îl ironizează pe Joe Biden într-un nou interviu”. „Regina Elisabeta oferă o coregrafie specială pe melodia Sinner”. „Putin și Trump, împreună cu sania pe pârtie”.
Aceste titluri de articole de știri atrag imediat atenția și curiozitatea cititorilor, mai ales a cârcotașilor. Știrile nu pot fi infirmate pe motiv că ar fi lipsite de dovezi, pentru că filmulețele demonstrative există. Problema apare atunci când punem la îndoială sursa acestor filmulețe. Ele arată a fi reale, pare că acțiunile chiar au loc. Însă, avem de-a face doar cu simulări, doar cu „exerciții creative” ale unor oameni pricepuți în ale tehnologiei, distribuite pe internet pentru amuzament (și nu numai), numite științific, tehnic și filosofic, deepfakes.
Fenomenul deepfake și-a făcut apariția prin 2017, atunci când fața actriței israeliene Gal Gadot apare într-un film pentru adulți [1]. Deepfake-ul, așa cum precizează și sursa, a fost realizat cu un algoritm bazat pe machine learning, adică tehnologia principală prin care sistemele de inteligență artificială sunt astăzi programate.
Ce înseamnă machine learning? Tradus mot-a-mot înseamnă „învățare mecanică”. Puțin mai aplicat la problema de față, machine learning ar reprezenta modul în care un model de inteligență artificială folosește un set de date de mari dimensiuni pentru a se antrena să realizeze anumite sarcini date de dezvoltatori [2]. „Schema” este că cu cât baza de date este mai cuprinzătoare și mai bine structurată și alcătuită, iar antrenamentul devine mai elaborat, cu atât modelul „învață” mai bine și este mai performant. În punctul în care antrenamentul este destul de complex și complet, machine learning cedează ștafeta pentru deep learning. „Deep” însemnând „profund”, ne trimite către un model de inteligență artificială ce începe să proceseze mai bine datele și să producă mai bine conținut. Ele pot să realizeze task-uri mai specifice, sunt mai eficiente, însă acest lucru nu înseamnă că sunt lipsite sau scutite de greșeli. Din contră, cu cât tehnologia este mai avansată, cu atât este mai greu de controlat și mai predispusă la a produce greșeli și la a înșela utilizatorii umani.
Din acest motiv, trebuie să ne informăm temeinic în legătură cu modul de operare al acestor noi tehnologii și să ne asigurăm că informațiile generate sunt corespunzătoare cu realitatea. Un double-check este oricând binevenit.
Revenind la problema deepfake-urilor, dificultatea de a distinge între adevăr și fals, între realitate și simulare, poate duce la dezinformare gravă și la formarea și susținerea unor opinii neîntemeiate. Printre prejudiciile, destul de acuzabile și sancționabile, pe care cineva le poate aduce unei persoane pe care alege să o anime într-un deepfake sunt defăimarea și furtul de identitate. Pe lângă acestea, în cazul în care un clip generat cu IA ajunge pe internet și este accesibil unui număr uriaș de utilizatori, acesta poate produce panică. Nu mai este vorba de amuzament, decât al celui ce răspândește filmulețul și ajunge să isterizeze populația.
Pentru a trage un semnal de alarmă și pentru a arăta adevăratul impact al acestor tehnologii în lume, MIT a creat un filmuleț [3] de mai puțin de un minut în care președintele american Richard Nixon anunță într-un interviu pe care l-ar fi avut chiar la câteva zile după lansarea Apollo 11: „Bună seara, concetățenii mei americani. Soarta a ordonat ca oamenii care au mers pe Lună să exploreze în pace, vor rămâne pe Lună pentru a se odihni în pace”. Așa cum afirmă și autorul articolului, Asher Stockler, pare că filmulețul a „rescris istoria”, pentru că interviul nu s-a întâmplat niciodată, dar dă impresia că s-ar fi putut întâmpla și pare foarte verosimil. Vedem astfel legătura de nezdruncinat între deepfakes și dezinformare, popularizată în mediul online, ca fake news.
Bineînțeles, fake news pot apărea și fără deepfakes, sub forma acelor zvonuri date mai ales în spațiul monden despre diferite persoane publice, menite să stârnească scandal și să pună „protagoniștii” într-o lumină rea. Adevăratele probleme apar când aceste fake news sunt folosite în subiecte ce includ politica, știința, medicina etc., teme ce chiar pot avea impact asupra umanității, așa cum s-a întâmplat în cazul lui Nixon.
Cu ce vin deepfake-urile în plus este suportul vizual, ce atrage și captivează mai bine utilizatorul uman și îl face să creadă că, dacă vede cu ochii lui un fapt, acela este implicit adevărat. Filmulețele pot fi mai mult sau mai puțin credibile din prisma subiectului, credibilitatea lor fiind influențată și de calitatea video și de cât de „reale” par, mai exact cât de bine sunt realizate și ce tehnică a fost utilizată în executarea lor. Echipa Homeland Security identifică [4] câteva tehnici de realizare a deepfake-urilor, evoluând cronologic, în funcție de calitatea lor și de capacitatea de a dezinforma. Printre acestea se numără: Puppet deepfake, Mouth Swap și Face Swap deepfake, Audio deepfake și Synthetic Media. Videoclipul cu președintele a fost realizat utilizând tehnica Puppet deepfake, prin intermediul căreia expresiile faciale și mișcările autorului deepfake-ului sunt transmise persoanei țintă.
De multe ori simțurile nu ne înșală, este adevărat, dar oamenii o pot face, fie că nu au intenții neapărat rele și o fac doar pentru distracție, fie că sunt rău-intenționați, dorind să dezinformeze, ceea ce are o gravitate mai mare în sfera morală. Cert este că rezultatele unui astfel de fenomen contează mai mult în situația deepfake-urilor. Important este impactul pe care îl au asupra celor ce le văd și cum și le însușesc. Din acest motiv, un factor ce contribuie la diminuarea pericolului la care ne supune tehnologia astăzi este acel double-check despre care discutam la început, adică verificarea mai multor surse înainte de a trage o concluzie; o educație „digitală”, „tehnologică” mai riguroasă: și gândirea critică, caracteristică ce ar trebui să fie nelipsită internautului secolului vitezei.
Cel mai important factor de care ar trebui să ținem cont atunci când vrem să nu cădem pradă dezinformării este recunoașterea deepfake-urilor, abilitate pe care o putem perfecționa în timp, cu cât suntem expuși la cât mai multe experiențe ce presupun acest tip de tehnologie. Bineînțeles, există riscul ca la început să fim induși în eroare, dar important este să recunoaștem pattern-uri. Desigur, cum am spus și mai sus, pot fi două tipuri de raționamente sau motivații ce stau în spatele deepfake-urilor: distracție sau dezinformare rău-intenționată. Primul tip este ușor de recunoscut, ne putem da seama repede că este generat artificial, putem lua chiar exemplul de la început: Putin și Trump pe sanie. Este ridicol, haios și mai mult decât atât, greu de crezut, ceea ce îl face ușor de reperat ca fiind fake. Filmulețul cu Nixon, pe de altă parte, lăsând deoparte calitatea video, este destul de credibil, date fiind conjunctura și subiectul.
Putem chiar realiza o scară pe care să situăm criteriile de recunoaștere a deepfake-urilor. Pragul de jos poate fi atribuit criteriului credibilității (mai bine spus al seriozității) subiectului în jurul căruia se întemeiază. Următorul prag este rezervat calității video, al modului riguros, din punct de vedere tehnic, în care este realizat deepfake-ul. Este important de menționat că pot apărea excepții (cazul în care un subiect ce pare a fi incredibil, este de fapt adevărat). În acest caz, este foarte important cel de-al doilea prag și double-check-ul, pentru a fi siguri că informația este clar adevărată și să nu ne confruntăm cu dezinformarea „inversă” (să credem că un fapt este fake, când de fapt este real, doar pentru că nouă ni se pare stupid). Pragul cel mai de sus reunește cele două praguri anterioare și adaugă un criteriu în plus, anume notorietatea, cât de cunoscut, distribuit, discutat este deepfake-ul. Trăind în era vitezei informaționale și a post-adevărului, ar trebui să știm că zvonurile false circulă mai repede și sunt mai plăcute decât realitatea.
Noua eră informațională și a post-adevărului ne ridică la fileu diverse provocări, de la îngreunarea deosebirii între simulare și realitate și identificarea manipulării prin mijloace audio-video la pierderea încrederii în jurnalism. Oricine poate fi oricând victima unui deepfake, deci protejarea intimității și a identității în mediul online ar trebui să fie una dintre principalele preocupări ale unui consumator de internet.
Alexia Stan este studentă la Masteratul de Etică Aplicată în Societate, Afaceri și Organizații.
Note:
- Samantha Cole, „AI-Assisted Fake Porn Is Here and We’re All Fucked” în Vice, 2017, https://www.vice.com/en/article/gal-gadot-fake-ai-porn/
- Department of Homeland Security, „Increasing Threats of Deepfake Identities”,https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf
- Asher Stockler, „MIT Deepfake Video ‘Nixon Announcing Apollo 11 Disaster’ Shows the Power of Disinformation”, în Newsweek, 2019, https://www.newsweek.com/richard-nixon-deepfake-apollo-disinformation-mit-1475340
- Department of Homeland Security, „Increasing Threats of Deepfake Identities”,https://www.dhs.gov/sites/default/files/publications/increasing_threats_of_deepfake_identities_0.pdf