Cautare




, Staff

https://www.facebook.com/forbesromania https://twitter.com/ForbesRo

Tech |
|

Să vezi și să nu crezi

Conținutul video falsificat, așa-numitul deepfake, este o potențială amenințare căreia societatea nu este pregătită să-i facă față.
 aboneaza-te
shutterstock_1430528582

O reclamă a companiei de asigurări State Farm din SUA a devenit recent una dintre cele mai vizionate producții publicitare. Aparent, în 1998, un prezentator al știrilor sportive face predicții cât se poate de exacte despre meciurile de baschet din NBA care au loc în 2020. Clipul i-a surprins și amuzat deopotrivă pe cei care l-au văzut, dar ceea ar fi trebuit să simtă publicul este îngrijorare, scrie forbes.com.

Reclama State Farm este un exemplu inofensiv de folosire a unui nou fenomen în materie de inteligență artificială, așa-numitul deepfake. Tehnologia deepfake permite oricui are un computer și o conexiune la Internet să creeze imagini sau videoclipuri în care diverse persoane spun și fac lucruri pe care, de fapt, nu le-au spus și nu le-au făcut.

Termenul „deepfake” rezultă din combinația a două noțiuni, „deep learning” și „fake” și a început să fie folosit din 2017. Câteva clipuri deepfake (sau filme trucate) au devenit virale, oferindu-le milioanelor de privitori din lumea întreagă un prim contact cu această nouă tehnologie: Barrack Obama folosind un limbaj explicit la adresa președintelui Trump sau Mark Zuckerberg recunoscând că adevăratul scop al Facebook este să-și manipuleze și exploateze utilizatorii.

Cantitatea de deepfake din online crește rapid. La începutul lui 2019 erau 7964 de clipuri deepfake online, potrivit evidențelor start-up-ului Deeptrace. Nou luni mai târziu, numărul ajunsese deja la 14.678 și, cu siguranță, de atunci a tot crescut.

Deși impresionantă, tehnologia deepfake nu are calitatea unei filmări autentice: private cu atenție, respectivele imagini pot fi relativ ușor deconspirate ca fiind false. Dar această tehnologie evoluează într-un ritm uluitor, experții estimând că destul de curând nu vom mai putea deosebi autenticul de fals. Clipurile falsificate amenință să treacă de la statutul de ciudățenie a Internetului la cel al unei forțe cu potențial destructiv la nivel politic și social.

Cum era de așteptat, pornografia a fost cel dintâi domeniu în care tehnologia deepfake a fost folosită pe larg. În septembrie 2019, 96% din clipurile deepfake de pe Internet erau pornografice, arată datele Deeptrace.

Însă din cele mai tenebroase unghere ale web-ului deepfake-urile au început să se răspândească în zona politică, unde potențialul dăunător este cu mult mai mare.

Nu e nevoie de prea multă imaginație pentru a înțelege potențialul dăunător pe care conținutul video falsificat îl poate avea asupra unei întregi populații. Imaginați-vă că în campania electorală apare un film în care un politician ia mită sau comite o agresiune sexuală; sau că soldații americani agresează civilii într-un teatru de război din străinătate. Sau că președintele Trump declară război nuclear Coreei de Nord. Incertitudinea asupra autenticității unor astfel de filme poate avea consecințe catastrofale.

Cum tehnologia deepfake este accesibilă oricui, astfel de filme pot fi create de oricine, de la agenții de publicitate și grupuri politice până la indivizi cu interese dubioase.

Într-un raport recent, The Brookings Institution sumarizează astfel gama de riscuri politice și sociale la care ne expune conținutul video trucat: distorsionarea discursului democratic, manipularea procesului electoral, discreditarea anumitor instituții, inclusiv a presei, accentuarea divizării sociale, subminarea siguranței publice, provocarea unor daune de imagine irecuperabile persoanelor publice, atât potențialilor candidați, cât și celor aleși.

Situația a atras atenția organelor legislative americane.  „Altă dată, dacă voiai să ameninți Statele Unite, aveai nevoie de o float de portavioane, de rachete cu rază lungă de acțiune și de arme nucleare”, a declarat recent senatorul Marco Rubio. „Astăzi e suficient să știi să faci un film fals care poate influența rezultatul alegerilor, aruncând țara într-o criză internă profundă.”

„Dacă nu putem avea încredere în imagine, într-un material audio sau filmat, în informații adunate din lumea întreagă, atunci ne aflăm în fața unei amenințări cât se poate de serioase la adresa securității naționale”, este de părere Hani Farid, profesor la Universitatea din Berkeley și unul dintre experții în noua tehnologie.

Luna trecută, un grup politic din Belgia a făcut public un clip trucat în care primul ministru belgian ținea un discurs în care spunea că pandemia a fost provocată de deteriorarea mediului înconjurător și cerea acțiuni drastice în sprijinul salvării naturii.

Și mai perfidă este simpla posibilitate ca un video să poată fi fals, provocând confuzie,  indiferent dacă tehnologia de falsificare a fost folosită sau nu.

Cel mai dramatic exemplu în acest sens vine din Gabon, Africa. În 2018, președintele Ali Bongo nu mai fusese văzut în public de câteva luni. Circulau zvonuri cum că starea sănătății nu-i mai permitea să-și exercite atribuțiile, ba chiar că ar fi murit. Pentru a rispi ambiguitatea, administrația prezidențială a anunțat că președintele va susține un discurs televizat de Anul Nou. În apariția de la TV, Bongo are o postură rigidă, iar vorbirea și expresia facială par lipsite de naturalețe. Filmarea a trezit bănuieli că autoritățile gaboneze încearcă să ascundă ceva, iar opozanții lui Bongo au declarat că filmul este fals și că președintele probabil a decedat.

Zvonurile despre o posibilă conspirație s-au răspândit în social media, iar situația din Gabon s-a deteriorat rapid. Într-o săptămână, armata a pus la cale o lovitură de stat, prima din 1964, indicând filmarea cu discursul președintelui drept dovadă că e ceva în neregulă cu acesta.
Până în ziua de astăzi experții nu s-au putut pune de acord dacă filmul a fost sau nu autentic – cei mai mulți consideră că a fost. Puciul a eșuat, președintele Bongo a reapărut în public și este în funcție și astăzi.

În această situație nu autenticitatea este problema, ci faptul că filmele false capătă notorietate, iar pentru privitor este tot mai greu să distingă între adevărat și fals, o chestiune pe care politicienii o vor exploata inevitabil, cu consecințe potențial devastatoare. „Simplul fapt că filmele false există este folosit pentru a discredita producțiile video autentice. Poți contesta un film spunând că nu e autentic și e foarte greu să demonstrezi contrariul“, declară pentru forbes.com profesorul Hao Li de la Universitatea din Carolina de Sud. În două incidente recente, politicieni din Malaezia și Brazilia au încercat să scape de consecințele unor filme compromițătoare pretinzând că sunt falsuri. În ambele cazuri, nimeni nu a reușit să demonstreze autenticitatea sau falsitatea lor.

Într-o lume în care a vedea nu mai înseamnă neapărat și a crede, capacitatea unei comunități mari de se pune de acord asupra a ceea ce este adevărat, cu atât mai puțin să se angajeze într-un dialog constructiv asupra subiectului, devine subit foarte precară.

Tehnologia care stă la baza filmelor truncate a fost inventată de Ian Goodfellow în 2014, în perioada studiilor de doctorat pe care acesta le făcea la Universitatea din Montreal, una dintre instituțiile din avangarda cercetării în domeniul inteligenței artificiale. Anterior, rețelele neuronale erau utilizate pentru clasificarea conținutului existent (recunoaștere facială sau înțelegerea vorbirii), și nu pentru crearea de conținut, posibilitate oferită acum de noua tehnologie. Pornind, de exemplu, de la un set de fotografii-portret, se pot genera imagini noi care, în termeni matematici, sunt similare cu cele existente. Interesant este că, în final, nu mai poți face distincția între imaginile autentice și cele nou generate.

Unul dintre motivele pentru care filmele false au proliferat este etica open-source a comunității dezvoltatorilor de tehnologie: de la lucrarea lui Goodfellow încoace, orice pas înainte făcut în cercetare este imediat disponibil la liber pe Internet pentru oricine vrea să-l descarce și să-l folosească.

Cum ne putem proteja?

Dat fiind că filmele false au la bază inteligența artificială, unii cercetători au căutat soluția tot în inteligența artificială, în încercarea de a construi un „virus” care să scoată din joc aplicațiile deepfake. Au fost elaborate programe sofisticate care au capacitatea de a detecta lumina, umbra, mișcările faciale și alte elemente care pot spune dacă un film este autentic sau nu. O altă soluție este suprapunerea unui filtru peste filmul original, astfel că acesta nu mai poate fi trucat.

Există câteva start-up-uri care furnizează soluții software de detectare a falsurilor, printre ele Truepic și Deeptrace, dar ele nu vor putea împiedica răspândirea pe termen lung a falsurilor. Specialiștii estimează că urmează un joc de-a șoarecele și pisica, în care progresele făcute în detectarea falsurilor vor fi contracarate de perfecționarea tehnologiei deepfake.

În 2018, cercetătorii de la Universitatea din Albany au descoperit că clipitul neregulat era un indiciu asupra faptului că un film era un fals. Câteva luni mai târziu, noile filme contrafăcute rezolvaseră această problemă. „Suntem depășiți. Numărul celor care lucrează la producerea de deepfake este de 100 de ori mai mare decât al celor care lucrează la detectarea lor”, spune profesorul Farid.

 Implicații legale

Pe lângă soluțiile pur tehnice, ce putem face din perspectivă legislativă, politică și socială pentru a ne proteja de pericolele deepfake? O soluție tentantă este să scoți în afara legii crearea și transmiterea de filme false. Statul California a experimentat această opțiune anul trecut, votând o lege care nu permitea să creezi sau să distribui filme contrafăcute despre un politician cu 60 de zile înainte de alegeri. Însă o interdicție generală are limite practice și constituționale. Primul Amendament al

Constituției SUA consfințește libertatea de exprimare. Orice lege care interzice difuzarea de conținut online, în mod specific de conținut politic, intră sub incidența Primului Amendament. Dincolo de chestiunile constituționale, interzicerea falsurilor va fi imposibil de pus în practică datorită anonimității și inexistenței limitelor pe Internet.

Alte căi legale care ar putea fi urmate pentru combaterea falsurilor sunt dreptul de autor, defăimarea și dreptul la publicitate. Dar, dată fiind larga aplicabilitate a doctrinei utilizării corecte, e posibil ca și aceste instrumente să aibă limite.
Pe termen scurt, cea mai eficientă soluție poate veni de la platforme precum Facebook, Google și Twitter, care să ia în mod voluntar o atitudine fermă pentru a limita distribuirea de conținut falsificat.

A lăsa rezolvarea unor probleme cu impact politic și social în sarcina unor companii private e pentru mulți cât se poate de inconfortabil. Cu toate acestea, acele acorduri referitoare la termenii de utilizare sunt cele mai importante documente care reglementează discursul digital de astăzi. Prin urmare, politicile de conținut ale acestor companii ar putea fi cel mai important mecanism de răspuns în lupta contra falsurilor.

O altă opțiune legală ar fi amendarea controversatei secțiuni 230 a legii privind decența comunicării. Elaborată în zorii Internetului comercial, secțiunea 230 oferă companiilor imunitate civilă aproape absolută în privința conținutului postat pe platformele lor de terțe entități. Mergând înapoi pe firul protecției, companii precum Facebook ar putea fi făcute responsabile pentru limitarea difuzării de conținut dăunător, însă o astfel de abordare ridică probleme legate de cenzură și îngrădire a libertății de exprimare.

Probabil că, în final, o singură măsură nu va fi suficientă. Dar un prim pas esențial este informarea publicului despre pericolul pe care îl reprezintă conținutul falsificat, fiindcă un cetățean informat se poate proteja mai ușor de eventualele tentative de manipulare.

Recentul val de știri false din perioada pandemiei a provocat teama că societatea se îndreaptă spre o lume post-adevăr. Conținutul falsificat poate impulsiona această tendință. Următoarea provocare majoră în materie de comunicare este aproape: alegerile din 2020. Nu există o miză mai mare.

„Omul din fața tancului în Piața Tiananmen a impresionat o lume întreagă. Convorbirile telefonice l-au costat funcția pe președintele Nixon. Imaginile cu ororile din lagărele de concentrare ne-au făcut într-un final, pe toți, să acționăm”, spune profesorul Nasir Memon de la Universitatea din New York. „Dacă nu poți crede ceea ce vezi, provocarea este uriașă. Va trebui să redăm credibilitatea lucrurilor pe care le vedem.”

Postează un comentariu

sau înregistrează-te pentru a adaugă un comentariu.

*

Comentarii

Nu există comentarii