Umetna inteligenca, globoke ponaredke in negotova prihodnost resnice

Deepfakes so videoposnetki, ki so bili narejeni tako, da se zdi, da oseba govori ali naredi nekaj, česar nikoli ni rekla ali naredila. Ker metode za ustvarjanje globokih ponaredkov, ki temeljijo na umetni inteligenci, postajajo vse bolj izpopolnjene in dostopne, deepfakes sprožajo vrsto zahtevnih političnih, tehnoloških in pravnih vprašanj.



najsvetlejša zvezda na nebu danes

Deepfakes se lahko uporabljajo na načine, ki so zelo moteči. Kandidati v politični kampanji so lahko tarča zmanipuliranih videoposnetkov, v katerih se zdi, da govorijo stvari, ki bi lahko škodile njihovim možnostim za izvolitev. Deepfakes se uporabljajo tudi za umestitev ljudi v pornografske videoposnetke, pri katerih dejansko niso sodelovali.

Ker so tako realistične, lahko globoke ponaredke motijo ​​naše razumevanje resnice na več načinov. Z izkoriščanjem naše nagnjenosti k zaupanju v zanesljivost dokazov, ki jih vidimo na lastne oči, lahko fikcijo spremenijo v navidezno dejstvo. In ko postajamo bolj naravnani na obstoj globokih ponaredkov, obstaja tudi naknadni, posledica učinka: spodkopavajo naše zaupanje v vse videoposnetke, vključno s tistimi, ki so pristni. Resnica sama postane izmuzljiva, saj ne moremo biti več prepričani, kaj je resnično in kaj ne.





Kaj je mogoče storiti? Ni popolne rešitve, vendar obstajajo vsaj tri poti, ki jih je mogoče uporabiti za obravnavo globokih ponaredkov: tehnologija, pravna sredstva in izboljšana ozaveščenost javnosti.

Deepfake Detection Technology

Medtem ko se lahko AI uporablja za izdelavo globokih ponaredkov, se lahko uporablja tudi za njihovo odkrivanje. Ustvarjanje globokega ponaredka vključuje manipulacijo video podatkov – postopek, ki pušča opozorilne znake, ki jih človeški gledalec morda ne bo opazil, vendar jih lahko prepoznajo dovolj izpopolnjeni algoritmi za odkrivanje.



Kot raziskavo, ki jo je vodil profesor Siwei Lyu z univerze v Albanyju je pokazal , zamenjava obraza (urejanje obraza ene osebe na glavo druge osebe) ustvarja nedoslednosti ločljivosti v sestavljeni sliki, ki jih je mogoče prepoznati s tehnikami globokega učenja. Profesor Edward Delp in njegovi sodelavci na univerzi Purdue uporabljajo nevronske mreže za odkrivanje nedoslednosti čez več okvirjev v video sekvenci, ki je pogosto posledica zamenjave obrazov. Skupina, ki vključuje raziskovalce iz UC Riverside in UC Santa Barbara, je razvila metode za odkrivanje digitalne manipulacije kot so skaliranje, vrtenje ali spajanje, ki se običajno uporabljajo pri globokih ponaredkih.

Število raziskovalcev, ki se osredotočajo na odkrivanje globokih ponaredkov, narašča, v veliki meri zahvaljujoč DARPA Medijska forenzika program, ki podpira razvoj tehnologij za avtomatsko oceno celovitosti slike ali videa. Vendar ne glede na to, kako daleč napredujejo tehnološki pristopi za boj proti globokim ponaredkom, bodo izzivi ostali.

Tehnike zaznavanja Deepfake nikoli ne bodo popolne. Posledično bodo v oboroževalni tekmi z globokimi ponaredki tudi najboljše metode odkrivanja pogosto zaostajale za najnaprednejšimi metodami ustvarjanja. Drug izziv je, da tehnološke rešitve ne bodo imele vpliva, če se ne bodo uporabljale. Glede na porazdeljeno naravo sodobnega ekosistema za izmenjavo vsebin na internetu bodo nekateri globoki ponaredki neizogibno dosegli ciljno občinstvo, ne da bi šli skozi programsko opremo za odkrivanje.

Bolj bistveno, ali bodo ljudje bolj verjetno verjeli globokemu ponaredku ali algoritmu za odkrivanje, ki videoposnetek označi kot izmišljen? In kaj naj ljudje verjamejo, ko različni algoritmi za odkrivanje – ali različni ljudje – izdajo nasprotujoče si sodbe glede tega, ali je videoposnetek pristen?

Pravna in zakonodajna sredstva

Pravna pokrajina, povezana z globokimi ponaredki, je zapletena. Okvirji, ki jih je mogoče uveljavljati za boj proti globokim ponaredkom, vključujejo avtorske pravice, pravico do obveščanja, razdelek 43(a) Lanhamovega zakona in škode zaradi obrekovanja, lažne luči in namernega povzročanja čustvene stiske. Na drugi strani knjige so zaščite, ki jih zagotavljata prva sprememba in poštena uporaba doktrina prava avtorskih pravic, kot tudi (za storitve socialnih omrežij in druga spletna mesta, ki gostijo vsebino tretjih oseb) 230. člen zakona o komunikacijski spodobnosti (CDA).

Sodiščem ne bo lahko najti pravo ravnovesje. Odločitve, ki ljudem, ki so tarče globokih ponaredkov, zagotavljajo preširoko zaščito, tvegajo, da bodo v nasprotju s prvim amandmajem in bodo v pritožbi zavrnjene. Odločitve, ki ne ščitijo dovolj globokih ponaredkov, bi lahko pustile ljudi brez mehanizma za boj proti globokim ponaredkom, ki bi lahko bili izjemno škodljivi. Poskusi oslabitve oddelka 230 CDA v imenu obravnavanja grožnje, ki jo predstavljajo globoke ponaredke, bi ustvarili celo kaskado nenamernih in škodljivih posledic za spletni ekosistem.

Čeprav je treba še videti, kako se bodo te napetosti odvijale na sodiščih, sta danes jasni dve stvari: prvič, že obstaja več vsebinskih pravnih sredstev, ki jih je mogoče uporabiti proti globokim ponaredkom, in drugič, veliko je prezgodaj sklepati, da bodo premalo.

Kljub temu se zvezni in državni zakonodajalci, ki so pod pritiskom, da nekaj storijo glede globokih ponaredkov, odzovejo z novimi zakonodajnimi predlogi. Vendar je zelo težko pripraviti zakonodajo, specifično za globoke ponaredke, ki ni problematična v zvezi s prvim amandmajem ali odveč glede na obstoječe zakone.

Na primer (zdaj potekel) senatni zakon S.3805 uveden decembra 2018, bi med drugim pomenilo nezakonito uporabo kakršnih koli sredstev ali sredstev meddržavne ali tuje trgovine z namenom distribucije globokega ponaredka z namenom, da bi distribucija globokega ponaredka olajšala kriminal ali odškodninsko ravnanje po zvezni, državni, lokalni ali plemenski zakonodaji. Pisanje v zaroti Volokh glede S.3805, profesor prava USC Orin Kerr opazil to :

Zagrešiti kaznivo dejanje po zvezni, državni, lokalni ali plemenski zakonodaji je že kaznivo. Tudi 'olajšati' zločin je že kaznivo - glej 18 U.S.C. § 2 na zvezni ravni, državni zakoni pa imajo enakovredne. Poleg tega je kaznivo dejanje že kaznivo dejanje po zvezni, državni, lokalni ali plemenski zakonodaji. Ta novi predlagani zakon nato razglasi za zvezno kaznivo dejanje ustvarjanje ali distribucijo globokega ponaredka, kadar ima oseba namen narediti stvar, ki je že prepovedana. Dejansko večinoma dodaja kladivo zveznega kazenskega prava ravnanju, ki je že prepovedano in bi lahko že vodilo do kazenske kazni ali civilne tožbe.

Državni zakonodajalci v New Yorku so razmislili račun ki bi prepovedal določene uporabe digitalne replike osebe in določal, da je za namene pravice do javnosti osebnost živega ali umrlega posameznika osebna last. Ni presenetljivo, da je to sprožilo zaskrbljenost v zabavni industriji. Kot pismo od podpredsednika za odnose z vlado družbe Walt Disney Company je izjavil, da bi ta zakonodaja, če bo sprejeta, posegla v pravico in zmožnost podjetij, kot je naše, da pripovedujejo zgodbe o resničnih ljudeh in dogodkih. Javnost ima interes za te zgodbe in prvi amandma ščiti tiste, ki jih pripovedujejo.

Osveščanje javnosti

Na koncu dneva tehnološke rešitve za odkrivanje globokih ponaredkov, ne glede na to, kako dobre so, ne bodo preprečile distribucije vseh globokih ponaredkov. Pravna sredstva, ne glede na to, kako učinkovita so, se običajno uporabljajo po dejstvu. To pomeni, da bodo imeli omejeno uporabnost pri obravnavanju potencialne škode, ki jo lahko povzročijo globoke ponaredke, zlasti glede na kratke časovne okvire, ki so značilni za ustvarjanje, distribucijo in porabo digitalnih medijev.

Zaradi tega mora biti izboljšana ozaveščenost javnosti dodaten vidik strategije za boj proti globokim ponaredkom. Ko vidimo videoposnetke, ki prikazujejo neskladno vedenje, bo pomembno, da ne domnevamo takoj, da so prikazana dejanja resnična. Ko je objavljen odmeven domnevno ponarejen videoposnetek, bo običajno v nekaj dneh ali celo urah mogoče vedeti, ali obstajajo zanesljivi dokazi, da je bil izmišljen. To znanje ne bo ustavilo globokih ponaredkov, lahko pa zagotovo pomaga ublažiti njihov vpliv.