Útskýrt: Hvers vegna er erfiðara að greina djúpfölsuð myndbönd og hverjar eru afleiðingarnar?
Hugsanleg hætta á djúpfalsunum liggur í þeirri staðreynd að aðferðin er svo fullkomin að það getur stundum verið ómögulegt að greina þær frá raunverulegum myndböndum. Og því erfiðara sem verður að greina fölsunina, því meiri ógn sem það býr yfir að líða út sem raunveruleg og valda þeim usla sem það ætlar sér.

Læknamyndbönd eða djúpfalsanir hafa verið eitt af lykilvopnunum sem notuð eru í áróðursbardögum í talsverðan tíma núna. Donald Trump að grínast Belgíu fyrir að vera áfram í Parísarsamkomulaginu, David Beckham talar reiprennandi á níu tungumálum, Mao Zedong syngur „I will survive“ eða Jeff Bezos og Elon Musk í tilraunaþætti af Star Trek… öll þessi myndbönd hafa farið eins og eldur í sinu þrátt fyrir að vera falsa, eða vegna þess að þeir voru deepfakes.
Þessi truflandi raunsæi djúpfalski setur Jeff Bezos og Elon Musk í Star Trek þátt https://t.co/5KxmHpo1WM mynd.twitter.com/CpWe91Qil0
— The Verge (@verge) 23. febrúar 2020
Á síðasta ári sagði Marco Rubio, öldungadeildarþingmaður repúblikana frá Flórída, að djúpfalsanir væru jafn öflugar og kjarnorkuvopn til að heyja stríð í lýðræðisríki. Í gamla daga, ef þú vildir ógna Bandaríkjunum, þurftir þú 10 flugmóðurskip, og kjarnorkuvopn og langdrægar eldflaugar. Í dag þarftu bara aðgang að internetkerfinu okkar, að bankakerfinu okkar, að rafmagnsnetinu okkar og innviðum, og í auknum mæli þarftu bara að geta búið til mjög raunhæft falsmyndband sem gæti grafið undan kosningum okkar, sem gæti kastað landinu okkar. inn í gríðarlega kreppu innra með sér og veikja okkur djúpt, Forbes vitnaði í hann.
Hugsanleg hætta á djúpfalsunum liggur í þeirri staðreynd að aðferðin er svo fullkomin að það getur stundum verið ómögulegt að greina þær frá raunverulegum myndböndum. Og því erfiðara sem verður að greina fölsunina, því meiri ógn sem það býr yfir að líða út sem raunveruleg og valda þeim usla sem það ætlar sér. En með flóknari verkfærum knúin af gervigreind sem eru tiltæk núna til að framleiða þessi myndbönd, er það að verða erfiðara að greina djúpfalsanir?
Hvað eru djúpfalsanir og hvernig verða þær til?
Djúpfalsanir eru falsað efni - oft í formi myndbanda en einnig í öðrum miðlunarsniðum eins og myndum eða hljóði - búið til með öflugum gervigreindarverkfærum. Þeir eru kallaðir djúpfölsun vegna þess að þeir nota djúpnámstækni, grein vélanáms sem beitir tauganethermi á gríðarstór gagnasöfn, til að búa til falsað efni.
Það notar grein gervigreindar þar sem ef tölva fær nóg af gögnum getur hún búið til falsanir sem hegða sér svipað og raunveruleg manneskja. Til dæmis getur gervigreind lært hvernig upprunaandlit lítur út og síðan yfirfært það á annað skotmark til að framkvæma andlitsskipti.
Notkun tækni sem kallast Generative Adversarial Networks (GAN), sem notar tvö gervigreind reiknirit - þar sem annað býr til falsað efni og hitt gefur viðleitni þess, kennir kerfinu að vera betra - hefur hjálpað til við að finna nákvæmari djúpfalsanir.
GAN getur líka komið með tölvugerðar myndir af fölsuðum manneskjum, sem hefur verið notað af vefsíðu sem heitir „Þessi manneskja er ekki til“. Þetta gerir það nánast ómögulegt að greina hvort myndböndin eða myndirnar sem við sjáum á netinu eru raunverulegar eða fölsaðar.
Mjög erfitt getur verið að greina djúpfalsa. Til dæmis höfðu margir fallið fyrir Tiktok myndböndum af Tom Cruise að spila golf sem síðar kom í ljós að voru djúpfalsanir.
Er að verða erfiðara að greina djúpfalsa?
Erindi sem kynnt var á vetrarráðstefnunni um notkun tölvusjónar 2021 lýsir nýrri tækni sem gerir djúpfalsanir pottþéttari, sem gerir hefðbundnum verkfærum erfitt fyrir að greina þær.
Rannsóknin, undir forystu Paarth Neekhara og Shehzeen Samarah Hussain, báðar doktorsnemar við háskólann í Kaliforníu í San Diego, komst að því að hægt er að blekkja uppgötvunartækin með því að setja örlítið hagnýtt inntak sem kallast andstæð dæmi í hvern myndbandsramma.

Auðvelt er að komast framhjá núverandi nýjustu aðferðum til að greina djúpfölsun ef andstæðingurinn hefur fulla eða jafnvel að hluta þekkingu á skynjaranum, segir í blaðinu sem ber titilinn „Andstæðar djúpfalsanir: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples“.
Í samtali við indianexpress.com sögðu Neekhara og Hussain að stöðluðu uppgötvunaraðferðirnar gætu verið langt frá því að vera pottþéttar vegna þess að þær eru ekki tryggðar til að greina nýlegri djúpfölsuð myndbönd sem eru unnin með nýjum aðferðum sem eru ekki í gagnasafninu og þær eru viðkvæmar fyrir andstæðingum.
TAKTU ÞÁTT NÚNA :The Express Explained Telegram ChannelAndstæð inntak eru lítillega breytt inntak þannig að þau valda mistökum í djúpt taugakerfi. Sýnt hefur verið fram á að djúp tauganet eru viðkvæm fyrir slíkum inntakum sem geta valdið því að úttak flokkarans breytist. Í vinnu okkar sýnum við að árásarmaður getur breytt hverjum ramma örlítið í djúpfölsuðu myndbandi þannig að það geti farið framhjá djúpfölsunarskynjara og flokkast sem raunverulegt, sögðu þeir.

Þeir bættu við: Árásarmaðurinn getur búið til litla ómerkjanlega andstæðingstruflun fyrir hvern ramma af djúpfalsuðu myndbandi, bætt því við rammann og síðan sameinað alla myndbandsrammana saman til að búa til andstæðingsmyndbandið. Í tilraunum okkar með þessum aðferðum tókst okkur að ná árangri (að blekkja skynjarann) sem var meira en 90%.
Hvaða ógnir stafar af djúpfölsuðum myndböndum?
Með útbreiðslu djúpfalsaðra myndbanda eru vaxandi áhyggjur af því að þau verði vopnuð til að keyra pólitískar herferðir og geti verið nýtt af einræðisstjórnum.
Árið 2019 bjuggu rannsóknarstofnun sem kallast Future Advocacy og UK Artist Bill Posters til myndband af Boris Johnson, forsætisráðherra Bretlands, og Jeremy Corbyn, leiðtoga Verkamannaflokksins, styðja hvort annað í embætti forsætisráðherra. Hópurinn sagði að myndbandið væri búið til til að sýna möguleika djúpfalsa til að grafa undan lýðræði.
Á síðasta ári, fyrir skoðanakannanir í Delí þinginu, fóru myndbönd af Manoj Tiwari, forseta Delhi BJP, tala á ensku og Haryanvi, á netið. Í þessum myndböndum sást Tiwari gagnrýna Arvind Kejriwal og biðja fólk um að kjósa BJP. Vídeóunum, sem var deilt í yfir 5.000 WhatsApp hópum, kom síðar í ljós að voru djúpfölsuð, sagði stafræna fjölmiðlafyrirtækið Vice.
Djúpfalsar eru einnig áhyggjuefni á sama tíma og WHO hefur lýst því yfir að Covid-19 kreppan hafi hrundið af stað upplýsingadreifingu og vísvitandi tilraunir hafa verið gerðar til að dreifa röngum upplýsingum til að grafa undan lýðheilsuviðbrögðum og efla aðra dagskrá hópa eða einstaklinga.
Þar að auki eru læknuð myndbönd - sem fela í sér að vinna með innihaldið með því að nota rangan dagsetningarstimpil eða staðsetningu, klippa efni til að breyta samhenginu, sleppa, skeyta og tilbúningur - í auknum mæli notuð nú á dögum á samfélagsmiðlum til að rangfæra staðreyndir vísvitandi í pólitískum tilgangi. Flest þessara myndbanda eru ekki dæmi um djúpfalsanir en sýna hversu auðvelt það getur verið að rugla saman staðreyndum og dreifa lygum sem byggjast á meðhöndluðu efni sem líkist hörðum sönnunargögnum.
Wombo AI er villt mynd.twitter.com/YIaFcRreGG
- Jack Posobiec (@JackPosobiec) 10. mars 2021
Önnur stóra áhyggjuefnið varðandi djúpfölsuð myndbönd er myndun klámefnis án samþykkis. Árið 2017 notaði notandi reiknirit til að skipta um andlit til að búa til djúpfölsuð klámmyndbönd af frægum eins og Scarlett Johansson, Gal Gadot, Kristen Bell og Michelle Obama og deildi þeim á Reddit-ógn sem kallast r/deepfake. Reikningurinn var með tæplega 90.000 áskrifendur þegar hann var tekinn niður í febrúar á næsta ári.
Af þúsundum djúpfalsa myndbanda á netinu eru meira en 90% klám án samþykkis. Ein skelfilegasta gervigreindartilraunin á síðasta ári var app sem heitir DeepNude sem afklæddi myndir af konum - það gat tekið ljósmyndir og síðan skipt út fötum kvenna fyrir mjög raunsæjan nakinn líkama. Appið var tekið niður eftir mikið bakslag.
Eins og víða er greint frá eru djúpfölsuð myndbönd notuð í auknum mæli til að búa til hefndarklám af forlátum elskendum til að áreita konur.
Ógnin sem stafar af Deepfake myndböndum er þegar augljós, sögðu Neekhara og Hussain við indianexpress.com. Það eru illgjarnir notendur sem nota slík myndbönd til að rægja fræga persónuleika, dreifa óupplýsingum, hafa áhrif á kosningar og skauta fólk. Með sannfærandi og aðgengilegri aðferðum við djúpgervi myndbandsmyndun hefur þessi ógn orðið enn stærri að stærð, bættu þeir við.
Er aðgerðir í vændum?
Flest samfélagsmiðlafyrirtæki eins og Facebook og Twitter hafa bannað djúpfölsuð myndbönd. Þeir hafa sagt að um leið og þeir uppgötva eitthvað myndband sem djúpfalsun, þá verði það tekið niður.
Facebook hefur ráðið vísindamenn frá Berkeley, Oxford og öðrum stofnunum til að smíða djúpfalsa skynjara. Árið 2019 hélt það Deepfake Detection Challenge í samstarfi við leiðtoga iðnaðarins og fræðilega sérfræðinga þar sem einstakt gagnasafn sem samanstóð af meira en 100.000 myndböndum var búið til og deilt.
Hins vegar er ekki hægt að greina allar djúpfalsanir nákvæmlega og það getur líka tekið töluverðan tíma að finna þær og fjarlægja þær. Þar að auki hafa margar klámsíður ekki sömu takmarkanir.
Neekhara og Hussain sögðu: Til að greina djúpfölsuð myndbönd með nákvæmari hætti þurfum við andstæð líkön með því að setja inn árásarmann á meðan við þjálfum slík líkön fyrir djúpfölsun. Langtímalausn er vatnsmerki eða stafræn undirskrift á myndunum og myndskeiðunum úr tækinu sem þau eru tekin. Vatnsmerkið eða stafræna undirskriftin ætti að raskast ef djúpfalsunaraðferðum eins og andlitsskiptum er beitt. Djúpfalsskynjari getur þá bara staðfest undirskriftina eða vatnsmerkið. Hins vegar myndi þetta krefjast þess að setja vatnsmerkisstaðal fyrir allar myndavélar og farsíma. Því getur liðið langur tími þar til þetta verður að veruleika.
Deildu Með Vinum Þínum: