INHOUDSOPGAWE:

Diep vervalsings: Neuroset is geleer om klank- en video-vals te genereer
Diep vervalsings: Neuroset is geleer om klank- en video-vals te genereer

Video: Diep vervalsings: Neuroset is geleer om klank- en video-vals te genereer

Video: Diep vervalsings: Neuroset is geleer om klank- en video-vals te genereer
Video: Singapore’s Bold Plan to Build the Farms of the Future 2024, Mei
Anonim

Om 'n "individuele" nuusprentjie vir enigeen van ons te skep en die mediaberigte wat daarin geselekteer is te vervals, is die pogings van een programmeerder vandag genoeg. Spesialiste in kunsmatige intelligensie en kuberveiligheid het vir Izvestia hiervan vertel.

Meer onlangs het hulle geskat dat dit die werk van verskeie spanne vereis. Sulke versnelling het moontlik geword met die ontwikkeling van tegnologieë vir aanvalle op neurale netwerke en die generering van oudio- en video-vervalsings met behulp van programme om "diep vervalsings" te skep. Die koerant Izvestia is onlangs aan 'n soortgelyke aanval onderwerp, toe drie Libiese nuusportale op een slag 'n boodskap gepubliseer het wat na bewering in een van die uitgawes verskyn het. Volgens kenners kan ons binne 3-5 jaar 'n inval van robotmanipuleerders verwag, wat outomaties baie vervalsings sal kan skep.

Dapper nuwe wêreld

Daar is al hoe meer projekte wat die inligtingprentjie aanpas by die persepsie van spesifieke gebruikers. Een voorbeeld van hul werk was die onlangse optrede van drie Libiese portale, wat 'n nuus gepubliseer het wat na bewering in die uitgawe van Izvestia op 20 November gepubliseer is. Die skeppers van die vals het die voorblad van die koerant gewysig en 'n boodskap daarop geplaas oor die onderhandelinge tussen veldmaarskalk Khalifa Haftar en die eerste minister van die regering van nasionale akkoord (PNS) Fayez Sarraj. Die vervalsing, in Izvestia-lettertipe, is vergesel van 'n foto van die twee leiers wat in Mei 2017 geneem is. Die etiket met die publikasie se logo is uit die werklike gepubliseerde uitgawe van 20 November gesny, en alle ander tekste op die bladsy uit die 23 Oktober-uitgawe.

Uit die oogpunt van spesialiste kan sulke vervalsings in die afsienbare toekoms outomaties gedoen word.

The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals
The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals

"Kunsmatige intelligensie-tegnologieë is nou heeltemal oop, en toestelle vir die ontvang en verwerking van data word geminiaturiseer en word goedkoper," Yuri Vilsiter, Doktor in Fisiese en Wiskundige Wetenskappe, Professor van die Russiese Akademie van Wetenskappe, hoof van die FSUE "GosNIIAS" departement, vir Izvestia gesê. - Daarom is dit hoogs waarskynlik dat in die nabye toekoms nie eers die staat en groot korporasies nie, maar bloot privaat individue ons sal kan afluister en spioeneer, asook die werklikheid sal kan manipuleer. In die komende jare sal dit moontlik wees om hom deur middel van nuusfeeds en baie slim vervalsings te beïnvloed deur gebruikersvoorkeure te ontleed.

Volgens Yuri Vilsiter bestaan daar reeds tegnologieë wat vir so 'n ingryping in die geestelike omgewing gebruik kan word. In teorie kan die inval van robotbots oor 'n paar jaar verwag word, het hy gesê. 'n Beperkende punt hier kan die behoefte wees om groot databasisse van voorbeelde van werklike mense se reaksies op kunsmatige stimuli te versamel met die dop van langtermyngevolge. Sulke opsporing sal waarskynlik nog 'n paar jaar se navorsing verg voordat geteikende aanvalle konsekwent verkry word.

Visie aanval

Alexey Parfentiev, hoof van die ontledingsafdeling by SearchInform, stem ook saam met Yuri Vilsiter. Volgens hom voorspel kenners reeds aanvalle op neurale netwerke, hoewel daar nou feitlik geen sulke voorbeelde is nie.

– Navorsers van Gartner glo dat 30% van alle kuberaanvalle teen 2022 daarop gemik sal wees om die data waarop die neurale netwerk opgelei is, te korrupteer en klaargemaakte masjienleermodelle te steel. Dan kan onbemande voertuie byvoorbeeld skielik begin om voetgangers vir ander voorwerpe te mis. En ons sal nie praat oor finansiële of reputasierisiko nie, maar oor die lewe en gesondheid van gewone mense, meen die kenner.

Aanvalle op rekenaarvisiestelsels word nou as deel van navorsing uitgevoer. Die doel van sulke aanvalle is om die neurale netwerk iets in die beeld te laat opspoor wat nie daar is nie. Of omgekeerd, om nie te sien wat beplan is nie.

The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals
The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals

"Een van die aktief ontwikkelende onderwerpe op die gebied van opleiding van neurale netwerke is die sogenaamde teenstrydige aanvalle ("teenstandige aanvalle. "- Izvestia)," verduidelik Vladislav Tushkanov, 'n webontleder by Kaspersky Lab. - In die meeste gevalle is hulle gemik op rekenaarvisiestelsels. Om so 'n aanval uit te voer, moet jy in die meeste gevalle volle toegang hê tot die neurale netwerk (die sogenaamde witboksaanvalle) of die resultate van sy werk (swartboksaanvalle). Daar is geen metodes wat enige rekenaarvisiestelsel in 100% van gevalle kan mislei nie. Daarbenewens is gereedskap reeds geskep wat jou toelaat om neurale netwerke te toets vir weerstand teen teenstrydige aanvalle en hul weerstand te verhoog.

In die loop van so 'n aanval probeer die aanvaller om die herkende beeld op een of ander manier te verander sodat die neurale netwerk nie werk nie. Geraas word dikwels op die foto geplaas, soortgelyk aan dié wat voorkom wanneer jy in 'n swak beligte kamer fotografeer. 'n Persoon merk gewoonlik nie sulke inmenging goed op nie, maar die neurale netwerk begin wanfunksioneer. Maar om so 'n aanval uit te voer, het die aanvaller toegang tot die algoritme nodig.

Volgens Stanislav Ashmanov, hoofdirekteur van Neuroset Ashmanov, is daar tans geen metodes om hierdie probleem te hanteer nie. Boonop is hierdie tegnologie vir enigiemand beskikbaar: 'n gemiddelde programmeerder kan dit gebruik deur die nodige oopbronsagteware van die Github-diens af te laai.

The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals
The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals

- 'n Aanval op 'n neurale netwerk is 'n tegniek en algoritmes om 'n neurale netwerk te mislei, wat maak dat dit vals resultate lewer, en dit eintlik soos 'n deurslot breek, - meen Ashmanov. - Byvoorbeeld, nou is dit redelik maklik om die gesigherkenningstelsel te laat dink dat dit nie jy is nie, maar Arnold Schwarzenegger voor dit - dit word gedoen deur bymiddels wat vir die menslike oog onmerkbaar is, te meng in die data wat na die neurale netwerk kom. Dieselfde aanvalle is moontlik vir spraakherkenning en ontledingstelsels.

Die kenner is seker dat dit net erger sal word - hierdie tegnologieë het na die massas gegaan, bedrieërs gebruik dit reeds, en daar is geen beskerming daarteen nie. Aangesien daar geen beskerming teen die outomatiese skepping van video- en oudio-vervalsings is nie.

Diep namaaksels

Deepfake-tegnologieë gebaseer op Deep Learning (tegnologieë van diep leer van neurale netwerke. - Izvestia) hou reeds 'n werklike bedreiging in. Video- of oudio-vervalsings word geskep deur die gesigte van bekende mense wat kwansuis die nodige teks uitspreek en die nodige rol in die intrige speel, te redigeer of oor te lê.

"Deepfake laat jou toe om lipbewegings en menslike spraak te vervang met video, wat 'n gevoel van realisme skep van wat gebeur," sê Andrey Busargin, direkteur van die departement vir innoverende handelsmerkbeskerming en intellektuele eiendom by Group-IB. - Valse bekendes "bied" gebruikers op sosiale netwerke om deel te neem aan die trekking van waardevolle pryse (slimfone, motors, bedrae geld), ens. Skakels van sulke videopublikasies lei dikwels tot bedrieglike en uitvissingwebwerwe, waar gebruikers gevra word om persoonlike inligting, insluitend bankkaartbesonderhede, in te voer. Sulke skemas hou 'n bedreiging in vir beide gewone gebruikers en openbare figure wat in advertensies genoem word. Hierdie soort bedrogspul begin om bekende beelde met swendelary of geadverteerde goedere te assosieer, en dit is waar ons persoonlike handelsmerkskade raakloop, sê hy.

The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals
The Truman Show - 2019: Hoe neurale netwerke geleer word om die nuusprent te vervals

Nog 'n bedreiging word geassosieer met die gebruik van "vals stemme" vir telefoonbedrog. Byvoorbeeld, in Duitsland het kubermisdadigers stemvervalsing gebruik om die hoof van 'n filiaal van die VK dringend € 220 000 in 'n telefoongesprek oor te dra, en hulle voorgedoen as 'n maatskappybestuurder.in die rekening van 'n Hongaarse verskaffer. Die hoof van die Britse firma het 'n truuk vermoed toe sy "baas" vir 'n tweede poswissel gevra het, maar die oproep het van 'n Oostenrykse nommer gekom. Teen hierdie tyd was die eerste gedeelte reeds oorgeplaas na 'n rekening in Hongarye, vanwaar die geld na Mexiko onttrek is.

Dit blyk dat huidige tegnologie jou toelaat om 'n individuele nuusprentjie vol vals nuus te skep. Boonop sal dit binnekort moontlik wees om vervalsings van regte video en klank slegs deur hardeware te onderskei. Volgens kenners is dit onwaarskynlik dat maatreëls wat die ontwikkeling van neurale netwerke verbied, effektief sal wees. Daarom sal ons binnekort in 'n wêreld leef waarin dit nodig sal wees om voortdurend alles weer na te gaan.

"Ons moet voorberei hiervoor, en dit moet aanvaar word," beklemtoon Yuri Vilsiter. - Die mensdom is nie die eerste keer wat van een werklikheid na 'n ander oorgaan nie. Ons wêreld, lewenswyse en waardes verskil radikaal van die wêreld waarin ons voorouers 60 000 jaar gelede, 5 000 jaar gelede, 2 000 jaar gelede en selfs 200-100 jaar gelede geleef het. In die nabye toekoms sal 'n persoon grootliks van privaatheid ontneem word en dus gedwing word om niks weg te steek nie en eerlik op te tree. Terselfdertyd kan niks in die omringende werklikheid en in die eie persoonlikheid op geloof geneem word nie, alles sal bevraagteken en voortdurend herkontroleer moet word. Maar sal hierdie toekomstige werklikheid erg wees? Geen. Dit sal eenvoudig heeltemal anders wees.

Aanbeveel: