Tartalomjegyzék:
- Hogyan készülnek a mélyfajok?
A mélyfajok következményei- Nem minden mélységben van rossz
A mélyfajú videók felismerése- Vigyázz a mélységre
Videó: BLACKPINK - ‘마지막처럼 (AS IF IT’S YOUR LAST)’ DANCE PRACTICE VIDEO (November 2024)
Amikor elindulunk a következő elnökválasztási kampányszakaszhoz, el kell vigyázniuk a potenciális veszélyekre, amelyeket a hamis online videók a mesterséges intelligencia (AI) és a gépi tanulás (ML) használatával járnak. Az AI szoftver használatával az emberek létrehozhatnak deepfake (röviden a "mély tanulás és hamis") videókat, amelyekben az ML algoritmusokat használják egy arccsere végrehajtására, annak illúziójának megteremtésére, hogy valaki vagy valamit mondott, amit nem mondtak, vagy valaki, akit " újra nem. A mélyfake-videók különféle színtéren jelennek meg, a szórakoztatástól a politikáig és a vállalati világig. Nemcsak a mélyfajta videók méltánytalanul befolyásolhatják a választásokat hamis üzenetekkel, hanem személyes zavarral vagy megtévesztő márkaüzenetekkel is járhatnak, ha mondjuk, hogy egy vezérigazgatónak mutatnak be olyan terméket, amely bejelenti a termék bevezetését vagy akvizíciót, amely valójában nem történt meg.
A mélyfajok az AI "Generatív Versenytárs Hálózatok" vagy GAN-ek kategóriájának részét képezik, amelyben két neurális hálózat versenyben áll, hogy valósnak tűnő fényképeket vagy videókat hozzon létre. A GAN egy generátorból áll, amely új adatkészletet hoz létre, mint például egy hamis videó, és egy megkülönböztetőből, amely egy ML algoritmust használ a valódi videó adatainak szintetizálására és összehasonlítására. A generátor továbbra is megpróbálja szintetizálni a hamis videót a régivel, amíg a megkülönböztető nem tudja megmondani, hogy az adatok újak-e.
Ahogyan Steve Grobman, a McAfee alelnöke és technológiai vezetője (CTO) rámutatott a 2019 márciusában, San Franciscóban megrendezésre kerülő RSA konferencián, a hamis fényképek már a fényképezés feltalálása óta vannak. Azt mondta, hogy a fényképek megváltoztatása olyan egyszerű feladat, amelyet végrehajthat egy olyan alkalmazásban, mint az Adobe Photoshop. Most azonban az ilyen típusú fejlett szerkesztési képességek is bekerülnek a videóba, és nagy képességű és könnyen hozzáférhető szoftveres eszközökkel csinálják.
Hogyan készülnek a mélyfajok?
Noha az AI fogalmainak megértése hasznos, nem szükséges adattudónak lenni, hogy mélyfajta videót készítsen. Grobman szerint csupán online utasításokat kell követnie. A 2019-es RSA konferencián (lásd a fenti videót) mélyfajta videót mutatott be Dr. Celeste Fralick, a McAfee adatmérnök és vezető mérnök vezetőjével együtt. A mélyfake videó szemlélteti a technológia fenyegetését. Grobman és Fralick megmutatta, hogy egy köztisztviselő egy olyan videóban, amelyben valami veszélyeset mond, megtévesztheti a nyilvánosságot abban, hogy az üzenet valódi legyen.
Videóik elkészítéséhez Grobman és Fralick letöltött deepfake szoftvert. Ezután egy videót készítettek arról, hogy Grobman az Egyesült Államok Szenátusa előtt tanúskodik 2017-ben, és Fralick szája egymásra helyezte a Grobmanét.
"A szabadon elérhető nyilvános megjegyzéseket felhasználtam egy ML-modell létrehozására és kiképzésére; ez lehetővé tette egy mélyfajta videó kifejlesztését, a szavakkal a szájból" - mondta Fralick a színpadon az RSA közönségének. Fralick folytatta, hogy a mélyfajta videókat társadalmi kizsákmányolásra és információs háborúra lehet használni.
A mélyfake videó elkészítéséhez Grobman és Fralick egy Reddit felhasználó által kifejlesztett FakeApp nevű eszközt használt, amely ML algoritmusokat és fényképeket alkalmaz a videók arcainak cseréjére. Az RSA előadásuk során Grobman elmagyarázta a következő lépéseket. "A videókat álló képekre osztottuk, kibontottuk az arcokat, és szétválogatva tisztítottuk őket és Instagram-ban megtisztítottuk őket."
A Python szkriptek lehetővé tették a McAfee csapat számára, hogy szájmozgásokat építsen fel, hogy Fralick beszéde megegyezzen Grobman szájával. Aztán meg kellett írni egyéni szkripteket. Meggyőző mélyfaj létrehozásakor az a kihívás, amikor a jellemzők, mint a nem, az életkor és a bőrárnyalat nem egyeznek meg - mondta Grobman.
Ő és Fralick ezután egy végleges AI algoritmust használtak, hogy összevegyék Grobman képeit, amelyek a Szenátus elõtt tanúskodnak Fralick beszédével. Grobman hozzátette, hogy ezeknek az ML algoritmusoknak a kiképzése 12 órát vett igénybe.
McAfee körvonalazta a 2019. évi RSA konferencián bemutatott mélyfajta videó létrehozásához szükséges lépéseket. A FakeApp nevû deepfake szoftvert és az ML modellek kiképzését használta a Grobman videóinak megváltoztatására Fralick beszédével. (Kép jóváírása: McAfee).
A mélyfajok következményei
A hackerek által készített mélyfake-videók sok problémát okozhatnak - mindezt kezdve a hamis dezinformációt terjesztő kormányzati tisztviselőktől kezdve a hírességekig, akiket zavarba ejtik azok a videók, amelyekben valójában nem szerepeltek, és a versenytársak tőzsdei állásait károsító társaságok. Tudatában ezeknek a problémáknak, a törvényhozók szeptemberben levelet küldtek Daniel Coatsnak, az USA Nemzeti Hírszerző Igazgatójának, hogy kérjék a mélysugárzások által fenyegető veszély felülvizsgálatát. A levél figyelmeztette, hogy az olyan országok, mint Oroszország, felhasználhatják a közösségi médiában elhangzott hamis információkat a hamis információk terjesztésére. Decemberben a törvényhozók bevezették a 2018. évi rosszindulatú mélyhamisítás tilalmát a csalások betiltására az „audiovizuális nyilvántartások” kapcsán, amelyek mélyfajokra utalnak. Még nem látni kell, hogy a számla elmúlik-e.
Mint említettem, a hírességek zavarba kerülhetnek olyan videók miatt, amelyekben arcukat a pornósztárok arca felett helyezték el, mint Gal Gadot esetében. Vagy képzelje el, hogy egy vezérigazgató állítólag bejelenti a termékhíreket és elpusztítja egy vállalat készleteit. A biztonsági szakemberek felhasználhatják az ML-t az ilyen típusú támadások felismerésére, de ha nem észlelik őket időben, felesleges károkat okozhatnak egy országnak vagy márkának.
"A mélyfajta esetén, ha tudod, mit csinálsz, és tudod, hogy kit célozzon meg, igazán előállíthat egy meggyőző videót, amely sok kárt okoz a márka számára" - mondta Dr. Chase Cunningham, a Forrester Research fő elemzője.. Hozzátette, hogy ha ezeket az üzeneteket terjeszti a LinkedIn-en vagy a Twitter-en, vagy bot-űrlapot használ, "egy idő alatt sok erőfeszítés nélkül összecsavarhatja egy társaság részvényeit a teljes hamis videó alapján".
A mélyfake videókon keresztül a fogyasztókat becsaphatják abban, hogy azt hitték, hogy egy termék valamit megtehet, amit nem tud. Cunningham megjegyezte, hogy ha egy nagy autógyártó vezérigazgatója egy hamis videóban kijelenti, hogy a társaság nem fog többé gázüzemű járműveket gyártani, majd ezt a videót elterjeszti a Twitterben vagy a LinkedIn-ben, akkor ez a művelet könnyen megrongálhatja a márkát.
"Érdekes módon, hogy kutatásaim alapján az emberek 37 másodpercen belül a címsorok és a videók alapján hoznak döntéseket, mondta Cunningham." Tehát el tudod képzelni, ha olyan videót kapsz, amely 37 másodpercnél hosszabb, akkor az embereket döntéshozatalra akár tényszerű, akár nem. És ez félelmetes."
Mivel a közösségi média sebezhető hely, ahol a mélyfajta videók vírusos lehetnek, a közösségi média oldalai aktívan dolgoznak a mélyfajok veszélyének leküzdésében. Például a Facebook olyan mérnöki csapatokat állít fel, amelyek észrevehetik a manipulált fényképeket, hangokat és videókat. A szoftver használata mellett a Facebook (és más közösségi médiavállalatok) embereket is felvesz arra, hogy manuálisan keressék a mélyfajtákat.
"Kibővítettük a manipulált média leküzdésére irányuló erőfeszítéseinket, hogy magában foglaljuk a mélyfajok elleni küzdelmet is" - mondta a Facebook képviselője nyilatkozatában. "Tudjuk, hogy a manipulált média minden formájának folyamatos megjelenése valódi kihívásokat jelent a társadalom számára. Ezért fektetettünk be új technikai megoldásokba, tanulmányozzuk a tudományos kutatásokat és másokkal együttműködve dolgozunk az iparban azért, hogy megértsük a mélyfajtákat és a manipulált média egyéb formáit..”
Nem minden mélységben van rossz
Amint láttuk a McAfee oktatási deepfake videójával és a késő esti TV-ben készült komikus mélyfake-videókkal, néhány mélyfake-videó nem feltétlenül rossz. Valójában, míg a politika felfedheti a mélyfake-videók valódi veszélyeit, a szórakoztatóipar gyakran csak a mélyfake-videók világosabb oldalát mutatja be.
Például egy, a Stephen Colberttel folytatott „ Late Show” egy nemrégiben elhangzott egy vicces mélyfajta videóját, amelyben a színész Steve Buscemi arcát a színésznő Jennifer Lawrence teste fölé helyezte. Egy másik esetben, Jordan Peeler komikus, Barack Obama egykori elnök saját videójával helyettesített videóját váltotta fel. Az ilyen humoros mélyfajta videók szintén megjelentek az interneten, amelyekben Trump elnök arca a személy beszéde alatt Angela Merkel német kancellár arca felett helyezkedik el.
Ismét, ha a mélyfake-videókat szatirikus vagy humoros célokra, vagy csupán szórakozás céljából használják, akkor a közösségi média platformjai, sőt a filmgyártó házak is engedélyezik vagy használják őket. Például a Facebook engedélyezi az ilyen típusú tartalmakat a saját platformján, és a Lucasfilm egyfajta digitális kikapcsolódást alkalmazott, amikor egy fiatal Carrie Fisher-et mutatott be Ingvild Deila színésznő testén a "Rogue One: A Star Wars Story" című filmben.
A McAfee Grobman megjegyezte, hogy a mélyfajok mögött meghúzódó technológiát a filmek készítésénél a kaszkadőr-párosokkal együtt jól használják, hogy a színészeket biztonságban lehessen tartani. "A kontextus minden. Ha komikus célokra van és nyilvánvaló, hogy nem valódi, akkor ez a technológia legitim használata" - mondta Grobman. "Fontos annak felismerése, hogy mindenféle különféle célra felhasználható."
A mélyfajú videók felismerése
A McAfee nem az egyetlen biztonsági cég, amely kísérletezik a hamis videók felderítésében. A Symantec két biztonsági szakértője, a biztonsági válasz vezetője Vijay Thaware és a szoftverfejlesztési mérnök Niranjan Agnihotri, a „AI Gone Rogue: A mély hamisítás megsemmisítése, még mielőtt fenyegetnék” című, „AI Gone Rogue: A mély hamisítványok elpusztítása” című cikkben azt írják, hogy eszközt hoztak létre a hamis videók a Google FaceNet alapján. A Google FaceNet egy neurális hálózati architektúra, amelyet a Google kutatói fejlesztettek ki az arc igazolásának és felismerésének támogatására. A felhasználók egy FaceNet modellt kiképeznek egy adott képen, majd ellenőrizhetik személyazonosságukat az ezt követő tesztek során.
A mélyfajú videók terjedésének megakadályozására az AI Alapítvány, egy nonprofit szervezet, amely az emberi és az AI interakcióra összpontosít, "Reality Defender" nevű szoftvert kínál a hamis tartalmak észlelésére. Beolvashatja a képeket és a videókat, hogy megnézze, megváltoztak-e az AI segítségével. Ha vannak, kapnak egy "Őszinte AI vízjelet".
- A gépi tanulás üzleti útmutatója A gépi tanulás üzleti útmutatója
- PornHub, Twitter Ban "Deepfake" Ai módosított Porn PornHub, Twitter Ban "Deepfake" Ai módosított Porn
- A legújabb Deepfake Tech táncolsz mint Bruno Mars A legfrissebb Deepfake Tech fog táncolni mint Bruno Mars
Egy másik stratégia a Zero Trust koncepciójának szem előtt tartása, amely azt jelenti, hogy „soha ne bízzon, mindig ellenőrizd” - egy kiberbiztonsági mottó, amely azt jelenti, hogy az informatikai szakembereknek meg kell erősíteniük, hogy minden felhasználó jogosult-e a hozzáférési jogosultságok megadása előtt. A videotartalom érvényességének továbbra is szkeptikusnak kell lennie. A digitális elemző képességekkel rendelkező szoftverekre is szükség lesz a hamis tartalom észlelésére.
Vigyázz a mélységre
Folytatva, óvatosabbnak kell lennünk a videótartalommal, és szem előtt kell tartanunk azokat a veszélyeket, amelyeket visszaélés esetén a társadalom jelenthet. Mint Grobman megjegyezte: "A közeljövőben az embereknek szkeptikusabbaknak kell lenni abban, amit látnak, és felismerniük, hogy a videó és a hang készíthető".
Tehát tartsa szkeptikusan szem előtt a megtekintett politikai videókat, amikor a következő választási idényre indulunk, és ne bízz az összes videóban, amelyben a vállalati vezetők szerepelnek. Mert az, amit hall, nem az, amit igazán mondtak, és a megtévesztő mélyfajta videók valóban kárt okozhatnak társadalmunkban.