Chema Alonso, CDCO Telefónice in znani strokovnjak za varnost, se je zvezdniško pojavil na Virtualna izkušnja OpenEXPO 2021, ki ga je pri tem sponzoriral osma izdaja prireditve ki je potekal na spletu. Pri tej udeležbi je tudi izkoristil priložnost za razpravo o zanimivi temi, kot so deepfakes, ki jih ustvarja umetna inteligenca, in novi izzivi, s katerimi se kibernetska varnost sooča s temi praksami.
Zagotovo ste že videli nekaj videoposnetkov, v katerih se nekdo pojavi z obrazom druge osebe, ki govori ali počne nekaj, česar oseba, ki ji pripada ta obraz, ni rekla ali naredila. Te videoposnetke je mogoče dobiti na razmeroma preprost način in preplavljajo internet, zlasti družbena omrežja, in se uporabljajo kot orodje za uporabnike. potegavščine in kampanje za dezinformacije.
V programu OpenEXPO Virtual Experience 2021 so želeli predstaviti nove teme v skladu s trenutno panoramo tehnologije in odprtokodne kode, med njimi pa so tudi tehnologije, kot je umetna inteligenca, Strojno učenje ali Poglobljeno učenje. Chema Alonso se je osredotočila na globoke ponaredke, ki jih je mogoče doseči s pomočjo teh tehnologij, in na nove izzive, s katerimi se sooča kibernetska varnost.
Glede na porast teh lažnih videoposnetkov, ki so s 15.000 v letu 2019 narasli na skoraj 50.000 v letu 2020 in še naprej rastejo, je to zaskrbljujoče. Poleg tega 96% teh globokih ponaredkov so pornografski videoposnetki, s prizori eksplicitnega seksa na obrazih slavnih, politikov ali vplivnežev.
Kot je pojasnila Chema Alonso, ki se sooča s to grožnjo, ukrepati je treba z dveh front: forenzična analiza slik in pridobivanje bioloških podatkov. Njegov govor za OpenEXPO Virtual Experience 2021 se je osredotočil prav na to, kjer je pokazal vtičnik za Chrome, ki ga je razvil skupaj s svojo ekipo, da lahko zazna DeepFakes.
Za svoje delovanje se zanaša 4 bistveni stebri:
- FaceForensics ++: za preskus slik na podlagi modela in usposabljanje na lastni bazi podatkov za izboljšanje učinkovitosti.
- Razkrivanje videoposnetkov DeepFake z odkrivanjem artefaktov, ki se ukrivijo z obraza- Zaznajte omejitve z modelom CNN, saj trenutni algoritmi umetne inteligence pogosto ustvarjajo slike z nekoliko omejeno ločljivostjo.
- Izpostavljanje globokih ponaredkov z uporabo nedoslednih položajev glave: z modelom HopeNet je mogoče zaznati nedoslednosti ali napake v položajih lažnega modela, ki se pojavijo pri uvajanju sintetiziranega obraza.
- CNN-ustvarjene slike je presenetljivo enostavno opaziti ... za zdaj: Lahko je potrditi, da trenutne slike, ki jih ustvarja CNN, delijo sistematične napake.
Več informacij - Uradna spletna stran dogodka