Віртуальны досвед OpenEXPO: Чема Алонса абмяркоўвае DeepFakes і праблемы кібербяспекі

Chema Alonso на OpenEXPO Virtual Experience 2021

Chema Alonso, CDCO Telefónica і вядомы эксперт па бяспецы, зорна з'явіўся ў Віртуальны вопыт OpenEXPO 2021, які ён спансаваў у гэтым восьмае выданне мерапрыемства што праводзілася ў Інтэрнэце. У гэтым удзеле ён таксама скарыстаўся магчымасцю абмеркаваць цікавую тэму, такую ​​як фальшывыя падробкі, створаныя ІІ, і новыя праблемы, з якімі кібербяспека сутыкаецца пры дапамозе гэтай практыкі.

Напэўна вы бачылі некалькі відэа, на якіх хтосьці з'яўляецца з тварам іншага чалавека, які кажа альбо робіць тое, чаго не сказаў і не зрабіў чалавек, якому належыць гэты твар. Гэтыя відэа можна атрымаць адносна проста, і яны наводняюць Інтэрнэт, асабліва сацыяльныя сеткі, і выкарыстоўваюцца ў якасці інструментаў для карыстальнікаў. падманы і дэзінфармацыйныя кампаніі.

У OpenEXPO Virtual Experience 2021 яны хацелі прадставіць новыя тэмы ў адпаведнасці з бягучай панарамай тэхналогій і адкрытых крыніц, і сярод іх такія тэхналогіі, як штучны інтэлект, Машыннае або глыбокае навучанне. Chema Alonso засяродзіла ўвагу на фальшывых падробках, якіх можна дасягнуць пры дапамозе гэтых тэхналогій, і на новых праблемах, з якімі сутыкаецца кібербяспека.

Улічваючы рост гэтых падробленых відэа, якія выраслі з 15.000 2019 у 50.000 годзе да амаль 2020 XNUMX у XNUMX годзе і працягваюць расці, гэта выклікае занепакоенасць. Акрамя таго, 96% гэтых фальшывых фальшывак - гэта парнаграфічныя відэа, са сцэнамі відавочнага сэксу з выкарыстаннем твараў знакамітасці, палітыка ці ўплывовай асобы.

Сутыкнуўшыся з гэтай пагрозай, як удакладніў Чема Алонса, неабходна прыняць меры з двух франтоў: судова-медыцынскі аналіз малюнкаў і выманне біялагічных дадзеных. Яго выступленне ў OpenEXPO Virtual Experience 2021 было сканцэнтравана менавіта на гэтым, дзе ён прадэманстраваў убудову для Chrome, якую распрацаваў разам са сваёй камандай для выяўлення DeepFakes.

Для сваёй працы ён абапіраецца 4 асноўныя слупы:

  • FaceForensics ++: тэставанне малюнкаў на аснове мадэлі і навучанне ў вашай уласнай базе дадзеных для павышэння эфектыўнасці.
  • Выкрыццё відэа DeepFake шляхам выяўлення артэфактаў скрыўлення твару- Выявіце абмежаванні з дапамогай мадэлі CNN, паколькі сучасныя алгарытмы ІІ часта ствараюць выявы з некалькі абмежаваным дазволам.
  • Выкрыццё глыбокіх падробак з выкарыстаннем непаслядоўных поз галавы: з дапамогай мадэлі HopeNet можна выявіць неадпаведнасці альбо памылкі ў позах фальшывай мадэлі, якія ўводзяцца пры ўвядзенні сінтэзаванага твару.
  • Выяўленыя CNN выявы дзіўна проста выявіць ... пакуль: Можна пацвердзіць, што цяперашнія выявы, атрыманыя CNN, маюць сістэматычныя недахопы.

Больш інфармацыі - Афіцыйны сайт мерапрыемства


Змест артыкула адпавядае нашым прынцыпам рэдакцыйная этыка. Каб паведаміць пра памылку, націсніце тут.

Будзьце першым, каб каментаваць

Пакіньце свой каментар

Ваш электронны адрас не будзе апублікаваны. Абавязковыя для запаўнення палі пазначаныя *

*

*

  1. Адказны за дадзеныя: Мігель Анхель Гатон
  2. Прызначэнне дадзеных: Кантроль спаму, кіраванне каментарыямі.
  3. Легітымнасць: ваша згода
  4. Перадача дадзеных: Дадзеныя не будуць перададзены трэцім асобам, за выключэннем юрыдычных абавязкаў.
  5. Захоўванне дадзеных: База дадзеных, размешчаная Occentus Networks (ЕС)
  6. Правы: у любы час вы можаце абмежаваць, аднавіць і выдаліць сваю інфармацыю.