Chema Alonso, CDCO da Telefónica e conhecido especialista em segurança, fez uma aparição estelar em Experiência Virtual OpenEXPO 2021, que ele patrocinou neste oitava edição do evento que foi realizado online. Nessa participação, ele também aproveitou a oportunidade para discutir um tema interessante como os deepfakes gerados pela IA e os novos desafios que a segurança cibernética enfrenta com essas práticas.
Certamente você já viu alguns vídeos em que alguém aparece com o rosto de outra pessoa dizendo ou fazendo algo que a pessoa a quem pertence aquele rosto não disse ou fez. Esses vídeos podem ser obtidos de forma relativamente simples, e estão inundando a Internet, principalmente as redes sociais, e sendo usados como ferramentas pelos usuários. hoaxes e campanhas de desinformação.
Na OpenEXPO Virtual Experience 2021 pretendem introduzir novos temas de acordo com o panorama atual da tecnologia e do código aberto, e entre eles tecnologias como inteligência artificial, Aprendizado de Máquina ou Aprendizado Profundo. Chema Alonso enfocou os deepfakes que podem ser alcançados com a ajuda dessas tecnologias e os novos desafios que a segurança cibernética enfrenta.
Dado o aumento desses vídeos falsos, que cresceu de 15.000 em 2019 para quase 50.000 em 2020, e continua a crescer, isso se tornou um motivo de preocupação. Além disso, o 96% desses deepfakes são vídeos pornográficos, com cenas de sexo explícito usando os rostos de uma celebridade, político ou influenciador.
Diante dessa ameaça, como esclareceu Chema Alonso, a ação deve ser tomada em duas frentes: análise forense de imagens e extração de dados biológicos. Seu discurso para o OpenEXPO Virtual Experience 2021 focou precisamente nisso, onde ele mostrou um plug-in para o Chrome que ele desenvolveu junto com sua equipe para ser capaz de detectar DeepFakes.
Para seu funcionamento conta com 4 pilares essenciais:
- FaceForensics ++: para testar imagens com base em um modelo e treinar em seu próprio banco de dados para melhorar a eficiência.
- Exposição de vídeos DeepFake detectando artefatos de distorção facial- Detectar limitações com um modelo CNN, pois os algoritmos de IA atuais geralmente produzem imagens com resoluções um tanto limitadas.
- Expondo falsificações profundas usando poses de cabeça inconsistentes: por meio de um modelo HopeNet, inconsistências ou erros podem ser detectados nas poses do modelo falso que são introduzidos na introdução do rosto sintetizado.
- Imagens geradas pela CNN são surpreendentemente fáceis de detectar ... por enquanto: Pode-se confirmar que as imagens atuais geradas pela CNN compartilham falhas sistemáticas.
Mais informação - Site Oficial do Evento