Deepfake

O deepfake , hipertrucagem , vídeo infox ou videotox é uma técnica de síntese multimídia baseada em inteligência artificial . Pode ser usado para sobrepor arquivos de áudio ou vídeo existentes em cima de outros arquivos de vídeo (por exemplo, mudar o rosto de uma pessoa em um vídeo) ou áudio (por exemplo, tocar a voz de uma pessoa para fazê-la dizer coisas. Inventado). Essa técnica pode ser usada para criar infox e hoaxes maliciosos. O termo deepfake é uma maleta formada a partir de deep learning ("  deep learning  ") e fake ("fake").

Você pode encontrar hiper-cheats não pornográficos em sites como YouTube ou Vimeo . Também é possível criar hiperframes usando o aplicativo FakeApp, que usa o TensorFlow , uma ferramenta de código aberto desenvolvida pelo Google .

História

Técnicas de simulação de movimentos faciais e transposição para um alvo foram apresentadas em 2016. Elas possibilitaram falsificar , em tempo quase real , expressões faciais em vídeos 2D.

A hiperdrugagem de áudio surgiu em novembro de 2016, com a apresentação do programa Adobe Voco , o primeiro programa de hiperdrugagem de áudio capaz de reproduzir a voz humana.

Em julho de 2017, a BBC transmitiu um discurso proferido por uma inteligência artificial reproduzindo Obama, discurso essencialmente indistinguível da realidade.

A pornografia hiper-manipulada apareceu pela primeira vez na internet em 2017, principalmente no Reddit , e desde então foi banida pelo Reddit , Twitter , Pornhub e outros.

Dentro janeiro de 2018, um aplicativo chamado FakeApp foi lançado, o que torna mais fácil criar vídeos com faces trocadas e compartilhá-los. As celebridades são os principais alvos desses vídeos de sexo falso, mas algumas outras pessoas também são afetadas.

Em agosto de 2018, pesquisadores da Universidade da Califórnia em Berkeley publicaram um estudo sobre a criação de vídeos falsos de dançarinos. Um indivíduo pode ficar colado aos movimentos de um dançarino profissional.

Áreas de aplicação

Pornografia

Hyperchip é mais conhecido por ter sido usado para criar vídeos eróticos falsos ( sextapes ), com celebridades e pornografia de vingança .

Durante o outono de 2017, um usuário anônimo do site Reddit postou  vários vídeos pornográficos sob o pseudônimo de “  Deepfakes ”. A estreia chamou a atenção e uma das estrelas mais populares, a atriz Daisy Ridley . Outra mostra a atriz Gal Gadot (estrela do filme Mulher Maravilha ) fazendo sexo com o cunhado . Outras celebridades -  Emma Watson , Katy Perry , Taylor Swift ou Scarlett Johansson  - também foram alvo de vídeos criados pelo usuário "Deepfakes".

Com o tempo, o falsificador corrigiu as falhas dos vídeos, tornando-os cada vez mais realistas. O fenômeno da hipertrucagem foi denunciado pela primeira vez emdezembro de 2017na seção técnica e científica da revista Vice , o que levou ao aparecimento de inúmeras reportagens em outros meios de comunicação.

No Reino Unido, os produtores de hyper-rigging podem ser processados ​​por assédio, mas há apelos para tornar o hyper-rigging um crime completo.

Política

A troca de rosto tem sido usada para deturpar políticos conhecidos em portais de vídeo, plataformas de streaming e salas de bate-papo. Por exemplo, o rosto do presidente argentino Mauricio Macri foi substituído pelo de Adolf Hitler , e o rosto de Angela Merkel pelo de Donald Trump . Dentroabril de 2018, Jordan Peele e Jonah Peretti mostraram os perigos da hiper-manipulação criando um vídeo falso de Barack Obama fazendo um anúncio público.

Arte

Dentro março de 2018, o artista Joseph Ayerle publica o vídeo de arte intitulado Un'emozione per sempre 2.0 , no qual encena uma Ornella Muti virtual, recriada por inteligência artificial. O software foi capaz de animar o rosto da atriz italiana para conseguir cenas que ela nunca havia interpretado.

Programas de efeitos especiais

O FakeApp usa redes neurais artificiais . Ele usa o poder da placa gráfica mais 3 ou 4  GB de armazenamento para gerar a renderização final. Para uma boa renderização, o programa precisa de muitas fotos da pessoa, pois o programa tem que aprender quais aspectos do vídeo alvo precisam ser alterados e para fazer isso usa algoritmos de aprendizado profundo . O software usa TensorFlow , uma ferramenta desenvolvida pelo Google , que, entre outras coisas, já foi usada para criar o DeepDream .

Programas de hiperdrugagem de áudio

A tecnologia apresentada no Adobe MAX foi uma prévia que poderia ser potencialmente integrada ao Adobe Creative Cloud. Em julho de 2019, a Adobe ainda não divulgou informações adicionais sobre uma possível data de lançamento.

A técnica, descrita em um artigo de setembro de 2016, é capaz de gerar vozes semelhantes a humanos com vozes relativamente realistas, modelando diretamente formas de onda usando um método de rede neural treinado com gravações de fala. Real. Testes com inglês americano e mandarim mostraram que o sistema supera os melhores sistemas de conversão de texto em voz existentes do Google, embora em 2016 sua síntese de texto tenha sido ainda menos convincente do que a fala humana real.

A capacidade do WaveNet de gerar formas de onda brutas permite modelar qualquer tipo de áudio, incluindo música.

Avaliações

Abuso

O diário suíço de língua alemã Aargauer Zeitung afirma que a edição de imagens e vídeos usando inteligência artificial pode se tornar um fenômeno de massa perigoso. No entanto, a falsificação de imagens e vídeos é anterior ao advento de softwares de edição de vídeo e programas de edição de imagens  ; neste caso, é o realismo que se torna um novo problema.

Também é possível usar hipertratamentos para boatos direcionados e divulgação pornográfica para fins ideológicos ou de perseguição cibernética .

Efeitos na credibilidade e autenticidade

Outro efeito do hyper-rigging é que você não consegue mais distinguir se o conteúdo é satírico ou genuíno. Questionado em 2018 pelo site americano The Verge (que trata de notícias de tecnologia, informação e mídia), o pesquisador americano de inteligência artificial Alex Champandard (programador e cofundador da startup Creative ) acredita que

“Todos devem estar cientes da rapidez com que as coisas podem ser mudadas hoje com essa técnica e que o problema não deve vir da técnica, mas sim ser resolvido pela confiança das pessoas na informação e no jornalismo. O principal perigo é que chegará o momento em que os humanos não serão mais capazes de determinar se o que está em um vídeo é a verdade ou não. "

Informações intangíveis e intangíveis, o vídeo infox quebra a confiança ao enganar os indivíduos.

Reações na Internet

Os sites Twitter e Gfycat  (en) anunciaram que removeriam hipertrucagens e bloqueariam os autores. Anteriormente, a plataforma Discord havia bloqueado um canal de bate-papo com hyperkickers. O site pornográfico Pornhub também planejava bloquear esse conteúdo, mas essa proibição ainda não entrou em vigor desde 2017. No Reddit, a situação permaneceu incerta até o subreddit , - a subparte temática em questão - ou suspenso em7 de fevereiro de 2018, devido à violação da política de "pornografia não intencional".

Proteção

Em última análise, segundo Solange Ghernaouti, especialista em cibersegurança e defesa cibernética , o ideal seria que as imagens e vídeos digitais fossem dotados de tatuagens digitais para levantar o véu sobre a origem do conteúdo. Softwares como InVid e Anistia Youtube Dataviewer, uma ferramenta oferecida desde 2014 pela organização não governamental internacional Anistia Internacional , permitem que jornalistas determinem se um vídeo é falsificado ou manipulado.

Desenvolvimento de meios de controle

A China quer introduzir uma lei que proíba conteúdo que não mencione o uso de sobreposições de vídeo e áudio. De1 ° de janeiro de 2020, a infox de vídeo que não for mencionada como tal será considerada ilegal.

O Facebook está lançando uma competição “  Deepfake Detection Challenge  ” (DDC) para criar tecnologias e software capazes de detectar vídeos usando a técnica de vídeo infox.

Veja também

Artigos relacionados

links externos

Referências

  1. "  hypertrucage  " , Le Grand Dictionnaire terminologique , Office québécois de la langue française (acesso em 18 de março de 2019 ) .
  2. Billy Joe Siekierski, Hyperfactor: O que pode ser feito sobre conteúdo de áudio e vídeo sintético , Biblioteca do Parlamento, 2019, 8 páginas [ ler online ] .
  3. Comissão para o enriquecimento da língua francesa , "  vídeo Infox  " , FranceTerme , Ministério da Cultura (acessada 17 junho de 2020 ) .
  4. (em) "  Especialistas temem que a tecnologia de troca de rosto possa começar o confronto internacional do ano  " no The Outline (acessado em 28 de fevereiro de 2018 ) .
  5. (en-US) Kevin Roose , "  Here Come the Fake Videos, Too  " , The New York Times ,4 de março de 2018( ISSN  0362-4331 , ler online , acessado em 24 de março de 2018 ).
  6. (em) John Brandon, "  Porno de alta tecnologia aterrorizante: vídeos 'deepfake' assustadores estão em ascensão  " em foxnews.com ,16 de fevereiro de 2018.
  7. “  Search for 'deepfake' on YouTube,  ” YouTube (acessado em 11 de outubro de 2019 ) .
  8. (in) "  FakeApp: Finalmente, um programa que permitirá que você inclua Donald Trump na pornografia com perfeição!  " , Reason.com ,25 de janeiro de 2018( leia online , consultado em 24 de março de 2018 ).
  9. "  Estou usando IA para trocar de cara entre Elon Musk e Jeff Bezos, e sou muito ruim nisso  ", The Verge ,11 de fevereiro de 2018( leia online , consultado em 24 de março de 2018 ).
  10. Justus Thies , “  Face2Face: Captura de rosto em tempo real e reconstituição de vídeos RGB  ” , Proc. Visão Computacional e Reconhecimento de Padrões (CVPR), IEEE,2016(acessado em 24 de fevereiro de 2018 ) .
  11. (em) "  Adobe Voco 'Photoshop-for-voice' cause preocupação  ' , na BBC ,7 de novembro de 2016. .
  12. (em) "  Fake Obama criado usando ferramenta de IA para fazer discursos falsos  " na BBC . .
  13. (en-US) Janko Roettgers , "  Porn Producers Offer to Help Hollywood Take Down deepfake Videos  " , Variety ,21 de fevereiro de 2018( leia online , consultado em 28 de fevereiro de 2018 ).
  14. (em) "  Levamos menos de 30 segundos para encontrar 'obscenidades de IA profunda e falsas na Internet  " , The Register ,9 de fevereiro de 2018( leia online , consultado em 20 de fevereiro de 2018 ).
  15. Arjun Kharpal , “  Reddit, Pornhub banem vídeos que usam IA para sobrepor o rosto de uma pessoa a um ator pornográfico  ”, CNBC ,8 de fevereiro de 2018( leia online , consultado em 20 de fevereiro de 2018 ).
  16. (em) "  PornHub, Twitter Ban 'deepfake AI-Modified Porn  " , PCMAG ,7 de fevereiro de 2018( leia online , consultado em 20 de fevereiro de 2018 ).
  17. Britta Bauchmüller, "  " Fake-App ": Mit diesem Programm kann jeder im Porno landen - ob er will oder nicht!  », Berliner-Kurier.de ,29 de janeiro de 2018( leia online ).
  18. Eike Kühl, "  Künstliche Intelligenz: Auf Fake News folgt Fake Porn  ", Die Zeit ,26 de janeiro de 2018( ISSN  0044-2070 , leia online ).
  19. heise online, "  deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien  ", Heise Online ,25 de janeiro de 2018( leia online ).
  20. (in) Peter Farquhar , "  Um programa de IA em breve estará aqui para ajudar sua dança deepfake - apenas não chame-o de deepfake  ' , Business Insider Australia ,27 de agosto de 2018( leia online , consultado em 27 de agosto de 2018 ).
  21. "  deepfakes for dancing: agora você pode usar IA para fingir os movimentos de dança que você sempre quis  ", The Verge ,26 de agosto de 2018( leia online , consultado em 27 de agosto de 2018 ).
  22. (en-US) What Are deepfakes & Why the Future of Porn is Terrifying  " , Highsnobiety , 20 de fevereiro de 2018( leia online , consultado em 20 de fevereiro de 2018 ).
  23. "A  pornografia falsa assistida por IA chegou e estamos todos fodidos  ", Motherboard ,11 de dezembro de 2017( leia online ).
  24. Call for upskirting projeto de lei para incluir 'deepfake' pornografia proibição The Guardian .
  25. "  Wenn Merkel plötzlich Trumps Gesicht Trägt: die gefährliche Manipulation von Bildern und Videos  " , az Aargauer Zeitung,3 de fevereiro de 2018.
  26. Patrick Gensing, “  deepfakes: Auf dem Weg in eine alternative Realität?  " .
  27. Aja Romano , "  O PSA simulado de Obama de Jordan Peele é uma advertência de dois gumes contra notícias falsas  " , na Vox ,18 de abril de 2018(acessado em 10 de setembro de 2018 ) .
  28. (em) Katerina Cizek , William Uricchio e Sarah Wolozin , "Parte 6: Co-criação de mídia com sistemas não humanos" em Collective Wisdom , PubPub,3 de junho de 2019( leia online ).
  29. (in) "  Un'emozione 2.0 per sempre  " , no Internet Movie Database ,24 de março de 2018(acessado em 12 de abril de 2021 ) .
  30. https://arxiv.org/pdf/1609.03499.pdf .
  31. "  Künstliche Intelligenz: Selfies sind eine gute Quelle  ", Die Zeit ,26 de janeiro de 2018( ISSN  0044-2070 , leia online ).
  32. “  „ deepfake “- FakeApp kann Personen em Pornos austauschen - Welche Rechte haben Geschädigte?  », Wilde Beuger Solmecke Rechtsanwälte ,2 de fevereiro de 2018( leia online ).
  33. O que um podcast "infinito" gerado por IA pode nos dizer sobre o futuro do entretenimento , The Verge ,11 de maio de 2018.
  34. Harold Grande , "  Depois de notícias falsas, a ameaça de" fake profunda "está crescendo na web  " , Le Figaro ,2 de janeiro de 2019(acessado em 18 de dezembro de 2019 ) .
  35. (en-US) “O  Pornhub não tem reforçado ativamente sua proibição deepfake  ” , Engadget ,18 de abril de 2018( leia online , consultado em 21 de abril de 2018 ).
  36. (em) "  Pornhub Banned deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them  " , BuzzFeed ,18 de abril de 2018( leia online , consultado em 21 de abril de 2018 ).
  37. Markus Böhm, "  " deepfakes ": Firmen gehen gegen gefälschte Promi-Pornos vor  ", Spiegel Online ,7 de fevereiro de 2018( leia online ).
  38. barbara.wimmer, "  deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos  ", futurzone ,8 de fevereiro de 2018( leia online ).
  39. heise online, “  deepfakes: Auch Reddit verbannt Fake-Porn  ” .
  40. "  Reddit verbannt deepfake-Pornos  " .
  41. "  Como faço para verificar um vídeo?  » , On Les Observateurs de France 24 (consultado em 18 de dezembro de 2019 ) .
  42. Corentin Bechade, "  China quer proibir venenos e falsificações profundas  " , Les Numériques ,2 de dezembro de 2019(acessado em 11 de dezembro de 2019 ) .
  43. Léa Faure , "  The deepfake in China agora considerado criminoso se o autor não relatar a natureza enganosa do conteúdo  " , em IT Social (acessado em 11 de dezembro de 2019 ) .
  44. Corentin Bechade, "  Facebook e Microsoft vão à caça de 'deepfakes'  " , Les Numériques ,6 de setembro de 2019(acessado em 11 de dezembro de 2019 ) .