Comment ne pas parler de DeepNude, l’application la plus éphémère – et scandaleuse – du marché? Quelques semaines d’existence à peine et un accueil tonitruant sur les réseaux sociaux. Il faut dire que l’objet de cette app est plus que douteux. Une véritable boîte de Pandore qui laisse ses créateurs complètement dépassés par la situation.
DeepNude ou la démocratisation du « deepfake »
Elle n’aura pas fait long feu sur la toile… Sortie en mars, son créateur annonçait déjà, le 27 juin 2019, sur Twitter, la fermeture de l’application DeepNude.
Grâce à l’intelligence artificielle, cette app permettait, à partir d’une photo d’une femme, de vous fournir l’équivalent version nue. Ce que l’on appelle communément un deepfake*. Sauf que cet app mettait à la portée de tout le monde, la possibilité de créer des deepfake depuis une simple photo. Nul besoin d’une imagination débordante pour en visualiser les conséquences.
Même si la photo délivrée ne reflète pas la réalité, le résultat obtenu est tel que l’on peut aisément s’y méprendre. Mêmes mensurations, même silhouette… Juste un maigre filigrane estampillé «fake» que l’on peut retirer pour la modique somme de 50 dollars. Le résultat d’une technologie de pointe conçue par des réseaux de neurones artificiels entraînés à la reconnaissance et à la recomposition d’image.
Une application développée à partir d’un logiciel open source de l’Université de Berkeley
Il n’aura fallu pas moins de 10 000 photos de femmes dénudées pour entraîner l’algorithme utilisé par l’application. C’est un logiciel open source, pix2pix, mis à disposition par l’université de Berkeley, en Californie, qui a permis de développer ce programme.
Il était question, au départ, d’en développer également une version pour les hommes. Mais le créateur s’est vite ravisé, ne disposant pas suffisamment de photos sur le web, pour nourrir son algorithme.
Une app au coeur de la controverse
Ses créateurs ne s’attendaient visiblement pas à un tel succès. Ni à un tel déferlement sur la toile. Difficile d’imaginer qu’ils n’aient pas eu en tête les innombrables dérives que peut occasionner ce type d’application.
En France, la publication d’un montage d’une personne sans son consentement est punie d’un an d’emprisonnement et de 15000€ d’amende, sauf si la non-véracité des photos apparaît comme évidente ou a été déclarée. Et l’on ne parle pas des préjudices moraux, de l’atteinte à l’intimité ou de l’incitation au harcèlement.

Le 27 juin, les créateurs de DeepNude en annonçaient la fermeture sur leur compte Twitter
Aujourd’hui, l’application n’est plus disponible au téléchargement. Mais maintenant qu’elle a été en ligne, sa propagation est difficile à contenir et certaines copies sont partagées sur la toile. Sans oublier qu’avec le succès retentissant d’une telle application, d’autres du même acabit sont déjà en préparation chez des développeurs encore moins scrupuleux.
*Le deepfake est une technologie à base d’intelligence artificielle qui permet la synthèse d’images de provenances différentes. Elle permet de superposer des images ou vidéo afin d’obtenir un résultat truqué. Il est la contraction de deep learning (apprentissage profond, l’un des pan de l’intelligence artificielle) et de fake (faux)