NUCA : L’IA qui envoie des nudes totalement imaginaires
Vous souvenez-vous de l’incident IA- Taylor Swift ? Il est tristement devenu un cas-école. Cependant rassurez-vous, il y a pire (et oui, la phrase est sarcastique). Désormais n’importe qui peut obtenir vos nudes ou faux nus… avec un simple clic. Il s’agit d’une prouesse de NUCA, une IA qui défraie la chronique de la pire des manières.
Dans cet article, vous découvrirez son fonctionnement, ainsi que l’étendue des enjeux de contrôle d’une IA dont le développement s’accélère.
Comment fonctionne NUCA ?
NUCA n’est pas qu’une IA, c’est aussi une caméra et un outil créatif. D’une taille de 15 onces, l’utilisateur le fabrique à partir de pièces imprimées en 3D. Créé par l’artiste allemand Mathias Vef et le designer Benedikt Groß, il retire les vêtements d’une personne en temps réel.
Pour y parvenir, NUCA n’a besoin que de quelques éléments (en tout 45 paramètres) :
- Le visage
- Le sexe
- L’âge
- La corpulence
Ensuite, la caméra 3D prend un cliché sur smartphone. Elle transfère les images dans le cloud pour un traitement algorithmique. Enfin, vous obtenez un individu tout nu et complètement réaliste. Durée de la prestation : environ 10 secondes.
Autrement dit, avec NUCA, un individu ayant quelques connaissances techniques basiques peut obtenir votre nude en environ 10 secondes. Trop facile et rapide pour laisser place au consentement de l’individu photographié, à peine né, NUCA inquiète. Il s’agit d’un tacle à la vie privée, ainsi que d’une porte d’entrée grande ouverte aux deepfake.
Abus et négligences graves : jusqu’où vont les deepfake ?
Les deepfake, en particulier les nudes de célébrités sont en vogue dans les sites internet pour adultes. Parmi eux, ceux de Taylor Swift ont créé un scandale à cause de l’implication politique de l’artiste.
Si auparavant, cette prouesse indélicate exigeait des compétences d’édition avancées couplées à de la patience, elle s’est malheureusement démocratisée. Ici, NUCA offre une accessibilité et une rentabilité sans égales et facilite la tâche aux cyber criminels et harceleurs.
Quels sont les enjeux ?
Le chantage et l’intimidation ont de beaux jours devant eux si rien n’est fait pour cadrer et contraindre l’usage de technologies IA telles que NUCA. Par exemple, l’affirmation de DavidPrepperWOLF sur Quora en dit long :
Bien qu’immoral pour beaucoup, cela reste légal. Il ne s’agit pas d’une image réelle d’une personne, mais d’une présomption de ce à quoi ressemble une personne nue.
En effet les deepfake sont de plus en plus réalistes, comment les distinguer de véritables photos ? Un risque important pèse sur les individus qui devront prouver que les images sont fausses en cas de procès.
L’enjeu réside dans l’équité et la récolte du consentement de l’individu exposé. A l’origine, le prototype a été présenté comme “un projet de conception et d’art spéculatif”. Cependant, cette technologie peut potentiellement être dupliquée et utilisée à des fins commerciales obscures, conduisant à l’insécurité numérique.
NUCA force les frontières de l’intime et scandalise
Son déploiement constitue un signal fort d’alarme pour un cadrage du développement de l’IA. Les risques sont importants :
- Le brouillage entre la vérité et l’invention
- La perturbation des normes sociales
- Le chantage, l’intimidation et le harcèlement
- Les addictions
Historiquement, lorsque c’est trop beau pour être vrai, c’est qu’il y a anguille sous roche. Dans le cas de NUCA, le danger est palpable et ne s’embarrasse pas de gants.
Aujourd’hui plus qu’auparavant, la floraison des deepfake interpelle vivement les législateurs.
Toutes les autres actualités sur le sujet via Youpi News.