Deepfake en deep nudes: hoe AI porno maakt

Deep learning en AI zijn de laatste tijd hot and happening, maar de gevolgen ervan zijn niet altijd onschuldig. Zo worden sommige technieken gebruikt om pornografische beelden te maken van beroemdheden. Is dat een probleem en wat wordt eraan gedaan?

Op sociale media passeren wel al eens foto's of video's van bekende mensen die dingen beweren of doen die onmogelijk lijken. Die beelden kunnen gewoon nep zijn. 

Wat is een deepfake?

Deepfakes zijn geen nieuw concept. Het woord is een samentrekking van deep learning, een specifiek soort zelflerend systeem gebaseerd op het menselijke brein, en fake. Het zijn dus nepbeelden gemaakt door AI. Mensen kunnen dankzij deepfake-technologie makkelijk beelden manipuleren, de meest gekende vorm van deepfake is die waarin iemands gezicht als het ware op een ander lichaam geplakt wordt. De technologie kan, relatief onschuldig, gebruikt worden om mensen na hun dood te laten herrijzen, als trucage in de gemiddelde Hollywoodfilm of als gimmick op sociale media, denk bijvoorbeeld aan de faceswapfilter van Snapchat. De slechtere kant van de technologie? Realistisch fake news en AI-gegenereerde naaktbeelden verspreiden.

96% van de deepfakes die ooit gemaakt zijn, bevatten pornografische of seksueel getinte beelden. Die krijgen dan de naam deep nude. Er bestaan zelfs applicaties die alleen AI-naaktbeelden maken. Zo kan je er mensen virtueel 'uitkleden' en porno maken zonder hun toestemming van een foto of video waarin ze gewoon aangekleed zijn. 

96% van de deepfakes die ooit gemaakt zijn, bevatten pornografische of seksueel getinte beelden

Deepfake-technologie verbetert razendsnel, waardoor het steeds moeilijker wordt om het onderscheid te maken tussen wat echt en wat nep is. Ook is het enorm simpel om een deepfake te creëren. Uit een onderzoek van de Universiteit Antwerpen blijkt dat ongeveer 13,8% van de Belgische jongeren tussen 15 en 25 al eens een deep nude ontvangen heeft. Een op de tien jongeren zegt ook zelf een deepfake-app te kennen en van die groep heeft ongeveer 60% die zelf al eens gebruikt om een deep nude te maken. Hoe herkenbaarder en verspreid de apps zijn, hoe meer jongeren ze dus gebruiken. 

Wraakporno en deepfakes 

Het is niet moeilijk om in te beelden wat er allemaal gedaan kan worden met deepfakes. Het grote gevaar van deep nudes, is dat ze gebruikt kunnen worden in wraakporno. Dat betekent dat seksueel getinte beelden verspreid worden zonder de toestemming van de persoon die afgebeeld wordt. Met AI kan je iemands gezicht plakken op dat van een pornoacteur. 

Dat is niet alleen problematisch omdat iemands gezicht gebruikt wordt zonder toestemming, maar het roept ook vragen op rond het auteursrecht van de pornoacteur. Is het wel oké om iemand anders werk te gebruiken met kwaadwillige bedoelingen? 

Wie zijn de slachtoffers?

Wat hebben de drie beroemdste vrouwelijke TikTok-sterren, ex-Miss België Celine Van Ouytsel en Taylor Swift gemeen? Ze waren allemaal al het slachtoffer van AI-naaktbeelden die zonder hun toestemming gemaakt en verspreid werden. Zo was ook Rana Ayyub, een Indiase journalist, het slachtoffer van deep nudes. Toen ze in 2018 een rapportage uitbracht over een verkrachting van een kind in India, kreeg ze veel haatreacties. Daarna werden er neppe tweets verspreid en uiteindelijk deed er een filmpje de ronde. Dat was een deepfake waarin iemand het gezicht van Ayyub op een pornofilmpje had geplakt. In haar artikel 'I Was The Victim Of A Deepfake Porn Plot Intended To Silence Me', vertelt ze dat het voor haar enorm beschamend was en dat ze niet meer naar buiten durfde te gaan. 

De slachtoffers van deep nudes zijn disproportioneel vaak vrouwen

Deep nudes kunnen dus immense gevolgen hebben voor het slachtoffer, en dat is niet altijd een beroemdheid. Zogenaamde expose-groepen verspreiden ook − al dan niet echte  − naaktbeelden van onbekende personen. De slachtoffers van deep nudes zijn wel disproportioneel vaak vrouwen. In 98% van de deep nudes die al gemaakt zijn, zou het slachtoffer een vrouw zijn. 

Hoe zit het met de wetgeving? 

In de ogen van de Belgische wetgever is er geen verschil tussen echte of fake beelden. Beelden bekijken waarin iemand naakt is, maar geen toestemming gaf om ze te maken, valt onder de noemer van voyeurisme en is strafbaar in ons land. De definitie van 'een beeld' is heel breed, het feit is al strafbaar wanneer iemand herkenbaar is. Sinds 2020 is het in België ook expliciet strafbaar om seksueel getinte beelden of opnames waarvoor geen expliciete toestemming gegeven is, te verspreiden of door te sturen. Daarbij maakt het niet uit of de beelden echt zijn. 

Niet alleen in België is er bescherming voor slachtoffers van seksueel misbruik, ook de Europese Unie blijft niet bij de pakken zitten. Op dit moment is er een ontwerp voor een richtlijn rond gendergerelateerd geweld die de EU-lidstaten zou verplichten om seksueel getint beeldmateriaal dat zonder toestemming geproduceerd of gemanipuleerd is en dan verspreid is, strafbaar te stellen. Daarnaast tracht de unie met de AI-act de ontwikkeling van AI-applicaties aan banden te leggen. Zo zou ze willen verbieden dat deepfake-ontwikkelaars de illegale beelden in de eerste plaats kunnen creëren. 

Ben je zelf het slachtoffer van een deep nude? Je kan een klacht indienen bij de politie en een melding maken bij het Instituut voor de Gelijkheid van Vrouwen en Mannen. Als je minderjarig was toen de feiten plaatsvonden, kan je ook Childfocus contacteren.

0
Gemiddeld: 5 (2 stemmen)

Reactie toevoegen