Berichten

Eerst zien, dan geloven

Vorige week berichtte Joost Schellevis dat het Openbaar Ministerie zich zorgen maakt over deepfakes. Het wordt steeds makkelijker om deepfake filmpjes te maken. En dat wordt een probleem voor het OM, want dat tast de waarde van film als bewijslast aan, én levert een nieuwe set mogelijkheden voor criminele handelingen. Ik heb het eerder gehad over kunstmatige intelligentie, deepfakes en mogelijke gevolgen. Nu gaan we wat dieper in op de gevolgen voor het strafrecht. 

Eerst zien, dan geloven

Nog steeds een goed standpunt, maar voor digitaal materiaal wordt dat steeds twijfelachtiger. Foto’s vertrouwden we al jaren niet. Die werden voor de opkomst van photoshop al massaal gemanipuleerd. Met als bekendste voorbeeld misschien nog wel de geretoucheerde foto’s van Stalin, waarop in de loop van de tijd steeds meer mensen verdwenen. 

4, 3, 2, 1.

Maar film! Film was betrouwbaar. Film gaf de werkelijkheid weer. Dat dat niet noodzakelijk zo was bewees Hollywood keer op keer met steeds geraffineerdere special effects en steeds meer gebruik van computergeneratie. Maar het vervalsen van film was in ieder geval een duur, tijdrovend en specialistisch karwei. 

Zao

En dat is niet meer zo. Iedereen kan film vervalsen. There’s an app for that. Of alhans, in China. Daar ging vorige week de face-swapping app Zao online, en ging meteen viraal. 

De standaard deep-fake filmpjes worden gemaakt door het hoofd van de ene persoon op het lichaam van een ander te plakken, en dat was ook hoe de huidige deep-fake trend ontstond: bekende personen die in porno-filmpjes opdoken. En dat is ook wat Zao doet: face swapping. Je kunt je eigen gezicht of dat van een vriend in een bestaande film plakken, over laten we zeggen het hoofd van Leonardo di Caprio heen. Daar is het althans voor bedoeld. Onschuldig en leuk. Maar met de opkomst van dit soort apps komen er natuurlijk meer mogelijkheden. 

De Chinese Youtube user @amengogo speelt met Zao

Chantage

Chantage, bijvoorbeeld. Je genereert een gênant filmpje met iemands hoofd en probeert die persoon dan af te persen. De keerzijde is overigens dat iedereen vanaf nu alle nare filmpjes waarin ze te zien zijn online kunnen afdoen met: was ik niet, is een deep fake. 

Porno

Deepfake porno zal ook wel steeds populairder worden. Op het schoolplein even een paar foto’s van iemand nemen, en boem, ze (ik vermoed dat het meestal vrouwen zullen zijn) speelt mee in een porno-film.

Propaganda

En een derde mogelijkheid om deepfakes te misbruiken is natuurlijk propaganda. Op dit moment is dat nog wat lastig, want stemmen overtuigend nabootsen is nog erg moeilijk te zijn. Dus daar moeten we de komende jaren goed op gaan letten. Tot ook die hobbel genomen is.

Herkennen

Voor OM en politie wordt het natuurlijk ook lastig. Er gaan mensen opgepakt worden op basis van filmmateriaal dat vervalst is. We moeten nu investeren om te zorgen dat dat niet gaat gebeuren. De oplossing is gelukkig (in theorie) vrij simpel: de AI die deepfakes genereert kan ook ingezet worden om ze te herkennen.

No Comments :

Geef een reactie :

* Your email address will not be published.

Deze website gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.

%d bloggers liken dit: