Dia de los Muertos, https://commons.wikimedia.org/wiki/File:Day_of_the_Dead_Display(Elvis_detail_2)_(4078938508).jpg

Dia de los Muertos, https://commons.wikimedia.org/wiki/File:Day_of_the_Dead_Display(Elvis_detail_2)_(4078938508).jpg © Joel Bullock / Wikimedia / CC0

Zelfs na je dood laat Big Tech je niet met rust

Vorige maand verscheen een app waarmee je afbeeldingen tot ‘leven’ zou kunnen wekken: van je overleden opa en oma tot aan het melkmeisje van Vermeer. Tegelijkertijd zijn we allemaal bezorgd over zogeheten ‘deepfakes’: nepvideo’s waarin politici dingen beweren die ze nooit zouden zeggen. Maar, zo betoogt Miriam Rasch: beide technologieën tappen uit hetzelfde vaatje.

Als nu ergens kunstmatige intelligentie van pas zou komen, lijkt dat bij het geheugen van politici te zijn. Ik betrapte mezelf op de gedachte dat ik een deepfake van Mark Rutte met een onfeilbaar geheugen geen gek idee zou vinden. Zelf zou ik trouwens ook wel een digitale plaatsvervanger kunnen gebruiken. Als we toch de hele dag voor de camera zitten te praten en al onze gegevens beschikbaar stellen in de cloud, hoe moeilijk moet het dan zijn om een slimme avatar van mezelf naar de eerstvolgende VVE-vergadering te sturen?

Deepfakes – de mogelijkheid met AI-technieken nepvideo’s te produceren die niet van echt te onderscheiden zijn – staan in de belangstelling. (Zoals vaker bij technologische ontwikkelingen, is ‘belangstelling’ een vriendelijk woord voor zowel apocalyptisch doemdenken als hysterisch enthousiasme.) Dat is ook wel te begrijpen. Deepfakes en politiek vormen niet de meest gelukkige combinatie. Politici in gemanipuleerde video’s dingen laten zeggen die ze nooit daadwerkelijk hebben gezegd, is ongeveer het tegenovergestelde van het tot de orde roepen van liegende premiers. Oftewel: het is een gunstige technologie voor wie met desinformatie tweespalt wil zaaien.

Sommigen raakten naar eigen zeggen tot tranen toe geroerd door de rondblikkende gezichten van hun voorouders

Opvallend genoeg gaat de bezorgdheid over nepvideo’s en het verlies van een gedeelde werkelijkheid (waarvan je je kunt afvragen of we die ooit bezaten, zeker in de geïdealiseerde vorm die ze terugblikkend vaak krijgt toebedeeld), gepaard met terugkerende hypes rondom apps als Faceswap en recentelijk Deep Nostalgia. Zulke beeldmanipulatie-apps worden door een breed publiek onthaald, gebruikt en gedeeld. Kun je bezorgd zijn over technieken die ‘post-reality’ in de hand werken, en er tegelijk bewonderend gebruik van maken? Blijkbaar, maar paradoxaal is het wel.

Deep Nostalgia, de laatste in de reeks hypes, maakt het mogelijk om met behulp van AI afbeeldingen van gezichten te animeren. De sociale media waren begin dit jaar een paar dagen lang het toneel van koket draaiende ogen en opgetrokken mondhoeken van talloze opa’s en oma’s, Oscar Wilde en het melkmeisje van Vermeer. Sommigen raakten naar eigen zeggen tot tranen toe geroerd door de rondblikkende gezichten van hun voorouders.

Ik moet bekennen: ik vond ze saai. Het leek alsof de foto’s en schilderijen stuk voor stuk een botox-behandeling hadden ondergaan en geen enkele gezichtsuitdrukking meer tot een goed einde konden brengen. Dit was toch niks om van in katzwijm te vallen? Eerder leek het me een voorbeeld van crapularity. Kan de lat alsjeblieft wat hoger?

"Hoelang duurt het voor je gezicht tot het publieke domein behoort?"

 Natuurlijk dringt ook een aantal ethische vraagstukken zich op. Bij een geschilderd zelfportret van Rembrandt ligt het niet voor de hand om te vragen of hij hier wel achter zou staan. Maar hoe zit dat met Frederick Douglass, de abolitionist en ‘meest gefotografeerde man van negentiende-eeuws Amerika’, vroeg deze commentator? Een lachende Frederick Douglass is óók nepnieuws, want hij deed er zelf alles aan om als zwarte man steeds krachtig en serieus op de foto te staan, om tegenwicht te bieden aan vooroordelen over zwarte mensen.

Het roept vragen op over toestemming en bezit. Hoelang duurt het voor je gezicht tot het publieke domein behoort?

Doe gewoon mee!

Er zijn ook andere praktische bezwaren, handig verborgen achter het geflirt van de mensen op de foto’s. Om manipulatie van beeld mogelijk te maken, is veel data nodig: gegevens over gezichten, lichamen, beweging, spraak. Door een app als Faceswap of Deep Nostalgia te gebruiken, voer je jouw foto’s aan het algoritme en help je die basis van data te vergroten. Grof gezegd help je daarmee een paar stappen verder de deepfake te verwezenlijken die vervolgens op dezelfde sociale media voor onrust zorgt. De apps en de nepvideo’s tappen uiteindelijk uit hetzelfde vaatje. 

Er zijn met deze ‘diepe’ technologie dus heel eenvoudige handelingen gemoeid. De naam werkt in die zin verblindend, ze zegt: dit gaat zo diep, dat valt niet te snappen. Stel geen vragen, maar doe gewoon mee. Ondertussen gaat de dataverzameling door. Challenges dagen mensen uit foto’s te delen: me 10 years ago versus me now! Het is grappig bedoeld, met soms een emanciperend sausje (mooi oud is niet lelijk), maar vooral ook heel fijn voor bedrijven die bezig zijn databases aan te leggen van gezichten om die door de tijd heen te kunnen herkennen.

‘I see dead people’

Door de tijd – en tot na de dood. Andere toepassingen van deze technologie willen de harde grens tussen levenden en niet-levenden wat verzachten, door de mogelijkheid – ik moet eigenlijk zeggen: de schijn – te bieden met de doden te communiceren. (Ja, dat is inderdaad letterlijk een aflevering van Black Mirror.)

AI-ondernemer Eugenia Kuyda bouwde een simpele chatbot nadat haar goede vriend Roman was overleden. Duizenden tekstberichten, die ze persoonlijk bij zijn naasten had opgevraagd, vormden de basis van een chatbot met zijn ‘stem’. Die zou helpen bij de rouwverwerking. De motivaties en reacties, hier uitgebreid beschreven, zijn ontroerend. Een van de vrienden geeft een voorbeeld van zijn interactie met de bot: ‘I said, “Who do you love the most?” He replied, “Roman.” That was so much of him. I was like, that is incredible.” Zegt dit iets over Roman of meer over zijn vriend?

Stel dat iedereen een dierbare dode in een bot zou kunnen vangen, geïnstalleerd op een server die op de schoorsteenmantel staat

De relatief eenvoudige aanpak maakt dit project sympathiek. Stel dat iedereen een dierbare in een bot zou kunnen vangen als de overledene daar toestemming voor heeft gegeven, met een do-it-yourself pakketje geïnstalleerd op een server die op de schoorsteenmantel staat en waar de nabestaanden zelf de toegang voor regelen.

Maar daar blijft het nooit bij. Er moet geld worden verdiend en ogen verblind. Macht uitgeoefend. Het idee van de dodenbot is dan ook door Microsoft uitgewerkt in een patent voor een chatbot-applicatie ‘of a specific person’, dat eind vorig jaar stof deed opwaaien. Die voorgestelde bot voert verder dan alleen tekst – de ‘stem’ van de persoon is écht een stem, die ook nog gehuld kan worden in een 3D-beeld van het bijbehorende lichaam. De rouwende moeder die vorig jaar in een virtuele omgeving haar overleden kind terugzag – dat alles vastgelegd op film en gehypet door de media – was slechts het eerste voorbeeld van wat in de toekomst normaal zou zijn.

‘De doden worden tot leven gewekt!’ klinkt het dan alarmistisch. Hoe diep kan een technologie gaan? Het probleem is echter prozaïscher dan zo’n Stephen King-scenario. De vraag die het patent luidkeels níet stelt is: wie geeft toestemming – en waarvoor? Dan gaat het niet alleen over de persoon, dood of levend, die het object van de applicatie is, maar om ons allemaal.

Surveillance verpakt als leuke app

Want wat is er nodig om een chatbot te maken die kan spreken met de persoonlijke dictie van ‘een vriend, een familielid, een kennis, een beroemdheid, een fictioneel personage, een historisch figuur, een willekeurig wezen’ – of jezelf?

"Achter elke mooi verpakte applicatie staat een disproportionele surveillance-praktijk"

Hou je vast. Naast data uit sociale media-profielen, zoals likes, swipes en statusupdates, is dat ook data over gedrag, transacties en locatie, over interesses, opinies, leeftijd, sekse, opleidingsniveau, beroep, inkomen, relatie. Ook graag aanleveren: opgenomen gesprekken, ingesproken berichten en het volledige arsenaal van spraakassistenten en internet of things-toepassingen. Voor de volledigheid: foto’s en video’s voor de 2D- en 3D-rendering.

Maar zelfs al deze persoonlijke data zijn niet genoeg. Je persoonlijkheid bestaat immers in de datalogica alleen in vergelijking met anderen. Dus wordt de verzameling aangevuld met data van derden. Lege plekken zouden maar leiden tot ongemakkelijke stiltes. 

Uit de papieren behorend bij het patent blijkt opnieuw: achter elke mooi verpakte applicatie staat een disproportionele surveillance-praktijk. En als een eenvoudige chatbot voor de ontwikkelaars deze mate van dataficatie rechtvaardigt, hoe zit dat dan met deepfake-video’s?

Gefragmenteerde verantwoordelijkheid

Hoe nu verder? Ik geloof er niet in dat de weg vooruit gelegen is in het je toe-eigenen van deze techniek, zoals in een Tegenlicht-aflevering over deepfakes en nepnieuws te zien is. Jonge mensen leren daar hoe ze zelf nepberichten kunnen schrijven en verspreiden, zo sensationeel en geloofwaardig mogelijk. Ik voel me er ongemakkelijk bij. Is het echt nodig om je te verlagen tot de afkeurenswaardige praktijken van de ander, al is het voor de goede zaak?

Iedereen doet het, dus jouw klik maakt niet meer uit, toch?

Onlangs las ik een proefschrift over een andere vorm van ‘digitale doden’. In Digital Corpses onderzoekt mediawetenschapper Nadia de Vries de omgang met online afbeeldingen van dode mensen. Die brengt verschillende ethische vraagstukken van het internet voor het voetlicht. Eén begrip dat ze daarin aanhaalt, blijft me sindsdien bezighouden: distributed responsibility.

De Vries wijst op de fragmentatie van verantwoordelijkheid in het digitale domein, bijvoorbeeld als het gaat om het delen van illegale of shockerende content. Iedereen doet het, dus jouw klik maakt niet meer uit, toch? Het valt echter ook anders te lezen: we delen de verantwoordelijkheid met elkaar en iedereen kan een keuze maken om daarnaar te handelen, hoe beperkt die ook is. Onze handelingen doen ertoe. Het niet-uploaden van je eigen foto’s in een geinige app is een eerste stap. Net als zelf zorgen dat er niet nog meer nepnieuws de wereld in komt.

Maar het begint misschien wel in een eerder stadium: bij de eisen die we stellen aan wat technologie voor ons doet. Echt overtuigende positive use-cases heb ik nog niet gevonden. Is eigenlijk bewezen dat een chatbot helpt bij rouwverwerking? En heeft hij daarvoor al die data nodig om te werken, of is een DIY-collectie zoals de Roman-bot genoeg? Is het relevant dat filmstudio's geld op virtual effects zullen besparen als iedereen die makkelijk op zijn telefoon zal kunnen maken? En steeds weer die appelflauwte over de selfie die we nu met Salvador Dali kunnen maken.

Is dat echt het beste wat tegen de prijs van totale dataficatie te koop is? Laat je niet in de luren leggen door de knipoog van het melkmeisje. De lat moet hoger.