Vrijheid in tijden van artificiële intelligentie – Ivan Vandermeersch
De bekende uitspraak ‘Vorm is inhoud die naar de oppervlakte komt’ is nog nooit zo relevant geweest. In een tijd waarin kunstmatige intelligentie beelden genereert die levensechter zijn en waarin visuele manipulatie een politiek wapen wordt, zou deze stelregel meer dan ooit onze waakzaamheid moeten leiden. Vooruitgang is fascinerend. OpenAI, Mistral, Midjourney, enz… Drie identieke aanwijzingen, drie verschillende visies, drie esthetieken die evenveel verhalen vertellen. Maar achter al deze technische hoogstandjes gaat een cruciale vraag schuil: zijn we nog steeds meesters van wat we zien? Of erger nog: meesters van wat we geloven?
Het gevaar is allesbehalve theoretisch. Trollenfabrieken – gecoördineerde netwerken die doelbewust desinformatie verspreiden – bestaan echt. Poetin heeft ze strategisch ingezet als een wapen van beïnvloeding, onder meer om de publieke opinie te manipuleren tijdens de Amerikaanse presidentsverkiezingen en de Brexit-campagne. Deze netwerken spelen in op emotionele kwetsbaarheid, maken slim gebruik van de virale kracht van beeldmateriaal en ondermijnen daarmee actief het democratisch debat.
Een schrikwekkend voorbeeld dat tot nadenken stemt: twee dagen voor de parlementsverkiezingen van 2023 in Slowakije dook er een audio-opname op die op Facebook was geplaatst. Daarin horen we twee bekende stemmen: die van Michal Šimečka, leider van de liberale pro-Europese Progressieve Slowaakse partij, en die van Monika Tódová, een bekende journaliste bij het dagblad Denník N. Samen lijken ze een verkiezingsfraude te bespreken, zoals het kopen van stemmen van de gemarginaliseerde Roma-minderheid. Het schandaal was onmiddellijk... maar onmogelijk om nog effectief tegen te gaan. De uitzending vond plaats tijdens het 48-uur durende verkiezingsmoratorium, een periode waarin de media en politici niet in het openbaar mogen spreken. Het liberale kamp kon zich daarom niet verdedigen of de feiten op grote schaal corrigeren. De inhoud bleef online, viraal, en verstoorde de verkiezingen ernstig. Alles wees erop dat dit een geraffineerde audio-fake was. Maar de schade was al aangericht.
De geschiedenis kent daar ook voorbeelden van. Het nazisme werd niet alleen met geweld gevestigd, maar ook met een uitgekiende propaganda en esthetische factoren. Leni Riefenstahl, regisseur van de beruchte film Triumph of the Will, zette een visueel arsenaal in van grootsheid, orde en almacht. Haar beelden waren zo overweldigend dat ze het totalitarisme niet enkel legitimeerden, maar het zelfs aantrekkelijk maakten. Esthetiek werd zodoende een instrument van verleiding – en uiteindelijk van onderwerping.
Vandaag beschikt generatieve AI over het vermogen om datzelfde soort narratieven niet alleen te reproduceren, maar ze te versterken, te vervormen en te verspreiden op ongeziene schaal. Het idee dat kunstmatige intelligentie zichzelf ‘wel zal opvoeden’ is een gevaarlijke illusie. En het vrije speelveld laten aan extremistische krachten om deze technologie ongeremd te exploiteren, is al even roekeloos. In een tijdperk waarin online radicalisering versnelt, is het beschermen van de burger geen luxe, maar een ethische en democratische plicht.
Dat maakt het des te gevaarlijker, gezien de mate waarin mensen kneedbaar zijn. In zijn boek De Duivel in elk van ons onderzoekt Christophe Busch hoe gewone mensen – geen monsters of psychopaten – toch kunnen vervallen in extreem gedrag. Niet vanuit haat, maar onder invloed van groepsdruk, autoriteit en morele onverschilligheid. Hij verwijst onder andere naar de beroemde experimenten van Stanley Milgram en Philip Zimbardo. Milgram liet proefpersonen denken dat ze anderen elektrische schokken toedienden wanneer die fouten maakten, puur op instructie van een autoriteitsfiguur in een witte jas. Een meerderheid gehoorzaamde, zelfs wanneer de ‘slachtoffers’ (acteurs) hoorbaar leden. Zimbardo’s Stanford-gevangenisexperiment ging nog een stap verder: studenten kregen de rol van ‘gevangene’ of ‘bewaker’, en al na enkele dagen gingen de bewakers over tot psychologische en fysieke vernedering. Het experiment moest voortijdig worden stopgezet.
Busch waarschuwt: in een goed gesmeerde machine gehoorzaamt de meerderheid, genieten enkelen van hun macht, en slechts een fractie verzet zich. Het is een ongemakkelijke waarheid, maar wel een essentiële. Want als het collectieve kwaad zo alledaags kan zijn, dan geldt dat ook voor het collectieve verzet ertegen. Mits we daarvoor kiezen met een helder hoofd en moreel kompas. Dit is waar de notie van verantwoordelijk individualisme, de pijler van het moderne liberalisme, om de hoek komt kijken. Ja voor vrijheid van meningsuiting, ja voor technologische innovatie, maar nee tegen het opgeven van kritisch denken en collectieve verantwoordelijkheid. Communicatiespecialisten en marketeers hebben de burgerplicht om ervoor te zorgen dat de vorm in dienst blijft staan van betekenisvolle inhoud.
Dit veronderstelt intelligente regulering, een inspanning voor esthetische opvoeding, een engagement voor de transparantie van algoritmes en een echt beleid om trollenfabrieken te bestrijden. Want vrijheid zonder waarborgen wordt een vrijgeleide. En een ongedifferentieerde democratie wordt een prooi. Zo zou men een duidelijke verplichting kunnen opleggen om alle door AI gegenereerde of aangepaste inhoud zichtbaar te labelen. Dit eenvoudige principe – dat al is vastgelegd in de Europese AI-wet – zou iedere burger in staat stellen om te weten waar hij naar kijkt. Het is een evenwichtige maatregel: het verstikt de creativiteit niet, maar versterkt de transparantie en beschermt het vertrouwen.
Technologie is nooit neutraal. Het is wat we ervan maken, en wat we kiezen om ermee te doen, dat uiteindelijk iets zal zeggen over in wat voor samenleving we willen leven.
Ivan Vandermeersch
De auteur is Ere-Algemeen Secretaris van de Belgian Association of Marketing