Hoe kunstmatige intelligentie de democratie kan bedreigen — óf redden

AI kan campagnemanagement verbeteren maar brengt ook uitdagingen met zich mee, zoals AI-gestuurde desinformatie en manipulatie van de publieke opinie.
  • De groeiende rol van AI in de politiek
  • Tsunami van desinformatie: de donkere kant van AI
  • Regelgeving kan de razendsnelle evolutie van AI niet bijbenen

Technologie heeft door de jaren heen een steeds prominentere rol gekregen in politieke campagnes. Dit begon met de komst van radio- en televisie-uitzendingen en verschoof vervolgens richting het internet en social media. Ook nu blijft technologie de manier waarop kandidaten met kiezers communiceren, hoe campagnes data managen en analyseren, en zelfs hoe electorale strategieën worden geformuleerd, continu stroomlijnen. Op dit moment staan we aan de vooravond van de volgende monumentale transitie en bereidt de politiek zich voor op het toenemende gebruik van kunstmatige intelligentie (AI). Deze technologie belooft politieke campagnes volledig te transformeren en zorgt voor meer nauwkeurigheid en efficiëntie op het gebied van campagnemanagement, kiezerstargeting en beleidsontwikkeling. Maar naarmate AI steeds verder in de politiek wordt geïntegreerd, krijgen we ook met allerlei ethische, juridische en maatschappelijke uitdagingen te maken. Het is dan ook van cruciaal belang om rekening te houden met de mogelijke implicaties en risico’s die dit kan opleveren voor onze democratische processen. In dit artikel gaan we dieper in op de praktische toepassingen van AI in de politiek en belichten we zowel de potentiële voordelen als de uitdagingen van het toenemende gebruik van AI.

“Het is van cruciaal belang dat alle kiezers een  antwoord op hun vragen kunnen krijgen en niet meer afhankelijk zijn van een moderator die dit — als ze geluk hebben — voor hen zal vragen”.

Gouverneur Asa Hutchinson, Republikeinse kandidaat voor het presidentschap

De groeiende rol van AI in de politiek

Tijdens zijn poging eerder dit jaar om de Republikeinse presidentskandidaat te worden, lanceerde burgemeester Francis Suarez van Miami een AI-chatbot die speciaal ontworpen is om kiezersvragen over de agenda van de burgemeester te beantwoorden. De chatbot is ontwikkeld met behulp van VideoAsk, een interactief videoplatform van het softwarebedrijf Typeform. De bot analyseert ingesproken vragen en geeft onmiddellijk het meest relevante antwoord. Maar in plaats van de vraag van de kiezer rechtstreeks te beantwoorden, verwijst de chatbot naar bestaande video’s waarin een AI-avatar van Suarez praat over het onderwerp dat het meest overeenkomt met de gestelde vraag. Het zal geen verrassing zijn dat deze aanpak tot dusver nogal uiteenlopende resultaten heeft opgeleverd. Zo klopten sommige antwoorden redelijk, maar zaten andere er ver naast. In sommige gevallen kon de chatbot de vraag zelfs helemaal niet beantwoorden en gaf het in plaats daarvan een foutmelding.

Een andere Republikeinse kandidaat voor het presidentschap volgde kort daarna een soortgelijke aanpak. Toen gouverneur Asa Hutchinson niet voldeed aan de criteria om deel te nemen aan het tweede debat van de Republikeinse presidentskandidaten, besloot hij een AI-chatbot te lanceren. Hiermee konden kiezers antwoorden krijgen op allerlei beleidsgerelateerde vragen en inzicht krijgen in de gouverneur zijn standpunten over deze kwesties. “Het is van cruciaal belang dat alle kiezers een  antwoord op hun vragen kunnen krijgen en niet meer afhankelijk zijn van een moderator die dit — als ze geluk hebben — voor hen zal vragen”. Daarom ben ik blij dat ik ons Ask Asa-platform mag onthullen. Met deze tool kunnen kiezers vragen stellen over belangrijke kwesties en een antwoord van mij krijgen”, aldus Hutchinson. Hoewel het niet bekend is op welk AI-model de chatbot is gebaseerd, werden bestaande opmerkingen, interviews en toespraken van Hutchinson in de trainingsdataset opgenomen, waardoor de bot redelijk nauwkeurige antwoorden kon geven op kiezersvragen.

Ook de AI-startup Delphi besloot om met dit concept aan de slag te gaan en bracht Chat2024 uit. Via dit nieuwe platform kunnen kiezers met de AI-avatars van 17 vooraanstaande presidentskandidaten communiceren, waaronder Joe Biden, Donald Trump, Cornel West, Robert F. Kennedy Jr., en Vivek Ramaswamy. Kiezers kunnen één-op-één met een avatar chatten of ze allemaal tegelijkertijd dezelfde vraag laten beantwoorden. Ze kunnen bijvoorbeeld ook twee avatars kiezen en deze in een debat tegenover elkaar plaatsen. Om de avatars te trainen, moest het Delphi-team eerst handmatig informatie over elke kandidaat verzamelen, waaronder video’s van hun publieke optredens, mediaberichten en hun eigen teksten en speeches. Elke keer wanneer een kiezer een vraag stelt, wordt deze door de AI van de avatars geanalyseerd. Ook wordt de intentie van de kiezer bepaald, context gecreëerd en een antwoord geformuleerd. Het is belangrijk om toe te voegen dat de avatars niet afhankelijk zijn van één enkel AI-model om hun output te genereren, maar van meerdere modellen, waaronder die van OpenAI, Anthropic en Hugging Face. Het antwoord wordt geleverd in de vorm van tekst en audio en biedt een redelijk nauwkeurige weergave van hoe de echte presidentskandidaten de vragen beantwoord zouden hebben.

Natuurlijk zijn Amerikaanse politici niet de enigen die kunstmatige intelligentie in hun campagnes gebruiken. In Roemenië kondigde premier Nicolae Ciuca onlangs aan een nieuwe ere-adviseur aan het team toe te voegen: een AI-assistent met de naam Ion. De rol van deze nieuwe assistent is om “meningen in de samenleving vast te leggen” door informatie van social media te verzamelen. Deze informatie wordt vervolgens gebruikt om een beeld te schetsen van wat het Roemeense volk wil. De regering moedigt het volk aan om met Ion in gesprek te gaan en hun mening te geven over verschillende onderwerpen, zoals bijvoorbeeld activiteiten van de overheid, de levensstandaard, de gezondheidszorg, sport en entertainment en andere zaken van nationaal belang. Naast interactie via de website en op social media kunnen burgers ook op publieke evenementen met Ion communiceren, waar de assistent verschijnt in de vorm van een passpiegel. In tegenstelling tot de andere AI’s die we in dit artikel genoemd hebben is Ion echter geen chatbot, dus hij kan niet terugpraten. In plaats daarvan verzamelt de AI bijdragen van het publiek, analyseert deze en stelt vervolgens een rapport op voor overheidsfunctionarissen om hen een beter beeld te geven van de behoeften en de tevredenheid van de burgers.

“We bevinden ons in een wereld waarin alles nep kan zijn: elke afbeelding, elk geluidsfragment, elke video, elk stukje tekst. Niets hoeft echt te zijn”.

Hany Farid, digitaal forensisch expert en professor aan de University of California, Berkeley

Tsunami van desinformatie: de donkere kant van AI

Nu het gebruik van kunstmatige intelligentie in politieke campagnes blijft toenemen, hebben verschillende experts hun zorgen geuit over het gebruik ervan. Zo zeggen ze dat deze tech de verspreiding van desinformatie in de hand werkt en met het genereren van nepbeelden, -video’s en -audio politieke tegenstanders in diskrediet kan brengen. Sommigen geloven zelfs dat deze nepinformatie de uitkomst van toekomstige verkiezingen zou kunnen beïnvloeden. “Desinformatie zal een groot probleem worden in de campagne. AI maakt allerlei krachtige tools mogelijk die voor iedereen toegankelijk zijn”, zegt Darrell West, senior fellow bij het Brookings Institution Centre for Technology Innovation. “Er bestaat een risico dat we met een tsunami aan desinformatie te maken krijgen en het zal steeds moeilijker worden om echte content van nep te onderscheiden”. Hoewel politici dit soort tactieken in het verleden ook al toegepast hebben, maakt de komst van generative AI het makkelijker dan ooit om geloofwaardige nepcontent te produceren. En we hebben het hier ook niet van een ver-van-je-bed-show; dit gebeurt nu al.

Nadat president Joe Biden had aangekondigd dat hij zich in 2024 wederom verkiesbaar zou stellen, bracht het Republikeinse Nationale Comité een 30 seconden durende, door AI gegenereerde video uit die een dystopische Verenigde Staten laat zien, met migranten die de grenzen van het land overspoelen en gewapende soldaten die door de straten van afgesloten steden patrouilleren — suggererend dat dit de toekomst is als Biden opnieuw president wordt. Kort daarna publiceerde de campagne van gouverneur Ron DeSantis door AI gegenereerde beelden waarop voormalig president Donald Trump de infectieziekte-expert dr. Anthony Fauci omhelst en kust. En in Groot-Brittannië werd een audiofragment verspreid waarin oppositieleider Keir Starmer beledigende taal leek te gebruiken tegen zijn stafleden. Hoewel al snel bleek dat de audio nep was, werd deze toch door meer dan 1,5 miljoen mensen gehoord — en het is onduidelijk hoeveel mensen het daadwerkelijk geloofden. Soortgelijke incidenten werden ook gemeld tijdens verkiezingscampagnes in Polen en Slowakije. “Ik denk dat dit nog maar het topje van de ijsberg is, wat in veel opzichten beangstigend, fascinerend en gevaarlijk tegelijk is”, zegt Isaac Goldberg, een democratisch politiek adviseur en campagnestrateeg. “Als we over een paar jaar terugkijken op de verkiezingen van 2024, zullen we onze huidige definitie van nepnieuws of nepcontent — of onze definitie van een paar jaar geleden — ronduit lachwekkend vinden”.

Een van de grootste problemen van het gebruik van door AI gegenereerde content in politieke campagnes is dat het een concept promoot dat bekendstaat als ‘leugenaarsdividend’. Dit betekent dat publieke figuren steeds makkelijker en vaker kunnen beweren dat iets nep is. “We bevinden ons in een wereld waarin alles nep kan zijn: elke afbeelding, elk geluidsfragment, elke video, elk stukje tekst. Niets hoeft echt te zijn”, zegt Hany Farid, digitaal forensisch expert en professor aan de University of California, Berkeley. Naarmate generative AI zich blijft ontwikkelen en steeds realistischer content kan produceren, zullen we waarschijnlijk steeds vaker aan onze eigen zintuigen gaan twijfelen. En dit gaat eerder gebeuren dan iedereen had verwacht. “Ik denk dat we mogelijk in de laatste fase zijn beland waarin we nog kunnen geloven wat we digitaal waarnemen”, waarschuwt Russell Wald, beleidsdirecteur van het Institute for Human Centred AI van Stanford University. Om aan te tonen dat dergelijke zorgen niet ongegrond zijn, heeft het cybersecurityagentschap ENISA van de Europese Unie onlangs zijn jaarlijkse Threat Landscape-rapport gepubliceerd, waarin staat dat AI-chatbots en deepfake-afbeeldingen en -video’s een ernstig risico vormen voor de integriteit van de verkiezingen voor het Europees Parlement van volgend jaar.

Regelgeving kan de razendsnelle evolutie van AI niet bijbenen

Dit probleem wordt nog verergerd door het feit dat wetgevers het niet voor elkaar krijgen om het razendsnelle tempo van de ontwikkelingen in de AI bij te benen. In de VS is er momenteel bijvoorbeeld geen regelgeving die het gebruik van door AI gegenereerde content in politieke campagnes verbiedt. Hoewel de Federal Election Commission wel bepaalde regels heeft voor tv- en radioreclame, zijn deze niet van toepassing op online content. “Waarom gelden de regels van de Federal Trade Commission, die bedrijven verbieden om misleidende reclames voor producten en diensten te maken, niet voor politieke campagneadvertenties?”, vraagt Wendy Melillo Farrill, reclamehistoricus en professor aan de School of Communication van de Amerikaanse Universiteit, zich af. “Waarom hebben we niet hetzelfde soort federale regelgeving voor campagneadvertenties?” Ook in Groot-Brittannië spelen deze problemen, waar geen enkele bestaande toezichthouder de macht heeft om electorale desinformatie te voorkomen. Hoewel het land een verkiezingscommissie heeft, houdt deze zich alleen bezig met campagnefinanciering, niet met advertenties. Het Digital Regulation Cooperation Forum (DRCF), dat door AI gegenereerde desinformatie mogelijk zou kunnen aanpakken, heeft geen wettelijke bevoegdheden en de Advertising Standards Agency (ASA) heeft geen jurisdictie over campagneadvertenties. Maar naarmate het bewustzijn over de gevaren van AI toeneemt, komt er hopelijk verandering in deze situatie. President Biden heeft onlangs bijvoorbeeld een executive order ondertekend met als doel de veiligheids- en beveiligingsproblemen rond AI-technologie aan te pakken. Daarnaast heeft een groep senatoren van zowel de Democratische als de Republikeinse partij nieuwe wetgeving voorgesteld om de transparantie en verantwoordelijkheid van AI-systemen te verbeteren. Bovendien hebben de Democraten in de Senaat een wetsvoorstel ingediend dat partijen verplicht een disclaimer toe te voegen aan alle politieke advertenties die met behulp van AI zijn gemaakt. En Groot-Brittannië heeft onlangs de Online Safety Bill geïntroduceerd, die Ofcom, de Britse communicatieregulator, de bevoegdheid geeft om ervoor te zorgen dat online platforms hun gebruikers tegen schadelijke content beschermen. Critici hebben er echter op gewezen dat Ofcom met dit wetsvoorstel alleen kan controleren of platforms hun eigen beleid met betrekking tot desinformatie volgen, maar dat het hen niet kan dwingen actie tegen dit soort content te ondernemen.

Een laatste overweging

Hoewel AI campagnemanagement efficiënter en nauwkeuriger kan maken en de betrokkenheid van kiezers kan verbeteren, brengt het gebruik van deze technologie ook aanzienlijke ethische, juridische en maatschappelijke implicaties met zich mee. Denk aan de verspreiding van door AI gegenereerde desinformatie en de manipulatie van de publieke opinie. En omdat het huidige regelgevingskader moeite heeft om gelijke tred te houden met de snelle ontwikkelingen op het gebied van AI, hebben we bovendien te maken met een gevaarlijk vacuüm dat kan worden uitgebuit om democratische processen te ondermijnen. Gaan we werkelijk een tijdperk tegemoet waarin onze perceptie van de waarheid op het spel staat? Waarin nep niet meer van echt te onderscheiden is? Aan de ene kant is het belangrijk om deze geavanceerde technologieën te omarmen, maar tegelijkertijd moeten we ons afvragen: hoe kunnen we ervoor zorgen dat AI de integriteit van onze democratische processen naar een hoger niveau tilt in plaats van ondermijnt?

Schedule your free, inspiring session with our expert futurists.

Continue

Related updates

This site is registered on wpml.org as a development site.