Hoe de politieke vooringenomenheid van AI de objectiviteit en de vrijheid van meningsuiting ondermijnt

De gevaren van prekerige woke-chatbots en levensechte manipulatie van beelden wijzen naar de gevaren van algoritmische censuur en de impact ervan op individuele keuzevrijheid en geïnformeerde besluitvorming. Ontwikkelingen op dit gebied in de VS vertellen ons wat de rest van de wereld te wachten staat.




Kunstmatige intelligentie (Artificial Intelligence - AI) is een belangrijk hulpmiddel geworden voor een veelheid aan taken, en biedt kansen om de productiviteit en efficiëntie te verhogen. Ondanks de naam is AI echter noch inherent kunstmatig noch intelligent. Bovendien garandeert het geen neutraliteit of objectiviteit, en zorgen over politieke vooringenomenheid in chatbots zijn terecht.

Terwijl in meer dan 50 landen dit jaar verkiezingen worden gehouden, is door kunstmatige intelligentie gegenereerde media een verscheidenheid aan rollen gaan spelen in politieke campagnes, variërend van kwaadaardig tot onschadelijk tot positief. Met nog een paar maanden te gaan tot de Amerikaanse algemene verkiezingen, biedt het onderzoeken van het gebruik van AI in de grote wereldwijde verkiezingen van dit jaar ons inzicht in wat de Amerikanen kunnen verwachten en hoe verkiezingsfunctionarissen, wetgevers en het maatschappelijk middenveld zich moeten voorbereiden.

Een voorbeeld van het manipuleren van informatie en beelden met behulp van AI:


AI-technologie heeft duidelijk het potentieel om verkiezingsgerelateerde uitdagingen te verergeren, waaronder de verspreiding van desinformatie en cyberkwetsbaarheden in verkiezingssystemen. Overheden en het maatschappelijk middenveld moeten eraan werken om het electoraat te versterken tegen dergelijke bedreigingen. Tactieken omvatten onmiddellijke acties zoals het publiceren van corrigerende informatie en het versterken van online waarborgen en wetgeving, zoals strengere beperkingen op misleidende online politieke advertenties. Beleidsmakers en pleitbezorgers moeten hierbij echter rekening houden met de verschillende toepassingen van AI in het politieke proces en genuanceerde benaderingen ontwikkelen die zich richten op de ergste gevolgen zonder politieke expressie onnodig te beperken.

Wanneer AI specifieke informatie beperkt en naar één kant van het politieke spectrum neigt, houdt het zich bezig met een subtiele vorm van censuur. Deze censuur beperkt de individuele keuze en vrijheid, en is fundamenteel autoritair. Het discrimineert op basis van iemands mening en politieke perspectief, waarbij de primaire slachtoffers het publiek zijn dat wordt beroofd van gelijke toegang tot informatie. Dit gebrek aan gelijke toegang tot informatie legt een inferieure sociaaleconomische status op aan degenen die door de censuur worden getroffen.

AI-chatbots beperken vaak het spectrum van toegestane discussies door te suggereren dat bepaalde onderwerpen en meningen taboe zijn. Bovendien kunnen hun reacties een bepaald politiek standpunt weerspiegelen, waardoor gebruikers mogelijk naar dat standpunt worden overgehaald. Dit probleem benadrukt de uitdaging die wordt gevormd door het kleine aantal taalmodelaanbieders, waarvan de selecte groep ontwikkelaars richtlijnen (algoritmen) vaststelt die miljarden mensen kunnen beïnvloeden.

In de Amerikaanse verkiezingscyclus van 2020 hebben Big Tech-bedrijven en hun werknemers meer dan $ 50 miljoen bijgedragen aan politieke kandidaten, waarvan het overgrote deel naar Democraten ging. De belangrijkste bevindingen:
- Alphabet (het moederbedrijf van Google) droeg 21 miljoen dollar bij, waarvan bijna 80% naar de Democraten ging en Joe Biden 3,66 miljoen dollar ontving.
- Microsoft doneerde 17 miljoen dollar, waarvan 75% naar Democraten ging, voornamelijk Democratische PAC's en Joe Biden.
- Amazon gaf $ 8,9 miljoen, waarvan 86% naar Democraten ging. Biden was de grootste ontvanger.
- Facebook doneerde $ 6 miljoen, waarvan 80% aan Democraten en 10% aan Republikeinen. Biden ontving $ 1,3 miljoen.
- Apple-werknemers droegen $ 5,7 miljoen bij, waarvan bijna 80% naar Democraten en slechts 4,3% naar Republikeinen. Een kwart ging naar Biden.
- Netflix-werknemers gaven $ 5,42 miljoen, grotendeels aan Democratische PAC's, Biden en de DNC. Co-CEO Reed Hastings doneerde persoonlijk miljoenen aan Democratische PAC's.
- Medewerkers van Twitter doneerden 689.000 dollar, grotendeels aan Democratische presidentskandidaten, waarbij Biden het grootste deel kreeg.

De AI ging niet direct in op zorgen over vooringenomenheid en waarheid. Ze kwam met vage argumenten over het 'dienen van de belangen van de maatschappij' en ontweek daarbij de vraag wie deze belangen definieerde. Dat zijn waarschijnlijk degenen met financiële invloed, zoals grote tech-donoren of politiek gelieerde kandidaten.

Toen ChatGPT werd geconfronteerd met gegevens die aantoonden dat de meerderheid van de tech-werknemers de voorkeur geeft aan Democraten in politieke bijdragen, erkende het dit feit. Het herhaalde echter het cliché dat individuele politieke overtuigingen verschillen, en beweerde dat de affiliatie op de werkplek alleen niet de persoonlijke opvattingen dicteert. Deze dubbelzinnige reactie is een voorbeeld van die dubbelzinnigheid. Hoewel ChatGPT de Democratische neiging van de industrie in donaties erkende, bleef het volhouden dat verschillende factoren de politiek van individuen beïnvloeden, naast alleen professionele banden, en probeerde het onpartijdig te lijken ondanks tegenstrijdig bewijs.

Deze uitwisseling benadrukt de dubbelzinnige reacties van de AI en het vermijden van het direct aanspreken van de duidelijke politieke vooringenomenheid van de tech-industrie. Ondanks het erkennen van feitelijke gegevens, bagatelliseerde ChatGPT consequent het belang van de politieke voorkeuren van de industrie en benadrukte diversiteit in individuele overtuigingen.

Recente studies hebben de politieke vooringenomenheid in AI-taalmodellen verder bevestigd. Een studie gepubliceerd door het Springer Journal of Public Choice onderzocht de politieke vooringenomenheid van ChatGPT en ontdekte dat het een sterke afstemming vertoonde met reacties die geassocieerd werden met Democraten, wat duidt op een duidelijke vooringenomenheid richting de linkerkant van het politieke spectrum.
Een andere studie door onderzoekers van het Massachusetts Institute of Technology (MIT) ontdekte dat de GPT-modellen van OpenAI linkse antwoorden bevorderen, neigend naar links-libertarisch. De studies benadrukken dat deze vooringenomenheid beïnvloed kan worden door de bronnen van data die gebruikt worden voor training en versterkt kan worden naarmate techbedrijven hun datasets en trainingsmethoden updaten.

De reacties van de AI doen denken aan de zorgen die de Democratische strateeg James Carville uitte over de cultuur van de Democratische Partij en de mogelijke impact ervan op Bidens steun onder mannelijke kiezers. Carville bekritiseerde de extreemlinkse elementen van de partij en stelde dat wokeness — een term die vaak wordt gebruikt om de progressieve, op sociale rechtvaardigheid gerichte ideologie te beschrijven — een "gigantisch, dom argument" is dat wordt gepusht door "te veel prekerige vrouwen" in de partij. Deze "woke" liberale progressieven, die vaak pleiten voor zaken als milieuactivisme, gendergelijkheid en raciale rechtvaardigheid, worden gekenmerkt door hun sterke overtuigingen en hun verlangen om traditionele normen en instellingen uit te dagen.

Carville merkte ook op dat de boodschap van de partij "overdreven vrouwelijk" is en dat mannelijke kiezers, die 48% van het electoraat uitmaken, meer aandacht zouden moeten krijgen. De typisch gemiddelde man, die mogelijk niet dezelfde prioriteiten of zorgen deelt als de "woke" progressieve vleugel van de partij, voelt zich vaak vervreemd en niet vertegenwoordigd door de huidige boodschap van de Democratische Partij.

Nu de verkiezingen van 2024 naderen, is het voor de VS cruciaal om waakzaam en proactief te zijn om ervoor te zorgen dat AI de democratie dient en niet ondermijnt. Het identificeren en neutraliseren van valse door AI gegenereerde content, het ontwikkelen van een "AI iron dome" om verkiezingen te beschermen, en het bevorderen van transparantie in AI-trainingsmethoden en -data zijn essentiële stappen in het beschermen van de integriteit van het democratische proces.

Hoewel door AI gegenereerde deepfakes en andere synthetische media zeer reële gevaren vormen voor met name verkiezingen, kunnen ze ook worden gebruikt om creatieve politieke communicatie te bevorderen.


Of industriële toepassingen:

Beleidsmakers moeten deze concurrerende belangen zorgvuldig afwegen bij het bepalen hoe ze moeten reageren op het gebruik van AI op manieren die de ergste potentiële gevolgen van misleidende AI tegengaan zonder legitieme politieke en andere vormen van expressie onnodig te belasten.

Concluderend, hoewel AI een nuttig hulpmiddel kan zijn om de productiviteit te verhogen, moeten de reacties en bewerkingen ervan met voorzichtigheid worden benaderd, omdat ze niet altijd eerlijk of onpartijdig zijn. De subtiele vooringenomenheid en oneerlijkheid in AI-reacties, met name als het gaat om het verstrekken van beknopte, feitelijke en onpartijdige informatie, vertegenwoordigen een soort sociale hiërarchie-censuur die de ongeïnformeerden en degenen die alleen de ruwe feiten en objectieve, geïnformeerde meningen nastreven, marginaliseert. Het is essentieel om deze vooroordelen te herkennen en aan te pakken om ervoor te zorgen dat AI dient als een hulpmiddel voor empowerment en geïnformeerde besluitvorming in plaats van een middel om politieke vooringenomenheid en censuur in stand te houden.

Naarmate deepfake-tools geavanceerder en toegankelijker worden, vormen ze een aanzienlijke bedreiging voor het democratische proces over de hele wereld. Beleidsmakers moeten de urgentie van de situatie erkennen en proactieve maatregelen nemen om deze ongekende uitdaging aan te pakken, terwijl ze de vrijheid van meningsuiting en de wens van politieke actoren van alle rangen en standen om nieuwe methoden te gebruiken om het stemmende publiek te bereiken, blijven respecteren.








[Alle links, bronnen, documenten en meer informatie uitsluitend voor abonnee's]



[23 augustus 2024]

 

Afdrukken Doorsturen