Een leger vol niet-bestaande mensen

Een Russisch trollenleger verspreidt nepnieuws in de oorlog tegen Oekraïne. Ze gebruiken kunstmatige intelligentie om de berichten zo echt mogelijk over te laten komen. Hoe werkt kunstmatige intelligentie, en wat zijn de gevaren ervan?
Leestijd 2 minuten — Di 1 maart 2022

De oorlog in Oekraïne woedt niet alleen op de grond, maar ook in het digitale landschap. Ten eerste waren daar de malware-aanvallen waar RTL Nieuws over berichtte. Daarnaast zijn er accounts op sociale media die anti-Oekraïens nepnieuws  verspreiden, om het vertrouwen in de Oekraïense regering weg te nemen. Dat  is te lezen in een artikel van NBC News. Het zijn zogenaamde ‘trol-accounts’ en er zitten geen echte mensen achter. De gezichten op de profielfoto’s zijn gegenereerd door kunstmatige intelligentie. Het blijft bovendien niet bij deze nepaccounts. Ook accounts van échte Oekraïense journalisten worden gehackt. Hier wordt vervolgens ook nepnieuws op verspreid, met het idee dat mensen deze accounts eerder zullen vertrouwen. Rusland zet in deze oorlog dus een trollenleger in.

Hoewel de inzet van een trollenleger in oorlogstijd nieuw is, hebben we al eerder iets soortgelijks gezien. Na de Amerikaanse verkiezingen in 2016 concludeerde Robert Mueller dat Rusland trol-accounts op sociale media gebruikte om nepnieuws te verspreiden. Nepnieuws gaat vaak samen met beelden die echt lijken, maar dat niet zijn. We zijn gewend om beelden te gebruiken om te verifiëren dat iets echt is, maar in deze tijden van kunstmatige intelligentie en deepfakes zijn beelden dus lang niet altijd meer echt. Toch is een door kunstmatige intelligentie gemaakt beeld vaak nog wel van echt te onderscheiden. Zo zijn de oren van een door kunstmatige intelligentie gegenereerd gezicht, via thispersondoesnotexist.com, vaak wat raar gevormd. Het is belangrijk om bij deze ontwikkelingen stil te staan en kritisch te blijven kijken, zowel naar de dingen die we lezen als naar de beelden die we zien.

Hoe werkt kunstmatige intelligentie eigenlijk? Hoe gaat het proces waarmee kunstmatige intelligentie beelden en teksten genereert in zijn werk? En snappen we dit zelf eigenlijk nog wel? Kunnen we kunstmatige intelligentie, of de gevaren ervan, nog een halt toe roepen? En zo ja, is dit dan wenselijk? Computationeel linguist dr. Dieuwke Hupkes (FAIR Paris) sprak hierover. Kijk de opname hier terug.