Maatschappelijke uitdagingen
Dat de ontwikkeling van kunstmatige intelligentie (AI) gepaard gaat met grote maatschappelijke uitdagingen is inmiddels wel duidelijk. Technieken zoals deep-fake en voice cloning (het klonen van stemmen) maken het steeds lastiger om nog te kunnen bepalen of iets echt of nep is. Met name voice cloning baart de politie veel zorgen, omdat deze technologie zeer effectief kan worden gebruikt door criminelen om fraude te plegen en mensen op te lichten. De nepstemmen worden immers zo goed nagebootst dat ze precies klinken zoals de originele stemmen van personen uit je familie of naaste omgeving.
Doelstem
Bij het stemklonen worden synthetische stemmen gecreëerd die een zogenaamde ‘doelstem’ nabootsen door middel van spraaksynthese. Doordat de vervalste stemmen zeer nauwkeurig kunnen worden gerepliceerd, kunnen ze worden gebruikt in stemassistenten en realtime stemwisselaarstoepassingen. Echter, vereist het voice cloning-proces een aanzienlijke hoeveelheid opgenomen spraak om een verzameling datasets te genereren, die vervolgens kunnen worden gebruikt om een nieuw stemmodel te creëren. Een stemmodel dat exact klinkt als je vader, moeder, broer, zus, zoon, dochter, oom, tante, neef, nicht, vriend, vriendin of buurman. Reden tot zorgen dus, want deze technologie is natuurlijk goud voor criminelen.
Explosieve toename voice cloning-fraude
Criminelen kunnen de gekloonde stemmen (die voor legitieme doeleinden zijn verzameld in databases) misbruiken om mensen op een zeer geraffineerde manier in de val te lokken. Ze kunnen je identiteit stelen, frauderen met je persoonlijke gegevens, maar ook kunnen de gekloonde stemmen worden gebruikt bij verschillende vormen van chantage. Het feit dat voice cloning-technologie nu voor iedereen beschikbaar is, is volgens de politie reden tot bezorgdheid en moeten er snel adequate maatregelen worden genomen. En hoewel fraude door voice cloning in Nederland nog relatief weinig voorkomt, zijn in het buitenland (en dan met name in de VS en het VK) al verschillende mensen ten prooi gevallen aan deze nieuwe vorm van oplichting. Verwacht wordt dat we komend jaar ook in ons land een explosieve toename zullen zien van misdaad door middel van gekloonde stemmen.
Gevoelige sectoren
Sectoren waarin authenticiteit, vertrouwen en interpersoonlijke relaties belangrijk zijn, zijn extra gevoelig voor misbruik van voice cloning-technieken (zoals bijvoorbeeld de financiële sector, klantenservices, callcenters, journalistiek en media, wetshandhaving en veiligheid). Ook vormen gekloonde stemmen een ernstige bedreiging voor politici en andere publieke figuren. De valse stemmen kunnen immers worden gebruikt om valse verklaringen, toespraken of steunbetuigingen de wereld in te slingeren, met alle gevolgen van dien. Niet alleen kunnen reputaties van politici ernstig worden aangetast wanneer er in hun naam misleidende informatie wordt verspreidt, maar ook kunnen politieke processen ernstig worden verstoord en het vertrouwen van burgers in de overheid worden geschaad.
Tante Gerda of Ome Karel
Om die reden is het belangrijk dat mensen zich bewust worden van de nieuwe zeer geavanceerde AI-technologieën die nu in rap tempo op ons afkomen. Het idee dat je in de veronderstelling bent dat je met ‘tante Gerda’ of ‘ome Karel’ aan de telefoon zit, maar in werkelijkheid te maken hebt met voice cloning door criminelen is best beangstigend. Daarom is het belangrijk om je goed voor te bereiden op deze nieuwe vormen van criminaliteit. Als je door een ‘bekende’ wordt gebeld en de stem ook exact klinkt als diegene, maar het om de een of andere reden toch niet vertrouwt, dan zijn er volgens de politie een aantal trucs om de oplichter te ontmaskeren.
Informeer naar gemeenschappelijke ervaringen
In sociale interacties met familie, vrienden, kennissen of collega’s maak je samen allerlei dingen mee. Deze dingen zijn vaak alleen bekend bij jou en degene die je aan de telefoon hebt. Door te informeren naar gemeenschappelijke ervaringen (zoals de lol die je hebt gehad op de bruiloft van je nichtje of die keer dat jullie samen een dagje naar de Apenheul gingen) kun je verifiëren of je ook daadwerkelijk je familielid of vriend aan de telefoon hebt. Als je gesprekspartner aan de andere kant van de lijn daar niet op kan inhaken, dan is de kans groot dat je met een oplichter te maken hebt.
Social engineering
Je zou eventueel ook een codewoord met bekenden kunnen afspreken om de authenticiteit van de stem te verifiëren, maar dit is veel minder veilig. Een codewoord (zoals bijvoorbeeld de naam van je hond of sportvereniging) is informatie die na wat eenvoudig speurwerk voor criminelen toegankelijk is. Een gedeelde ervaring tussen jou en je familielid of vriend daarentegen niet. Dat weten alleen jij en je gesprekspartner. Criminelen maken volop gebruik van social engineering, waarbij ze behendig inspelen op de emoties van hun beoogde slachtoffers. Ze weten vaak precies waar en wanneer ze moeten toeslaan en waar de zwakke schakels zitten. Vooral tijdens stressvolle gebeurtenissen of in ongewone omstandigheden zijn mensen sneller geneigd om in de sluwe oplichtingspraktijken van criminelen te trappen.
Verifiëren van de authenticiteit
Daarom is het belangrijk om je te realiseren dat je te maken zou kunnen hebben met voice cloning wanneer je gebeld wordt door een ‘bekende’. Het verifiëren van de authenticiteit van je gesprekspartner door middel van gedeelde ervaringen voelt dan wellicht een beetje raar, maar het is een effectieve manier om te achterhalen of je met een gekloonde stem te maken hebt of niet.
Wet- en regelgeving omtrent voice cloning
Omdat de potentiële gevaren en gevolgen van voice cloning ernstig kunnen zijn, wordt het steeds belangrijker dat de overheid alomvattende wet- en regelgeving vaststelt op AI-gebied. Deze regels en voorschriften moeten alle privacy-, juridische en ethische kwesties omvatten die door de stemkloningstechnologie ontstaan. Het versterken van de huidige regelgeving op het gebied van gegevensbescherming en het beschouwen van stemopnamen als gevoelige persoonlijke informatie is daarbij essentieel. Tevens moeten er strikte controles worden uitgevoerd om te garanderen dat ook daadwerkelijk toestemming is verkregen voor het gebruik van de stemmen en dat de spraakgegevens maar een beperkte periode op een beveiligde locatie worden opgeslagen.
Bewust van de risico’s
AI kent natuurlijk niet alleen maar gevaren en zal ons leven in de komende jaren op tal van fronten gemakkelijker maken. AI-systemen kunnen grote hoeveelheden gegevens verwerken en analyseren met zeer hoge snelheid, waardoor de efficiëntie en productiviteit in allerlei sectoren kan worden verhoogd. Klantenservices van bedrijven kunnen worden verbeterd met behulp van AI-gebaseerde chatbots en virtuele assistenten die 24/7 kunnen worden geraadpleegd. Daarnaast kan kunstmatige intelligentie trends en patronen herkennen die voor ons mensen onzichtbaar zijn. Met deze trends en patronen kan het weer beter worden voorspeld en kan er effectiever worden gehandeld op aandelenmarkten. Ook gezondheidsdiagnoses zullen de komende jaren dankzij AI sneller en nauwkeuriger kunnen worden gesteld. De ontwikkeling van AI stimuleert weliswaar automatisering, routinetaken, kostenbesparing, verbeterde veiligheid, innovatie en ontwikkeling, maar laat onverlet dat we ons ook bewust moeten zijn van de risico’s.
Voorkomen van voice cloning-fraude
Je kunt oplichting door voice cloning-fraude op de volgende manier voorkomen:
Verbreek de verbinding en bel zelf terug
Als je denkt dat je iemand aan de lijn hebt die zich voordoet als een bekende maar het waarschijnlijk niet is, verbreek dan direct de verbinding. Bel vervolgens de bekende terug via zijn of haar telefoonnummer, zodat je zeker weet dat je ook echt met je familielid of vriend spreekt. Zorg ervoor dat je het juiste telefoonnummer belt (controleer het nummer in je contactpersonenlijst) en bel nooit terug naar het nummer waardoor je werd gebeld. Als je het telefoonnummer van deze bekende niet weet, probeer het nummer dan op een andere manier te achterhalen (bijvoorbeeld via een familielid of gemeenschappelijke vriend of kennis).
Stel een paar vragen over gedeelde ervaringen
Stel vervolgens een aantal vragen over dingen (gebeurtenissen) die jullie samen hebben meegemaakt en die alleen jullie beiden kunnen weten. Gebruik liever géén codewoord (zoals de verjaardag van je zus, de naam van je boot of je favoriete gerecht), want de kans is namelijk groot dat je deze informatie ooit ergens op sociale media (of ergens anders) hebt gedeeld en dus toegankelijk is voor criminelen.
Veiligere digitale omgeving
Voice cloning en andere AI-technologieën bieden ons talloze nieuwe mogelijkheden, maar we moeten ons bewuster worden van de gevaren en alert zijn op misbruik door criminelen. Door waakzaam te blijven kun je de mogelijke risico’s van voice cloning-fraude en deep-fake-fraude verminderen en een veiligere digitale omgeving creëren. Deze nieuwe vorm van misdaad kan iedereen treffen, laat je dus niet verrassen.