Artificiële intelligentie (AI) kan onze productiviteit verhogen, maar ... criminelen kunnen deze intelligente technologie ook misbruiken om security te omzeilen of ons te bedriegen. Dus, hoe kunt u van AI profiteren en u bewust zijn van de mogelijke gevaren?
De grens tussen realiteit en sciencefiction wordt heel dun
Een werknemer krijgt een e-mail van zijn CFO om geld over te schrijven. De werknemer vindt het verdacht, maar dat verandert wanneer hij wordt uitgenodigd voor een videogesprek. Hierin zitten de CFO, collega’s en wat externen ... of niet? Wat bleek, deze mensen waren slechts AI-versies. Maar die overhaalden de werknemer wel om 15 transacties te doen, goed voor 40 miljoen dollar. Sciencefiction? Het gebeurde begin 2024 in Hong Kong. En de technologie blijft evolueren.
Dit incident maakt duidelijk dat de dreiging van AI-aangedreven cyberaanvallen toeneemt. Uit recente studies blijkt zelfs dat 75% van de beveiligingsprofessionals een toename van zulke aanvallen waarnam, waarbij 85% deze stijging wijt aan AI-gebruik door cybercriminelen.
We zetten de belangrijkste AI-dreigingen voor u op een rij:
- AI-gestuurde malware en ransomware: met AI passen cybercriminelen continu hun malware aan, wat het moeilijker maakt voor beveiligingssoftware om het als kwaadaardig te herkennen. Een voorbeeld hiervan is 'BlackMamba', een AI-aangedreven malware die de meeste ‘endpoint detection and response’ (EDR) beveiligingsoplossingen kan omzeilen.
- Geautomatiseerde kwetsbaarheidsontdekking en -exploitatie: AI-systemen kunnen netwerken en apps sneller en grondiger scannen op beveiligingslekken dan conventionele methoden. Die lekken kunnen ze ook automatisch uitbuiten, waardoor systemen gecompromitteerd worden nog voor iemand kan reageren.
- AI-aanvallen op machine learning-systemen: aanvallers misleiden AI-beveiligingssystemen door invoergegevens te wijzigen. Ze veranderen bijvoorbeeld malware-signatures om zo antivirussoftware te omzeilen. Of ze passen patronen in het netwerkverkeer aan om inbraakdetectiesystemen te ontwijken.
- Geavanceerd kraken van wachtwoorden: AI-oplossingen zoals PassGAN kraken meer dan de helft van de veelgebruikte wachtwoorden in minder dan 1 minuut. Geavanceerde AI-tools kraken zelfs 81% van de normale wachtwoorden binnen de maand, waardoor het risico op identiteitsdiefstal en fraude toeneemt.
- Verfijnde phishing-aanvallen: met tools zoals ChatGPT kunnen hackers overtuigende nepberichten maken die de toon en het design van echte berichten nabootsen. Onderzoek toont aan dat bijna 80% van de mensen AI-gegenereerde phishing-e-mails opent.
- Vishing (voice phishing) met AI-gekloonde stemmen: via AI kan men stemmen klonen met slechts een kort audiofragment. Aanvallers kunnen hiermee live communiceren met slachtoffers, wat vishingaanvallen geloofwaardig en gevaarlijk maakt.
- Deepfakes voor desinformatie: generatieve AI creëert vlotjes overtuigende nepvideo's, -afbeeldingen of -audio. Deze kunnen criminelen gebruiken om mensen te misleiden, gevoelige informatie te onthullen of zelfs geldtransacties uit te voeren, zoals bleek uit het incident in Hong Kong.
- Identiteitsdiefstal met AI-gegenereerde content: fraudeurs bootsen gestolen identiteiten realistisch na met AI, waarna ze overtuigende deepfakes of stemklonen kunnen creëren. Dit maakt het moeilijk om echt van nep te onderscheiden, wat slachtoffers kwetsbaar maakt voor fraude en manipulatie.
AI-aangedreven aanvallen zijn vaak geavanceerder, gerichter en hardnekkiger dan conventionele aanvallen. Hierdoor zijn ze moeilijker te detecteren en is het ingewikkelder om u ertegen te verdedigen. Met de toenemende automatisering en afhankelijkheid van AI in kritieke infrastructuren, neemt het risico op AI-gebaseerde cyberaanvallen verder toe.
AI bestrijden met AI
Om deze dreigingen tegen te gaan, is het essentieel dat organisaties AI-aangedreven beveiligingssystemen inzetten. Aurelium heeft hiervoor verschillende oplossingen:
- Implementatie van AI-verbeterde verdedigingssystemen
- Regelmatige beveiligingsaudits en penetratietests
- Continu updaten van AI-algoritmes
- Inzet van ‘deception’ technologieën
- Ontwikkeling van een AI-specifiek incidentresponseplan
- Implementatie van een Zero Trust-beveiligingsframework
- Gebruik van tweefactorauthenticatie
- Netwerken om dreigingsinformatie te delen
Hoe Aurelium u kan helpen
Het expertteam van Aurelium kan u helpen om uw cybersecuritykennis aan te vullen. We doen dat met:
- Workplace Intrusion Patrol: een service die dreigingen herkent en bestrijdt
- Geavanceerde AI-algoritmes voor continue analyse van datastromen
- Een Security Operations Centre (SOC) voor verdere analyse en incidentbestrijding
En omdat de menselijke factor het grootste beveiligingsrisico blijft, ondanks geavanceerde technologieën, biedt Aurelium ook:
- Beveiligingstrainingen op maat van uw team
- Bewustwordingscampagnes
- Aangepaste e-mail- en URL-filters
- Ondersteuning bij het melden en blokkeren van verdachte activiteiten
Is uw organisatie klaar om veilig te profiteren van de voordelen van AI? Contacteer ons dan zeker. Want Aurelium helpt u graag door AI-tools te combineren met onze menselijke expertise.