I en nylig afsløring har Microsoft og OpenAI trukket sløret for en række statsstøttede hackergrupper fra Rusland, Iran, Nordkorea og Kina, som har udnyttet kunstig intelligens til at fremme deres cyberkriminelle aktiviteter. Disse grupper, der har benyttet AI-værktøjer fra de to techgiganter til blandt andet at finde kodefejl og køre kodningsopgaver, er nu blevet effektivt blokeret fra at anvende disse værktøjer. Det er et skoleeksempel på, hvordan teknologien kan anvendes til både godt og ondt, afhængigt af brugerens intentioner.
Statsstøttede hackergrupper udnytter AI
I samarbejde har Microsoft og OpenAI identificeret fem statsstøttede hackergrupper, som har anvendt selskabernes AI-værktøjer til at dygtiggøre sig inden for cyberkriminalitet. Disse grupper har nu fået lukket deres tilknyttede konti og er blevet blokeret fra yderligere adgang.
Grupperne omfatter to fra Kina (Charcoal Typhoon og Salmon Typhoon), en fra Iran (Crimson Sandstorm), en fra Nordkorea (Emerald Sleet) og en fra Rusland (Forest Blizzard). Disse aktører har anvendt AI til en række formål, herunder open source-research, oversættelse af tekniske dokumenter, fejlfinding i kode og udvikling af phishing-kampagner.
Microsoft’s Threat Intelligence team understreger, at de vil træffe nødvendige foranstaltninger for at forstyrre aktiviteterne af identificerede ondsindede trusselsaktører ved at deaktivere konti, afslutte tjenester eller begrænse adgangen til ressourcer. Dette indbefatter en bred vifte af trusselsaktører, fra nationalstats-APT’er til cyberkriminalitetssyndikater.
De specifikke anvendelser af AI-værktøjerne strækker sig fra undersøgelse af virksomheder og cybersikkerhedsværktøjer, oversættelse af tekniske dokumenter, fejlfinding i kode, til generering af scripts for phishing-kampagner. Disse anvendelser demonstrerer den alsidighed og kraft, som AI-teknologi tilbyder, men også potentialet for misbrug i de forkerte hænder.
Microsoft Threat Intelligence overvåger over 300 unikke trusselsaktører, herunder 160 nationalstatsaktører og 50 ransomware-grupper, hvilket understreger det omfattende arbejde, der kræves for at sikre cybersikkerheden i en stadig mere digitaliseret verden.
Hvordan udnytter hackere AI?
Kunstig intelligens (AI) har revolutioneret mange aspekter af vores liv, fra hvordan vi arbejder til hvordan vi interagerer med teknologi. Det gælder dog ikke kun for positive anvendelser; AI har også fundet sin vej ind i hackeres værktøjskasser, hvilket giver dem nye metoder til at udføre cyberangreb og forbedre deres ondsindede aktiviteter. Her er nogle måder, hvorpå hackere kan drage fordel af AI:
Automatisering af angreb
Hackere kan bruge AI til at automatisere processen med at finde sårbarheder i software og netværk. Ved at træne AI-modeller til at genkende mønstre og sårbarheder kan de hurtigt identificere potentielle indgangspunkter uden manuel indsats, hvilket gør det muligt at gennemføre angreb i større skala.
Forbedring af phishing-kampagner
Ved hjælp af AI kan hackere skabe mere overbevisende phishing-e-mails og -beskeder. AI kan analysere store mængder data for at forstå, hvilke typer meddelelser der er mest sandsynlige til at blive klikket på, og derefter tilpasse phishing-forsøgene for at gøre dem mere målrettede og troværdige.
Udvikling af avanceret malware
AI kan hjælpe med at skabe mere avanceret malware, der er i stand til at ændre sin adfærd for at undgå opdagelse. Dette omfatter malware, der dynamisk kan tilpasse sig til det miljø, det opererer i, og ændre sine egenskaber for at undgå antivirusprogrammer og andre sikkerhedsforanstaltninger.
Bypass af biometrisk sikkerhed
AI-teknologier, især dem inden for billed- og stemmegenkendelse, kan anvendes til at omgå biometriske sikkerhedssystemer. Ved at analysere biometriske data kan AI generere falske biometriske beviser, såsom fingeraftryk eller ansigtsgenkendelsesdata, for at få uautoriseret adgang.
Social engineering
AI kan forbedre effektiviteten af social engineering-angreb ved at gøre dem mere personaliserede og overbevisende. Ved at analysere data fra sociale medier og andre kilder kan AI generere målrettede beskeder, der ser ud til at komme fra troværdige kilder, hvilket øger sandsynligheden for, at ofrene falder for dem.
Optimering af angrebsstrategier
Endelig kan AI hjælpe hackere med at optimere deres angrebsstrategier ved løbende at analysere feedback fra succesfulde og mislykkede angreb. Dette indebærer tilpasning af taktikker i realtid for at maksimere effektiviteten af fremtidige angreb.
Disse eksempler understreger vigtigheden af, at cybersikkerhedsfagfolk fortsætter med at udvikle deres færdigheder og anvende avancerede teknologier for at holde trit med de trusler, der udgøres af hackere, der udnytter AI.
Kilde: ICARE.DK
Fotokredit: stock.adobe.com
Ⓒ 2024 Copyright by https://AORS.DK – kan deles frit ved link til denne artikel.