Kategorier: IT-nyheter

Uventet! (Nei). ChatGPT brukes til å lage skadelig programvare

Verdens mest populære chatbot, ChatGPT, brukes av angripere for å lage nye stammer av skadelig programvare.

Cybersikkerhetsfirmaet WithSecure har bekreftet at det har funnet eksempler på skadelig programvare skapt av den beryktede AI-forfatteren i naturen. Det som gjør ChatGPT spesielt farlig, er at det kan generere utallige variasjoner av skadelig programvare, noe som gjør dem vanskelige å oppdage.

Angripere kan ganske enkelt gi ChatGPT eksempler på eksisterende ondsinnet kode og instruere den til å lage nye stammer basert på dem, slik at de kan opprettholde skadelig programvare uten å bruke nesten like mye tid, krefter og kunnskap som før.

Nyheten kommer midt i mye snakk om å regulere AI for å forhindre at den brukes til ondsinnede formål. Da ChatGPT ble veldig populær i november i fjor, var det ingen regler for bruken, og i løpet av en måned ble den kapret for å skrive ondsinnede e-poster og filer.

Det er visse sikkerhetstiltak i modellen som er ment å forhindre at ondsinnede meldinger blir utført, men som kan omgås av angripere.

Juhani Hintikka, administrerende direktør i WithSecure, fortalte Infosecurity at cybersikkerhetsforsvarere vanligvis bruker kunstig intelligens for å finne og filtrere ut skadelig programvare som er laget manuelt av trusselaktører.

Det ser imidlertid ut til å endre seg nå, med kraftige AI-verktøy som ChatGPT fritt tilgjengelig. Fjerntilgangsverktøy har blitt brukt til ulovlige formål, og nå gjelder det samme for kunstig intelligens.

Tim West, leder for trusseletterretning hos WithSecure, la til at "ChatGPT vil støtte programvareutvikling, både på en god og dårlig måte, og dette hjelper og senker adgangsbarrieren for ondsinnede programvareutviklere."

Ifølge Hintikka blir phishing-e-poster som ChatGPT kan lage vanligvis lagt merke til av folk, og etter hvert som LLM-er blir mer avanserte, kan det bli vanskeligere å forhindre å falle for slike svindel i nær fremtid.

I tillegg, ettersom suksessen til angriperangrep øker i en alarmerende hastighet, reinvesterer angriperne og blir mer organiserte, utvider operasjonene gjennom outsourcing og utdyper forståelsen av kunstig intelligens for å sette i gang mer vellykkede angrep.

Hintikka konkluderte med at når vi ser på det fremtidige landskapet for cybersikkerhet, "vil det være et spill med god AI versus dårlig AI."

Les også:

Del
Julia Alexandrova

Kaffemann. Fotograf. Jeg skriver om vitenskap og rom. Jeg tror det er for tidlig for oss å møte romvesener. Jeg følger utviklingen av robotikk, i tilfelle ...

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket*