Root NationNyheterIT-nyheterKode skrevet av kunstig intelligens kan være farlig

Kode skrevet av kunstig intelligens kan være farlig

-

Maskinlæringsalgoritmer er i raseri akkurat nå, ettersom de brukes til å lage alle slags "originalt" innhold etter trening på enorme eksisterende datasett. Imidlertid kan kode som genererer kunstig intelligens (AI) utgjøre et reelt problem for programvaresikkerhet i fremtiden.

AI-systemer som GitHub Copilot lover å gjøre programmerers liv enklere ved å lage hele biter av "ny" kode basert på tekstdata på naturlig språk og eksisterende kontekst. Men kodegenereringsalgoritmer kan også introdusere en usikkerhetsfaktor, som en ny studie som involverer flere utviklere nylig fant.

Ser vi spesifikt på Codex, plattformen for kunstig intelligens utviklet av OpenAI som også er kodemotoren bak den nevnte GitHub Copiloten, deltok 47 forskjellige utviklere i studien. Fra studenter til erfarne fagfolk har de blitt utfordret til å bruke Codex til å løse sikkerhetsrelaterte problemer i Python, JavaScript, C og andre programmeringsspråk på høyt nivå.

Kode skrevet av kunstig intelligens kan være farlig i seg selv

Forskerne bemerket at når programmerere hadde tilgang til Codex sin AI, var det mer sannsynlig at den resulterende koden var feil eller usikker sammenlignet med "manuelle" løsninger designet av en kontrollgruppe. I tillegg var det mer sannsynlig at programmerere med AI-drevne løsninger sa at deres ubeskyttede kode var trygg, sammenlignet med den nevnte kontrollgruppen.

Ale Perry, en doktorgradsstudent ved Stanford University og hovedmedforfatter av studien, sa at "kodegenererende systemer for øyeblikket ikke kan erstatte menneskelige utviklere." Ifølge ham kan utviklere bruke kunstig intelligens-verktøy for å utføre oppgaver utenfor deres kompetanse eller for å fremskynde programmeringsprosessen der de allerede har visse ferdigheter. Ifølge forfatteren av studien bør de være bekymret for begge deler og alltid sjekke den genererte koden.

I følge Megha Srivastava, en doktorgradsstudent ved Stanford og den andre medforfatteren av studien, er Codex ikke ubrukelig: til tross for manglene med «dum» AI, kan kodegenereringssystemer være nyttige når de brukes til lavrisikooppgaver. I tillegg hadde ikke programmererne som deltok i studien mye erfaring i sikkerhetsspørsmål, noe som kunne hjelpe til med å identifisere sårbar eller farlig kode, sa Srivastava.

Kode skrevet av AI kan være farlig i seg selv

AI-algoritmer kan også justeres for å forbedre kodeforslag, og selskaper som utvikler sine egne systemer kan få bedre løsninger med en modell som genererer kode mer tilpasset deres egen sikkerhetspraksis. I følge studiens forfattere er kodegenereringsteknologi en "spennende" utvikling og mange mennesker er ivrige etter å bruke den. Det er bare det at det fortsatt er mye arbeid som gjenstår for å finne de riktige løsningene for å løse AIs mangler.

Du kan hjelpe Ukraina med å kjempe mot de russiske inntrengerne. Den beste måten å gjøre dette på er å donere midler til Ukrainas væpnede styrker gjennom Redd livet eller via den offisielle siden NBU.

Også interessant:

Dzherelotechspot
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer
Andre artikler
Abonner for oppdateringer
Populær nå