Root NationNyheterIT-nyheterTeknologieksperter krever at AI-eksperimenter stoppes

Teknologieksperter krever at AI-eksperimenter stoppes

-

Teknologiledere og fremtredende AI-forskere har signert åpent brev, som oppfordrer AI-laboratorier og selskaper til å "umiddelbart suspendere" arbeidet sitt.

Underskrivere, inkludert Steve Wozniak og Elon Musk, er enige om at risikoen krever minst seks måneders pause fra produksjonen av teknologier som går utover omfanget GPT-4. Dette er for å få gleden og tilfredsstillelsen ut av AI-systemene som eksisterer nå, og for å la folk tilpasse seg dem og se at de er nyttige.

Teknologiledere og eksperter ber om å stoppe AI-eksperimenter

Brevet legger til at forsiktighet og omtanke er nødvendig for å sikre sikkerheten til AI-systemer, men de blir ignorert. Referansen til GPT-4, en ny OpenAI-modell som kan svare med tekst på skriftlige eller visuelle meldinger, kommer mens selskaper raser om å bygge sofistikerte chattesystemer ved hjelp av teknologien. Eksempel, Microsoft bekreftet nylig at den oppdaterte Bing-søkemotoren har kjørt på GPT-4-modellen i over 7 uker, og Google introduserte nylig offisielt Bard – eget generativt kunstig intelligenssystem basert på LaMDA.

Bekymringer om AI har eksistert lenge, men kappløpet om å ta i bruk den mest avanserte teknologien er tydelig kunstig intelligens den første er allerede alarmerende. "I de siste månedene har AI-laboratorier vært involvert i et ukontrollert kappløp for å utvikle og implementere stadig kraftigere digitale hjerner som ingen - ikke engang forfatterne deres - kan forstå, forutsi eller pålitelig kontrollere," heter det i brevet.

Teknologiledere og eksperter ber om å stoppe AI-eksperimenter

Brevet ble publisert av den ideelle organisasjonen Future of Life Institute (FLI), som jobber for å minimere globale katastrofale og eksistensielle risikoer og misbruk av ny teknologi, spesielt AI. Tidligere donerte Musk 10 millioner dollar til FLI for AI-sikkerhetsforskning. I tillegg til ham og Wozniak inkluderer underskriverne en rekke verdensledere innen AI, som Center for AI og Digital Policy-president Mark Rothenberg, MIT-fysiker og FLI-president Max Tegmark, og forfatter Yuval Noah Harari.

Harari var også medforfatter av en tekst i New York Times forrige uke som advarte om risikoen forbundet med kunstig intelligens, som grunnleggerne av Center for Humane Technologies og andre underskrivere av det åpne brevet, Tristan Harris og Aza Raskin, jobbet med ham.

Oppfordringen følger en undersøkelse i fjor med mer enn 700 maskinlæringsforskere der nesten halvparten sa at det var omtrent 10 % sjanse for "ekstremt dårlige konsekvenser" fra AI, inkludert menneskelig utryddelse. På spørsmål om sikkerhet i AI-forskning, sa 68 % av respondentene at mer eller mye mer må gjøres.

Les også:

DzhereloEngadget
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer