Root NationNyheterIT-nyheterDet vil være umulig å administrere en superintelligent kunstig intelligens

Det vil være umulig å administrere en superintelligent kunstig intelligens

-

Ideen om kunstig intelligens som styrter menneskeheten har vært diskutert i flere tiår, og i januar 2021 avsa forskere sin dom om vi kunne kontrollere en datamaskinsuperintelligens på høyt nivå. Svare? Nesten absolutt ikke.

Problemet er at å kontrollere et superminne langt utover menneskelig forståelse ville kreve en simulering av det supersinnet som vi kunne analysere. Men hvis vi ikke er i stand til å forstå det, er det umulig å lage en slik simulering.

Regler som «gjør ingen skade på mennesker» kan ikke etableres med mindre vi forstår hvilke scenarier kunstig intelligens (AI) vil komme opp med, mener forfatterne av en artikkel fra 2021. Så snart datasystemet fungerer på et nivå som overgår evnene til våre programmerere, vil vi ikke lenger kunne sette grenser.

Kunstig intelligens

«Superintelligens er et fundamentalt annet problem enn de som vanligvis studeres under banneret «robotetikk»», skriver forskerne. "Dette er fordi supersinnet er mangefasettert og derfor potensielt er i stand til å mobilisere en rekke ressurser for å oppnå mål som er potensielt ufattelige for mennesker, enn si kontrollerbare."

En del av lagets resonnement kommer fra stans problemer, foreslått av Alan Turing i 1936. Utfordringen er å finne ut om dataprogrammet vil komme til en konklusjon og svare (og stoppe) eller bare henge rundt for alltid og prøve å finne svaret.

Som Turing beviste med hjelp intelligent matematikkSelv om vi kanskje vet dette for noen spesifikke programmer, er det logisk sett umulig å finne en måte som lar oss vite dette for alle potensielle programmer som noen gang kan skrives. Dette bringer oss tilbake til AI, som i en superintelligent tilstand kunne lagre alle mulige dataprogrammer i minnet samtidig.

Også interessant:

Ethvert program som for eksempel er skrevet for å stoppe en AI fra å skade mennesker og ødelegge verden, kan eller ikke kan komme til en konklusjon (og stoppe) - det er matematisk umulig å være helt sikker uansett, noe som betyr at det ikke kan holdes tilbake. "Det gjør i utgangspunktet avskrekkingsalgoritmen ubrukelig," sa informatiker Iyad Rahwan ved Max Planck Institute for Human Development i Tyskland i januar.

Et alternativ til å undervise i AI-etikk og forbud mot å ødelegge verden, som ingen algoritme kan være helt sikre på, sier forskerne, er å begrense supersinnets muligheter. Det kan for eksempel være avskåret fra deler av Internett eller visse nettverk.

Forfatterne av en fersk studie avviser også denne ideen, og tror at den vil begrense omfanget av kunstig intelligens - de sier, hvis vi ikke skal bruke den til å løse problemer utover menneskelige evner, hvorfor lage den i det hele tatt?

Kunstig intelligens

Hvis vi skal fremme kunstig intelligens, vet vi kanskje ikke engang når en superintelligens vil dukke opp, utenfor vår kontroll, så ufattelig er det. Dette betyr at vi må begynne å stille seriøse spørsmål om hvor vi er på vei.

"En superintelligent maskin som driver verden høres ut som science fiction," sier informatiker Manuel Kebrian ved Max Planck Institute for Human Development. Men det er allerede maskiner som uavhengig utfører noen viktige oppgaver, mens programmerere ikke helt forstår hvordan de lærte dette.

Derfor oppstår spørsmålet om det på et tidspunkt kan bli ukontrollerbart og farlig for menneskeheten...

Les også:

Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer