Root NationNyheterIT-nyheterDen tidligere sjefen for Google sammenlignet kunstig intelligens med atomvåpen

Den tidligere sjefen for Google sammenlignet kunstig intelligens med atomvåpen

-

Tidligere Google-sjef Eric Schmidt sammenlignet kunstig intelligens (AI) med atomvåpen og ba om et avskrekkingsregime, likt gjensidig sikret ødeleggelse, som hindrer verdens mektigste nasjoner fra å ødelegge hverandre.

Den tidligere sjefen for Google sammenlignet kunstig intelligens med atomvåpen

Schmidt snakket om farene ved kunstig intelligens på Aspen Security Forum 22. juli under en diskusjon om nasjonal sikkerhet og AI. På spørsmål om verdien av moral i teknologi, forklarte Schmidt at han selv var naiv når det gjaldt informasjonens kraft i Googles tidlige dager. Han ba deretter om teknologi for å bedre samsvare med etikken og moralen til menneskene de tjener, og gjorde en merkelig sammenligning mellom kunstig intelligens og atomvåpen.

Schmidt snakket om den nærmeste fremtiden, der Kina og USA må inngå en avtale om kunstig intelligens. "På 50- og 60-tallet endte vi opp med å skape en verden der det var en regel om "ingen overraskelser" for atomtesting, og som et resultat ble de forbudt, sa Schmidt. «Dette er et eksempel på balansen mellom tillit eller mangel på tillit, dette er regelen om «ingen overraskelser». Jeg er veldig bekymret for at USAs syn på Kina som korrupt eller kommunistisk eller hva som helst, og Kinas syn på Amerika som en taper... vil tillate folk å si: "Herregud, de har noe å gjøre," og så noe uforståelig vil begynne... .

AI og maskinlæring er en fascinerende og ofte misforstått teknologi. Han er i grunnen ikke så smart som folk tror. Den kan lage kunstverk på mesterverksnivå, slå folk på Starcraft II og foreta rudimentære telefonsamtaler for brukere. Forsøk på å få den til å utføre vanskeligere oppgaver, som å kjøre bil i en stor by, har imidlertid ikke vært vellykket.

Schmidt snakker om en tenkt nær fremtid der både Kina og USA vil være bekymret for sikkerhetsspørsmål, som vil tvinge dem til å inngå en slags traktat for å inneholde AI. Han husket 1950- og 60-tallet, da diplomatiet utviklet en rekke kontroller rundt de dødeligste våpnene på planeten. Men det tok et tiår med atomeksplosjoner og, viktigst av alt, ødeleggelsen av Hiroshima og Nagasaki, før freden kom før konklusjonen av atomprøveforbudstraktaten, SALT II og annen landemerkelovgivning.

To japanske byer ødelagt av Amerika på slutten av andre verdenskrig tok livet av titusenvis av mennesker og beviste for verden den evige redselen til atomvåpen. Da hastet regjeringene i Russland og Kina for å skaffe seg våpen. Måten vi lever med muligheten for at disse våpnene vil bli brukt er det som er kjent som Mutually Assured Destruction (MAD), en teori om avskrekking som sikrer at hvis ett land skyter opp et atomvåpen, er det mulig at et hvilket som helst annet land vil. Vi bruker ikke de mest destruktive våpnene på planeten på grunn av muligheten for at det vil ødelegge i det minste sivilisasjonen rundt om i verden.

Til tross for Schmidts fargerike kommentarer, vil vi ikke ha eller trenger MAD for AI. For det første har AI ennå ikke bevist sin destruktive kraft sammenlignet med atomvåpen. Men makthaverne frykter denne nye teknologien, og vanligvis av feil grunner. Folk har til og med foreslått å overlate kontrollen over atomvåpen til en kunstig intelligens, i troen på at det ville være en bedre dommer for bruken av det enn et menneske.

Den tidligere sjefen for Google sammenlignet AI med atomvåpen

Problemet med kunstig intelligens er ikke at den har den potensielt destruktive kraften til et atomvåpen. Poenget er at kunstig intelligens bare er like god som menneskene som utviklet den, og at den bærer på verdiene til dens skapere. AI lider av det klassiske "søppel inn, søppel ut"-problemet: rasistiske algoritmer skaper rasistiske roboter, og all AI bærer skjevhetene til skaperne.

Demis Hassabis, administrerende direktør i DeepMind, selskapet som trente AI-en som slår Starcraft II-spillere, ser ut til å forstå dette bedre enn Schmidt. I et juli-intervju på Lex Friedmans podcast spurte Friedman Hassabis hvordan en så kraftig teknologi som AI kan kontrolleres, og hvordan Hassabis selv kan unngå å bli ødelagt av den kraften.

Khasabis' svar handler om ham selv. "Kunstig intelligens er en for stor idé," sa han. «Det er viktig hvem som skaper AI, hvilke kulturer de kommer fra og hvilke verdier de har. AI-systemer vil lære av seg selv... men systemet vil forbli preget av kulturen og verdiene til systemets forfattere."

Kunstig intelligens er en refleksjon av forfatteren. Den kan ikke jevne en by med bakken med en eksplosjon på 1,2 megaton. Med mindre en person lærer ham dette.

Du kan hjelpe Ukraina med å kjempe mot de russiske inntrengerne. Den beste måten å gjøre dette på er å donere midler til Ukrainas væpnede styrker gjennom Redd livet eller via den offisielle siden NBU.

Les også:

Dzherelovice
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer