Root NationArtiklerAnalyticsSeks bud om kunstig intelligens

Seks bud om kunstig intelligens

-

De påfølgende årene vil være preget av den raske utviklingen av teknologier for kunstig intelligens. Kanskje det er nødvendig å innføre klart definerte rammer for opprettelse og bruk av AI? Er 6 måneders erfaring nok til å regulere en teknologi som ikke engang har forlatt laboratoriet ennå? Dette spørsmålet kommer i økende grad fra munnen til eksperter og journalister når det kommer til kunstig intelligens. Stemmer og oppfordringer til å iverksette tiltak for å regulere kunstig intelligens – både på brukernivå og på prosjektutviklingsnivå – høres stadig oftere. Historien om slike appeller begynte for ganske lenge siden.

Den allestedsnærværende tilstedeværelsen av kunstig intelligens i det digitale rommet og fremfor alt av modeller som er i stand til å lage innhold som ikke vil skille seg fra det som skapes av mennesker, fremkaller svært forskjellige følelser. På den ene siden har vi en gruppe entusiaster som ser fremtiden innen AI, og til tross for dens relativt begrensede evner (fordi AI ikke tenker, og ofte bare tar informasjon fra Internett), ikke er redde for å betro den mange oppgaver . På den andre siden av barrikaden står en gruppe som uttrykker sin skepsis og bekymring for dagens trender i utviklingen av kunstig intelligens.

AI-postulat

Broen mellom de to gruppene er kunstig intelligens-forskere, som på den ene siden nevner en rekke eksempler på hvordan kunstig intelligens har påvirket den omkringliggende virkeligheten positivt. Samtidig forstår de at det er for tidlig å hvile på laurbærene, og et stort teknologisprang gir mange utfordringer og stort ansvar. Et tydelig eksempel på denne holdningen er en internasjonal gruppe forskere innen kunstig intelligens og maskinlæring ledet av Dr. Ozlem Garibay fra University of Central Florida. Den 47 sider lange publikasjonen, skrevet av 26 forskere fra hele verden, identifiserer og beskriver seks utfordringer som forskningsinstitusjoner, selskaper og selskaper må ta tak i for å gjøre modellene deres (og programvaren som bruker dem) sikre.

Ja, dette er et seriøst vitenskapelig arbeid med viktige forklaringer for å forstå fremtiden til kunstig intelligens. Hvem er interessert, kan selvstendig les denne vitenskapelige rapporten og trekk dine egne konklusjoner. Med enkle ord har forskere identifisert 6 bud om kunstig intelligens. Alle AI-utviklinger og handlinger må samsvare med dem slik at det er trygt for mennesker og verden.

AI-postulat

I min artikkel, skrevet nettopp på grunnlag av dette vitenskapelige arbeidet, vil jeg prøve å formulere hovedpostulatene, lover som kunstig intelligens bør eksistere og utvikles etter. Ja, dette er min nesten frie tolkning av forskernes konklusjoner angående utviklingen av kunstig intelligens og et forsøk på å presentere dem i så å si en bibelsk versjon. Men dette er hvordan jeg ønsket å introdusere deg til dette vitenskapelige arbeidet til respekterte forskere.

Også interessant: Bygge AI: Hvem leder løpet?

Den første loven: Menneskets velvære

Det første postulatet til forskerne er å fokusere arbeidet med kunstig intelligens på menneskelig velvære. På grunn av mangelen på «menneskelige verdier, sunn fornuft og etikk» kan kunstig intelligens opptre på en måte som vil føre til en betydelig forringelse av menneskelig velvære. Problemer kan være et resultat av AIs overmenneskelige evner (for eksempel hvor lett AI slår mennesker – og ikke bare i sjakk), men også det faktum at AI ikke tenker selv, og derfor ikke er i stand til å "filtrere ut" skjevheter eller åpenbare feil.

AI Postulat

- Annonse -

Forskere bemerker at overdreven tillit til kunstig intelligens-teknologier kan påvirke folks velvære negativt. Et samfunn som har liten forståelse for hvordan kunstig intelligens-algoritmer faktisk fungerer, har en tendens til å overtro det, eller tvert imot, har en negativ holdning til innhold generert av en bestemt modell, spesielt chatbots. Med tanke på disse og andre faktorer, krever Garibays team å sette menneskelig velvære i sentrum for fremtidige AI-menneskelige interaksjoner.

Les også: ChatGPT: en enkel brukerveiledning

Den andre loven: Ansvar

Ansvarlighet er et begrep som stadig dukker opp i AI-verdenen i sammenheng med hva vi bruker maskinlæring til, og hvordan akkurat AI-modeller og algoritmer utvikles og trenes. Det internasjonale teamet understreker at design, utvikling og implementering av kunstig intelligens utelukkende skal gjøres med gode intensjoner.

AI Postulat

Etter deres mening bør ansvar vurderes ikke bare i en teknisk, men også i en juridisk og etisk sammenheng. Teknologi må vurderes ikke bare ut fra dens effektivitet, men også i sammenheng med bruken.

"Med introduksjonen av avanserte maskinlæringsteknikker blir det stadig viktigere å forstå hvordan en beslutning ble tatt og hvem som er ansvarlig for den” - skriver forskerne.

Den tredje loven: Konfidensialitet

Personvern er et tema som boomeranger inn i enhver diskurs om teknologi. Spesielt når alt diskuteres i sosiale nettverk. Dette er imidlertid ekstremt viktig for kunstig intelligens fordi det ikke eksisterer uten en database. Og hva er databaser?

Forskere beskriver dem som "en abstraksjon av de grunnleggende byggesteinene som utgjør måten vi ser verden på." Disse blokkene er vanligvis verdslige verdier: farger, former, teksturer, avstander, tid. Mens smal AI fokusert på et enkelt mål, for eksempel i hvilken grad lukkeren åpner ved en gitt lysintensitet, bruker offentlig tilgjengelige objektive data, AI i bredere applikasjoner (her, for eksempel, tekst-til-bilde-modeller som Midjourney , eller språkmodeller som ChatGPT ) kan bruke data om og opprettet av personer. Artikler i pressen, bøker, illustrasjoner og fotografier publisert på Internett bør også nevnes. Algoritmer for kunstig intelligens har tilgang til alt, fordi vi selv har gitt dem det. Ellers vil han ikke vite noe og vil ikke gi svar på noen spørsmål.

AI Postulat

Brukerdata påvirker fundamentalt både personene som disse dataene samles inn om og personene i systemet der kunstig intelligens-algoritmene skal implementeres.

Derfor er den tredje utfordringen knyttet til en bred forståelse av personvern og tildeling av rettigheter som retten til å forbli alene, retten til å begrense tilgangen til seg selv, retten til hemmelighold av sitt personlige liv eller virksomhet, retten til å kontrollere personlige informasjon, det vil si retten til å beskytte sin personlighet, individualitet og verdighet. Alt dette må skrives inn i algoritmene, ellers vil personvernet rett og slett ikke eksistere, og AI-algoritmer kan brukes i både svindelopplegg og straffbare handlinger.

Les også: 7 kuleste måter å bruke ChatGPT på

Fjerde lov: Prosjektstruktur

Kunstig intelligens kan være ekstremt enkelt og enkeltbruk, men i tilfelle av større modeller med en bred og multi-tasking karakter, er problemet ikke bare datapersonvern, men også designstrukturen.

For eksempel har GPT-4, OpenAIs siste kunstige intelligensmodell, til tross for størrelsen og innvirkningen på AI-verdenen (og videre), ikke fullstendig offentlig dokumentasjon. Det vil si at vi ikke har en forståelse av hva de endelige målene er for utviklerne, hva de ønsker å få i sluttresultatet. Derfor kan vi ikke fullt ut vurdere risikoen forbundet med bruken av denne AI-modellen. GPT-3, derimot, trent på data fra 4chan-forumet, er en modell du definitivt ikke vil samhandle med. 4chan-forumet er et av de mest interessante fenomenene på Internett. Dette er et eksempel på absolutt, totalt anarki, som i praksis ikke er begrenset av noen ramme. Det var her hackinggrupper som Anonymous eller LulzSec ble opprettet. Det er kilden til mange av de mest populære memene, et sted å diskutere kontroversielle emner og publisere enda mer kontroversielle meninger. Selv om det engelskspråklige imageboardet bemerker at «så langt er det lovlig», er dette noe tvilsomt, gitt at 4chan av og til engasjerer seg i media, inkludert rasistisk, nazistisk og sexistisk innhold.

AI Postulat

- Annonse -

Professor Garibays team ønsker at hver modell av kunstig intelligens skal fungere innenfor et klart definert rammeverk. Ikke bare på grunn av trivselen til personen som AI samhandler med, men også på grunn av evnen til å vurdere risikoene forbundet med bruken av modellen. Strukturen til ethvert prosjekt bør inkludere respekt for behov, verdier og ønsker til ulike kulturgrupper og interessenter. Prosessen med å skape, trene og finjustere AI bør være fokusert på menneskelig velvære, og sluttproduktet – AI-modellen – bør være fokusert på å forbedre og forbedre produktiviteten til det menneskelige fellesskapet selv. Modeller der risikoer ikke kan identifiseres bør ha begrenset eller kontrollert tilgang. De skal ikke være en trussel mot menneskeheten, men tvert imot bidra til utviklingen av mennesket og samfunnet som helhet.

Les også: Twitter i hendene på Elon Musk - en trussel eller "forbedring"?

Den femte loven: styring og uavhengig tilsyn

Kunstig intelligens-algoritmer endret bokstavelig talt verden på bare ett år. Bard av Google og Bing har premiere av Microsoft påvirket aksjene til begge gigantene på børsen betydelig. Forresten, de bidro til veksten av aksjene i disse selskapene selv på bakgrunn av aksjer Apple. ChatGPT har begynt å bli aktivt brukt av skoleelever, de kommuniserer med det, undersøker det og stiller spørsmål. Det viktigste er at han har evnen til å lære seg selv, rette opp sine feil. Kunstig intelligens begynner til og med å fungere i regjeringene i enkelte land. Dette er tilfellet med statsministeren i Romania, Nicolae Chuca leide en virtuell en assistent som vil informere ham om samfunnets behov. Det vil si at kunstig intelligens spiller en stadig viktigere rolle i livene våre.

AI

Gitt den stadig økende gjensidige avhengigheten mellom kunstig intelligens, mennesker og miljø, anser forskere det som nødvendig å opprette styrende organer og uavhengig tilsyn med utviklingen. Disse organene vil kontrollere hele livssyklusen til kunstig intelligens: fra idé til utvikling og implementering. Myndighetene vil på riktig måte definere ulike modeller for kunstig intelligens og vurdere saker knyttet til kunstig intelligens og temaer i det sosiale livet. Det vil si at kunstig intelligens kan bli gjenstand for rettssaker, så vel som søksmål. Selv om det selvfølgelig ikke er ham personlig, men utviklerne hans.

Les også: Alt om Neuralink: The Beginning of Cyberpunk Madness?

Den sjette loven: Samspillet mellom mennesket og kunstig intelligens

I programmer for kunstig intelligens kan alle finne noe for seg selv: generere tekst, oppdage innhold i bilder, svare på spørsmål, generere bilder, gjenkjenne personer på bilder, analysere data. Disse flere bruksområdene er ikke bare et problem for folk som prøver å tilpasse kunstig intelligens til juridiske og etiske standarder. Mange frykter å bli fortrengt fra arbeidsmarkedet av AI-modeller. Fordi kunstig intelligens-algoritmer vil kunne gjøre det samme raskere, billigere og kanskje til og med bedre enn en person. Samtidig er det mennesker som er avhengige av AI i arbeidet sitt, det vil si at kunstig intelligens allerede er en uunnværlig assistent for dem i dag.

AI

Men fra studiene som forskerne referer til, er det klart at erstatning av mennesker med billig kunstig arbeidskraft fortsatt er ganske langt unna. Til tross for dette insisterer de allerede på behovet for å etablere et strengt hierarki av interaksjon mellom mennesker og kunstig intelligens. Etter deres mening bør mennesker settes over kunstig intelligens. Kunstig intelligens må skapes med respekt for en persons kognitive evner, under hensyntagen til hans følelser, sosiale interaksjoner, ideer, planlegging og interaksjon med objekter. Det vil si at i alle situasjoner er det personen som må stå over den kunstige intelligensen, kontrollere atferden og innholdet som skapes av modellen, og være ansvarlig for den. Med enkle ord, selv den mest avanserte AI må adlyde en person og ikke gå utover det som er tillatt, for ikke å skade skaperen.

Les også: Hvordan Ukraina bruker og tilpasser Starlink i krigstid

Konklusjoner

Ja, noen vil si at forskerne ikke indikerte noe viktig og nytt i rapporten deres. Alle har snakket om dette lenge. Men allerede nå er det nødvendig å sette AI inn i noen rammeverk av lover. Å strekke seg etter GPT-4 er som å strekke seg blindt etter en kniv. De skjuler nøkkelinformasjon for oss. All utvikling innen kunstig intelligens, og spesielt ChatGPT-prosjektet fra Open AI, minner meg ofte om å oppdra et lite barn. Noen ganger ser det ut til at dette er et barn av fremmed opprinnelse. Ja, en romvesen, men han er fortsatt et barn som lærer, gjør feil, noen ganger oppfører seg upassende, er irritabel, krangler med foreldrene sine. Selv om den vokser og utvikler seg veldig raskt.

AI

Menneskeheten holder kanskje ikke tritt med utviklingen sin, og ting kan komme ut av kontroll. Derfor trenger menneskeheten allerede å forstå hvorfor vi utvikler alt dette, å vite de endelige målene, å være "ansvarlige foreldre", for ellers kan "barnet" rett og slett ødelegge sine "foreldre".

Les også: 

Yuri Svitlyk
Yuri Svitlyk
Sønn av Karpatene, ukjent geni innen matematikk, "advokat"Microsoft, praktisk altruist, venstre-høyre
- Annonse -
Melde deg på
Gi beskjed om
gjest

0 Kommentar
Innebygde anmeldelser
Se alle kommentarer