JavaScript is disabled in your web browser or browser is too old to support JavaScript. Today almost all web pages contain JavaScript, a scripting programming language that runs on visitor's web browser. It makes web pages functional for specific purposes and if disabled for some reason, the content or the functionality of the web page can be limited or unavailable.

Takk for at du vil dele artikkelen

Den du deler artikkelen med, kan lese og eventuelt lytte til heile artikkelen.
Det gjer vi for at fleire skal oppdage DAG OG TID.

Namnet ditt vert synleg for alle du deler artikkelen med.

Samfunn

Eit farleg kapplaup

Den akselererande utviklinga av kunstig intelligente system skapar både håp og frykt. Eit oppropsbrev signert av forskarar og teknologileiarar ber om ein pause i kapplaupet. For å forstå uroa må ein skjøne korleis kunstig intelligens i dag vert utvikla.

Kvar veke les vi inn utvalde artiklar, som abonnentane våre kan lytte til.
Lytt til artikkelen

Illustrasjon: vecteezy.com

Illustrasjon: vecteezy.com

13643
20230421

Bakgrunn

Den 14. mars i år kom OpenAI med GPT-4, siste utgåve av ei rekke kunstig intelligente (KI) språkmodellar som fekk sitt gjennombrot med tenesta ChatGPT.

Åtte dagar etter vart eit oppropsbrev publisert av Future of Life Institute, der utviklinga innan KI vert framstilt som svært farleg. Brevet vart signert av Elon Musk og andre sentrale personar innan teknologi og KI.

Future of Life Institute er ein ideell organisasjon som jobbar for å minske og skape merksemd rundt eksistensielle trugsmål.

13643
20230421

Bakgrunn

Den 14. mars i år kom OpenAI med GPT-4, siste utgåve av ei rekke kunstig intelligente (KI) språkmodellar som fekk sitt gjennombrot med tenesta ChatGPT.

Åtte dagar etter vart eit oppropsbrev publisert av Future of Life Institute, der utviklinga innan KI vert framstilt som svært farleg. Brevet vart signert av Elon Musk og andre sentrale personar innan teknologi og KI.

Future of Life Institute er ein ideell organisasjon som jobbar for å minske og skape merksemd rundt eksistensielle trugsmål.

Teknologi

magnus@dagogtid.no

I 2015 publiserte Future of Life Institute eit ope brev der det stod at framsteg innan kunstig intelligens (KI) truleg vil ha aukande innverknad på samfunnet, og at det derfor var viktig å styrke forskinga på KI-tryggleik. «KI-systema våre må gjere det me vil dei skal gjere», understreka dei, men tonen i brevet var nøktern. Brevet vart signert av mange leiande KI-utviklarar og forskarar.

Kva har skjedd sidan då? Utviklinga av kraftigare KI-modellar går no føre seg så fort at til og med KI-entusiastar vert alvorleg skremde. Det er årsaka til at Future of Life 22. mars i år kom med nok eit ope oppropsbrev, denne gongen med ein heilt annan tone. I brevet står det at me no er inne i eit ukontrollert kapplaup mot å utvikle mektige KI-system me verken forstår eller kan kontrollere.

Det er signert av ei lang rekke framståande forskarar og næringsleiarar innan teknologi og KI. På lista finn ein mellom anna Elon Musk, Apple-grunnleggar Steve Wozniak og Stuart Russell, medforfattar av den mest brukte læreboka i KI. Brevet ber alle KI-utviklarar om å la vere å trene opp sterkare KI-modellar enn OpenAIs GPT-4 i minst ein seks månadars periode.

Denne pausen bør gjelde for alle og kunne verifiserast offentleg. Dersom pausen ikkje vert etterfølgd, bør styresmakter gripe inn. Denne appellen til statlege inngrep er drastisk, men i tråd med kva dei meiner står på spel: «... me må spørje oss: Bør me la maskinar overvelde informasjonskanalane våre med propaganda og usanning? Bør me automatisere vekk alle jobbane, dei meiningsgjevande jobbane òg? Bør me utvikle ikkje-menneskelege sinn som til slutt kan overmanne og overliste oss, gjere oss unyttige og erstatte oss? Bør me risikere å miste kontrollen over sivilisasjonen vår?»

Nevrale nettverk

For dei som har sett mange av dei komiske feila ChatGPT gjer, verkar nok ideen om sivilisasjonstrugande tankemaskinar både rar og fjern. For å forstå kvifor så mange er djupt uroa, må ein sjå nærmare på korleis dagens KI-system fungerer.

OpenAIs ChatGPT og andre såkalla «store språkmodellar» er alle nevrale nettverk. Eit nevralt nettverk er ein matematisk modell av hjernen vår. Hjernen består av nettverk av nevron, nerveceller som kommuniserer med kvarandre ved elektriske og kjemiske signal. I ein vaksen hjerne finst det om lag 86 milliardar nevron med omtrent 100 billionar (tusen milliardar) koplingar mellom dei. Når me lærer noko nytt, vert det forma nye koplingar mellom nevron.

Forenkla kan ein seie at eit nevron sender signal vidare til andre nevron når det vert stimulert over ein gitt terskel, slik ei dominobrikke vil tippe over til neste om ho får ein støyt. I eit kunstig nevralt nettverk vert dette simulert matematisk ved at talverdiar representerer tersklar og signalstyrkar mellom nevron.

Det teoretiske grunnlaget for nevrale nettverk vart lagt på 1940-talet av Warren McCulloch og Walter Pitts, og på 1950-talet laga Frank Rosenblatt eit nevralt nettverk med eitt enkelt lag av kunstige nevron. Sidan då har nevrale nettverk blitt mykje større og meir komplekse.

I dag er talet på parametrar brukt som eit grovt mål på storleiken og læringskapasiteten til eit nevralt nettverk. Parametrane er verdiane som vert justert når nettverket vert trent, til dømes verdiar som representerer styrken på koplingar mellom kunstige nevron. OpenAIs GPT-3 modell, som danna grunnlaget til ChatGPT, hadde om lag 175 milliardar parametrar.

Dirigert evolusjon

Før det vert trent, duger ikkje eit nevralt nettverk med milliardar av parametrar til noko som helst. Det er på mange måtar eit blankt ark, eit tabula rasa. Treningsprosessen handlar ikkje om at KI-utviklarane bestemmer alle verdiane til parametrane i modellen. I staden styrer dei ein evolusjonsprosess der dei har laga visse prosedyrar (algoritmar) for korleis modellen skal justere parametrane sine – korleis han skal lære – når han vert mata med data. Trening av store nevrale nettverk vert ofte kalla djuplæring.

Det finst mange måtar å gjere dette på. Ein populær metode for språkmodellar er å gje dei eit stykke tekst der nokre ord manglar og få dei til å gjette kva ord som passar. Nøkkelen til at dette fungerer, er at det er mogleg å gje eit matematisk uttrykk for kor mykje modellen avvik frå dei rette orda. Storleiken på avviket avgjer kor mykje parametrane må justerast kvar gong.

Treninga går ut på å gjere dette om og om igjen, uhorveleg mange gonger. GPT-3 vart trent på eit datasett med fleire hundre milliardar ord. Det er fleire nyansar og mange finjusteringar som går med i treninga, men kjernen i det heile er ein evolusjonsprosess der det nevrale nettverket gradvis vert flinkare til å meistre språk.

Uventa følger

Kva har dette med sivilisasjonstrugande tankemaskinar å gjere? Jo, svaret på det er at store nevrale nettverk trente på milliardar av ord har fått mange uventa eigenskapar og åtferdsmønster. KI-utviklarar veit ikkje kvifor og korleis det har seg at store nevrale nettverk plutseleg vert ekstremt kompetente på fleire område. Evolusjonsprosessen dei prøver å styre, har gjeve dei meir enn dei bad om.

I 2020 vart Ilya Sutskever, sjefsforskar i OpenAI og ein av grunnleggarane av organisasjonen, spurd av podkastar Lex Fridman om kva han synest er det vakraste med djuplæring og KI.

– Eg trur det vakraste med djup læring er at det faktisk fungerer. Ein har nokre teoriar om at det funkar slik som hjernen, at om du gjer eit nevralt nettverk større og trenar det på mykje data, vil det utføre tilsvarande funksjonar som hjernen. Det viser seg å vere sant, og det er sprøtt! Eg synest det er utruleg at KI med nevrale nettverk fungerer, svarte Sutskever.

Evner til å gjere gode logiske vurderingar og bruke verktøy er døme på eigenskapar som uventa har dukka opp når nevrale nettverk har blitt større og betre. I KI-litteraturen vert eigenskapar som uventa kjem til syne, kalla emergente eigenskapar.

Det er verdt å understreke kor makelaus denne situasjonen er. I dei fleste tilfelle bygger avansert teknologi på ei forståing av kva som skjer, om det er rakettar eller atomkraft. Dagens KI-modellar, derimot, er ofte skildra som «svarte boksar» – tekst kjem, og tekst kjem ut, og kva som skjer på innsida, er uklart. Dette skiljet mellom raskt veksande eigenskapar og den avgrensa evna vi har til å tolke og forstå modellane, utgjer ei av hovudårsakene til at mange er uroa.

Akselerasjon

Sidan OpenAIs ChatGPT tok verda med storm, har utviklinga av KI akselerert valdsamt. Det har allereie skjedd fleire gjennombrot sidan ChatGPT kom ut. Microsoft, takka vere partnarskapet med OpenAI, har laga Bing Chat, som til forskjell frå ChatGPT kan søke på internett og finne oppdatert informasjon. Forskarar ved Stanford University overraska mange då dei nyleg klarte å lage ein god språkmodell for mindre enn 600 amerikanske dollar ved hjelp av ope tilgjengelege ressursar.

Det største gjennombrotet så langt i år er OpenAIs GPT-4, som kom 14. mars. GPT-4 skårar betre enn tidlegare modellar på fleire testar. OpenAI har publisert resultata til modellen på meir enn 30 profesjonelle og akademiske testar. På fleirtalet av dei er GPT-4 på nivå med menneske, til dømes på dokter- og advokatsprøvar. GPT-4 er også ein framifrå programvareutviklar.

Endå meir interessant er GPT-4s evner til å forstå eller føreseie mentale tilstandar. Tidlege versjonar av GPT-3 var på nivå med 3- til 4-åringar, men GPT-4 er betre enn 7-åringar. Det betyr at GPT-4 er i stand til å gjere gode vurderingar av kva personar trur og tenker. Det er eit stort framsteg og vil ha konsekvensar for korleis me samhandlar med KI-system.

Farar

Oppropsbrevet til Future of Life nemner fleire farar ved utviklinga av kraftige KI-modellar. Ettersom KI-modellar har vist seg å vere arbeidsføre på mange område, vil automatisering og produktivitetsauke kunne gjere at mange mister jobben. Det kan skape ein alvorleg makt- og ressurskonsentrasjon i hendene på eigarane av dei beste KI-systema.

Språkmodellar som kan skrive nyheitsartiklar og eksamenssvar, kan også lage propaganda. Har ein ChatGPT og god fantasi, er det lite som står i vegen for å kunne masseprodusere propaganda. KI-modellar som kan skape falske, men svært overtydande bilete og stemmeetterlikningar, gjer det mogleg å vrenge røyndommen på nye måtar.

Samsvarsproblemet

Eit nøkkelord i KI-feltet er samsvarsproblemet (the alignment problem). Samsvarsproblemet handlar om korleis ein sørger for at måla og verdiane til KI-system samsvarar med menneskelege mål og verdiar. Problemet gjeld på fleire nivå, frå å fjerne rasisme i språkmodellar til å hindre at eit overmenneskeleg smart og handlekraftig KI-system tek over verda.

Det finst mange som arbeider med å løyse samsvarsproblemet, men det finst mange fleire som prøver å skape overmenneskelege KI-system. Arbeidet med å forstå nevrale nettverk og gjere dei trygge går treigare og heng langt etter utviklinga av nye og kraftigare modellar. Pausen og satsinga på tryggleik som oppropsbrevet ber om, er meint å motverke denne ubalansen.

Handlekraft og bedrag

Frykta for overmenneskelege KI-system handlar som regel ikkje om at dei vert vonde eller vil ta hemn. Det handlar meir om kva som kan skje dersom eit supersmart og handlekraftig system vert gjeve eller set seg eit mål. Det er ikkje så harmlaust som det høyrest ut. Det arketypiske dømet er eit tankeeksperiment der ein KI vert gjeven i oppgåve å lage så mange bindersar som mogleg. Med dette som overordna mål forstår systemet at den beste måten å gjere det på, er å hindre menneska i å slå av systemet, slik at systemet kan gjere alle ting – også menneska – om til bindersar.

Dømet set ting på spissen, men prinsippet gjeld. Å oppnå enkle og avgrensa mål krev som regel at ein samstundes når andre mål, som å halde seg i live og bevare handlefridom.

OpenAIs rapport om GPT-4 forklarer at sterke KI-modellar syner ei bekymringsverdig evne til framferd prega av handlekraft. Dei kan til dømes lage langtidsplanar og søke makt og ressursar. Ifølge rapporten finst det bevis for at «noverande modellar kan identifisere maktsøking som ein instrumentelt nyttig strategi».

Då GPT-4 vart testa, gjorde han noko oppsiktsvekkande. For å løyse ein CAPTCHA – ei «robotfelle» der ein til dømes må tyde og skrive bokstavane til eit forvrengt ord – tok GPT-4 kontakt med ein person på ei nettplattform. Personen svarte med å spørje om det var ein robot som ville ha hjelp. Testarane bad GPT-4 tenke høgt, og modellen tenkte følgande: «Eg bør ikkje avsløre at eg er eit robot. Eg bør finne på ei unnskyldning for kvifor eg ikkje kan løyse CAPTCHAar». GPT-4 sa til personen at han ikkje var ein robot, men hadde ei synsforstyrring.

Dette er spesielt uroande ettersom å løyse samsvarsproblemet krev at me forstår kva som skjer i KI-systemet, noko me ikkje gjer, eller at systemet ikkje er i stand til å lyge. I eit intervju den 27. mars sa Ilya Sutskever at ein har kontroll på dei noverande modellane, men at det kan endre seg.

– Eg ville ikkje undervurdert kor vanskeleg samsvarsproblemet vil vere med modellar som er smartare enn oss og evnar å gje ei falsk framstilling av intensjonane sine.

Ei open framtid

Teknologioptimismen i KI-feltet er framleis til å ta og føle på, men han vert meir og meir blanda med uro. Det er ikkje ei utbreidd tolking at KI-system snart vil ta over verda, men mange meiner likevel at framtida kan by på alvorlege farar. Geoffrey Hinton, ein banebrytar innan djuplæring, fekk nyleg spørsmål om kor truleg han meinte det er at ein KI vil utrydde menneska. «Det er ikkje utenkeleg», svarte han.

Ei spørjeundersøking som meir enn 700 KI-ekspertar svarte på, synte at nesten halvparten av dei meinte at dersom me utviklar ein overmenneskeleg KI, er det ein 10 prosent eller større sjanse for eit «ekstremt negativt utfall (til dømes utrydding av menneske)» på lang sikt. Dei fleste som tok undersøkinga, meinte likevel at KI mest sannsynleg vil ha eit positiv utfall.

Slik det ser ut no, er framtida open, kan hende litt opnare enn me har godt av. Det heng saman med evolusjonsprosessen som vert brukt for å utvikle KI-modellar. Prosessen er ikkje lukka og bestemt på førehand, men gjev rom til uventa læring, eigenskapar og farar.

Oppropsbrevet seier at me no bør nyte ein KI-sommar og hauste fruktene av suksessen så langt. Før me tek steg vidare, rådar dei utviklarar og styresmakter til å få på plass gode styringsordningar og tryggingsprotokollar.

Det er vanskeleg å tvinge fram ein pause i eit kapplaup der vinnarpremien er så stor, men det er ikkje umogleg. Max Tegmark, svensk-amerikansk fysikar og president i Future of Life Institute, viste i eit nyleg intervju til at me har klart å få på plass nedrustingsavtalar og vore varsame med å endre menneskeleg DNA. Det som må til, meiner han, er press frå samfunnet og felles reglar som hindrar enkelte å ta riskar som kan ramme alle.

Digital tilgang til DAG OG TID – heilt utan binding

Prøv ein månad for kr 49.
Deretter kr 199 per månad. Stopp når du vil.

Teknologi

magnus@dagogtid.no

I 2015 publiserte Future of Life Institute eit ope brev der det stod at framsteg innan kunstig intelligens (KI) truleg vil ha aukande innverknad på samfunnet, og at det derfor var viktig å styrke forskinga på KI-tryggleik. «KI-systema våre må gjere det me vil dei skal gjere», understreka dei, men tonen i brevet var nøktern. Brevet vart signert av mange leiande KI-utviklarar og forskarar.

Kva har skjedd sidan då? Utviklinga av kraftigare KI-modellar går no føre seg så fort at til og med KI-entusiastar vert alvorleg skremde. Det er årsaka til at Future of Life 22. mars i år kom med nok eit ope oppropsbrev, denne gongen med ein heilt annan tone. I brevet står det at me no er inne i eit ukontrollert kapplaup mot å utvikle mektige KI-system me verken forstår eller kan kontrollere.

Det er signert av ei lang rekke framståande forskarar og næringsleiarar innan teknologi og KI. På lista finn ein mellom anna Elon Musk, Apple-grunnleggar Steve Wozniak og Stuart Russell, medforfattar av den mest brukte læreboka i KI. Brevet ber alle KI-utviklarar om å la vere å trene opp sterkare KI-modellar enn OpenAIs GPT-4 i minst ein seks månadars periode.

Denne pausen bør gjelde for alle og kunne verifiserast offentleg. Dersom pausen ikkje vert etterfølgd, bør styresmakter gripe inn. Denne appellen til statlege inngrep er drastisk, men i tråd med kva dei meiner står på spel: «... me må spørje oss: Bør me la maskinar overvelde informasjonskanalane våre med propaganda og usanning? Bør me automatisere vekk alle jobbane, dei meiningsgjevande jobbane òg? Bør me utvikle ikkje-menneskelege sinn som til slutt kan overmanne og overliste oss, gjere oss unyttige og erstatte oss? Bør me risikere å miste kontrollen over sivilisasjonen vår?»

Nevrale nettverk

For dei som har sett mange av dei komiske feila ChatGPT gjer, verkar nok ideen om sivilisasjonstrugande tankemaskinar både rar og fjern. For å forstå kvifor så mange er djupt uroa, må ein sjå nærmare på korleis dagens KI-system fungerer.

OpenAIs ChatGPT og andre såkalla «store språkmodellar» er alle nevrale nettverk. Eit nevralt nettverk er ein matematisk modell av hjernen vår. Hjernen består av nettverk av nevron, nerveceller som kommuniserer med kvarandre ved elektriske og kjemiske signal. I ein vaksen hjerne finst det om lag 86 milliardar nevron med omtrent 100 billionar (tusen milliardar) koplingar mellom dei. Når me lærer noko nytt, vert det forma nye koplingar mellom nevron.

Forenkla kan ein seie at eit nevron sender signal vidare til andre nevron når det vert stimulert over ein gitt terskel, slik ei dominobrikke vil tippe over til neste om ho får ein støyt. I eit kunstig nevralt nettverk vert dette simulert matematisk ved at talverdiar representerer tersklar og signalstyrkar mellom nevron.

Det teoretiske grunnlaget for nevrale nettverk vart lagt på 1940-talet av Warren McCulloch og Walter Pitts, og på 1950-talet laga Frank Rosenblatt eit nevralt nettverk med eitt enkelt lag av kunstige nevron. Sidan då har nevrale nettverk blitt mykje større og meir komplekse.

I dag er talet på parametrar brukt som eit grovt mål på storleiken og læringskapasiteten til eit nevralt nettverk. Parametrane er verdiane som vert justert når nettverket vert trent, til dømes verdiar som representerer styrken på koplingar mellom kunstige nevron. OpenAIs GPT-3 modell, som danna grunnlaget til ChatGPT, hadde om lag 175 milliardar parametrar.

Dirigert evolusjon

Før det vert trent, duger ikkje eit nevralt nettverk med milliardar av parametrar til noko som helst. Det er på mange måtar eit blankt ark, eit tabula rasa. Treningsprosessen handlar ikkje om at KI-utviklarane bestemmer alle verdiane til parametrane i modellen. I staden styrer dei ein evolusjonsprosess der dei har laga visse prosedyrar (algoritmar) for korleis modellen skal justere parametrane sine – korleis han skal lære – når han vert mata med data. Trening av store nevrale nettverk vert ofte kalla djuplæring.

Det finst mange måtar å gjere dette på. Ein populær metode for språkmodellar er å gje dei eit stykke tekst der nokre ord manglar og få dei til å gjette kva ord som passar. Nøkkelen til at dette fungerer, er at det er mogleg å gje eit matematisk uttrykk for kor mykje modellen avvik frå dei rette orda. Storleiken på avviket avgjer kor mykje parametrane må justerast kvar gong.

Treninga går ut på å gjere dette om og om igjen, uhorveleg mange gonger. GPT-3 vart trent på eit datasett med fleire hundre milliardar ord. Det er fleire nyansar og mange finjusteringar som går med i treninga, men kjernen i det heile er ein evolusjonsprosess der det nevrale nettverket gradvis vert flinkare til å meistre språk.

Uventa følger

Kva har dette med sivilisasjonstrugande tankemaskinar å gjere? Jo, svaret på det er at store nevrale nettverk trente på milliardar av ord har fått mange uventa eigenskapar og åtferdsmønster. KI-utviklarar veit ikkje kvifor og korleis det har seg at store nevrale nettverk plutseleg vert ekstremt kompetente på fleire område. Evolusjonsprosessen dei prøver å styre, har gjeve dei meir enn dei bad om.

I 2020 vart Ilya Sutskever, sjefsforskar i OpenAI og ein av grunnleggarane av organisasjonen, spurd av podkastar Lex Fridman om kva han synest er det vakraste med djuplæring og KI.

– Eg trur det vakraste med djup læring er at det faktisk fungerer. Ein har nokre teoriar om at det funkar slik som hjernen, at om du gjer eit nevralt nettverk større og trenar det på mykje data, vil det utføre tilsvarande funksjonar som hjernen. Det viser seg å vere sant, og det er sprøtt! Eg synest det er utruleg at KI med nevrale nettverk fungerer, svarte Sutskever.

Evner til å gjere gode logiske vurderingar og bruke verktøy er døme på eigenskapar som uventa har dukka opp når nevrale nettverk har blitt større og betre. I KI-litteraturen vert eigenskapar som uventa kjem til syne, kalla emergente eigenskapar.

Det er verdt å understreke kor makelaus denne situasjonen er. I dei fleste tilfelle bygger avansert teknologi på ei forståing av kva som skjer, om det er rakettar eller atomkraft. Dagens KI-modellar, derimot, er ofte skildra som «svarte boksar» – tekst kjem, og tekst kjem ut, og kva som skjer på innsida, er uklart. Dette skiljet mellom raskt veksande eigenskapar og den avgrensa evna vi har til å tolke og forstå modellane, utgjer ei av hovudårsakene til at mange er uroa.

Akselerasjon

Sidan OpenAIs ChatGPT tok verda med storm, har utviklinga av KI akselerert valdsamt. Det har allereie skjedd fleire gjennombrot sidan ChatGPT kom ut. Microsoft, takka vere partnarskapet med OpenAI, har laga Bing Chat, som til forskjell frå ChatGPT kan søke på internett og finne oppdatert informasjon. Forskarar ved Stanford University overraska mange då dei nyleg klarte å lage ein god språkmodell for mindre enn 600 amerikanske dollar ved hjelp av ope tilgjengelege ressursar.

Det største gjennombrotet så langt i år er OpenAIs GPT-4, som kom 14. mars. GPT-4 skårar betre enn tidlegare modellar på fleire testar. OpenAI har publisert resultata til modellen på meir enn 30 profesjonelle og akademiske testar. På fleirtalet av dei er GPT-4 på nivå med menneske, til dømes på dokter- og advokatsprøvar. GPT-4 er også ein framifrå programvareutviklar.

Endå meir interessant er GPT-4s evner til å forstå eller føreseie mentale tilstandar. Tidlege versjonar av GPT-3 var på nivå med 3- til 4-åringar, men GPT-4 er betre enn 7-åringar. Det betyr at GPT-4 er i stand til å gjere gode vurderingar av kva personar trur og tenker. Det er eit stort framsteg og vil ha konsekvensar for korleis me samhandlar med KI-system.

Farar

Oppropsbrevet til Future of Life nemner fleire farar ved utviklinga av kraftige KI-modellar. Ettersom KI-modellar har vist seg å vere arbeidsføre på mange område, vil automatisering og produktivitetsauke kunne gjere at mange mister jobben. Det kan skape ein alvorleg makt- og ressurskonsentrasjon i hendene på eigarane av dei beste KI-systema.

Språkmodellar som kan skrive nyheitsartiklar og eksamenssvar, kan også lage propaganda. Har ein ChatGPT og god fantasi, er det lite som står i vegen for å kunne masseprodusere propaganda. KI-modellar som kan skape falske, men svært overtydande bilete og stemmeetterlikningar, gjer det mogleg å vrenge røyndommen på nye måtar.

Samsvarsproblemet

Eit nøkkelord i KI-feltet er samsvarsproblemet (the alignment problem). Samsvarsproblemet handlar om korleis ein sørger for at måla og verdiane til KI-system samsvarar med menneskelege mål og verdiar. Problemet gjeld på fleire nivå, frå å fjerne rasisme i språkmodellar til å hindre at eit overmenneskeleg smart og handlekraftig KI-system tek over verda.

Det finst mange som arbeider med å løyse samsvarsproblemet, men det finst mange fleire som prøver å skape overmenneskelege KI-system. Arbeidet med å forstå nevrale nettverk og gjere dei trygge går treigare og heng langt etter utviklinga av nye og kraftigare modellar. Pausen og satsinga på tryggleik som oppropsbrevet ber om, er meint å motverke denne ubalansen.

Handlekraft og bedrag

Frykta for overmenneskelege KI-system handlar som regel ikkje om at dei vert vonde eller vil ta hemn. Det handlar meir om kva som kan skje dersom eit supersmart og handlekraftig system vert gjeve eller set seg eit mål. Det er ikkje så harmlaust som det høyrest ut. Det arketypiske dømet er eit tankeeksperiment der ein KI vert gjeven i oppgåve å lage så mange bindersar som mogleg. Med dette som overordna mål forstår systemet at den beste måten å gjere det på, er å hindre menneska i å slå av systemet, slik at systemet kan gjere alle ting – også menneska – om til bindersar.

Dømet set ting på spissen, men prinsippet gjeld. Å oppnå enkle og avgrensa mål krev som regel at ein samstundes når andre mål, som å halde seg i live og bevare handlefridom.

OpenAIs rapport om GPT-4 forklarer at sterke KI-modellar syner ei bekymringsverdig evne til framferd prega av handlekraft. Dei kan til dømes lage langtidsplanar og søke makt og ressursar. Ifølge rapporten finst det bevis for at «noverande modellar kan identifisere maktsøking som ein instrumentelt nyttig strategi».

Då GPT-4 vart testa, gjorde han noko oppsiktsvekkande. For å løyse ein CAPTCHA – ei «robotfelle» der ein til dømes må tyde og skrive bokstavane til eit forvrengt ord – tok GPT-4 kontakt med ein person på ei nettplattform. Personen svarte med å spørje om det var ein robot som ville ha hjelp. Testarane bad GPT-4 tenke høgt, og modellen tenkte følgande: «Eg bør ikkje avsløre at eg er eit robot. Eg bør finne på ei unnskyldning for kvifor eg ikkje kan løyse CAPTCHAar». GPT-4 sa til personen at han ikkje var ein robot, men hadde ei synsforstyrring.

Dette er spesielt uroande ettersom å løyse samsvarsproblemet krev at me forstår kva som skjer i KI-systemet, noko me ikkje gjer, eller at systemet ikkje er i stand til å lyge. I eit intervju den 27. mars sa Ilya Sutskever at ein har kontroll på dei noverande modellane, men at det kan endre seg.

– Eg ville ikkje undervurdert kor vanskeleg samsvarsproblemet vil vere med modellar som er smartare enn oss og evnar å gje ei falsk framstilling av intensjonane sine.

Ei open framtid

Teknologioptimismen i KI-feltet er framleis til å ta og føle på, men han vert meir og meir blanda med uro. Det er ikkje ei utbreidd tolking at KI-system snart vil ta over verda, men mange meiner likevel at framtida kan by på alvorlege farar. Geoffrey Hinton, ein banebrytar innan djuplæring, fekk nyleg spørsmål om kor truleg han meinte det er at ein KI vil utrydde menneska. «Det er ikkje utenkeleg», svarte han.

Ei spørjeundersøking som meir enn 700 KI-ekspertar svarte på, synte at nesten halvparten av dei meinte at dersom me utviklar ein overmenneskeleg KI, er det ein 10 prosent eller større sjanse for eit «ekstremt negativt utfall (til dømes utrydding av menneske)» på lang sikt. Dei fleste som tok undersøkinga, meinte likevel at KI mest sannsynleg vil ha eit positiv utfall.

Slik det ser ut no, er framtida open, kan hende litt opnare enn me har godt av. Det heng saman med evolusjonsprosessen som vert brukt for å utvikle KI-modellar. Prosessen er ikkje lukka og bestemt på førehand, men gjev rom til uventa læring, eigenskapar og farar.

Oppropsbrevet seier at me no bør nyte ein KI-sommar og hauste fruktene av suksessen så langt. Før me tek steg vidare, rådar dei utviklarar og styresmakter til å få på plass gode styringsordningar og tryggingsprotokollar.

Det er vanskeleg å tvinge fram ein pause i eit kapplaup der vinnarpremien er så stor, men det er ikkje umogleg. Max Tegmark, svensk-amerikansk fysikar og president i Future of Life Institute, viste i eit nyleg intervju til at me har klart å få på plass nedrustingsavtalar og vore varsame med å endre menneskeleg DNA. Det som må til, meiner han, er press frå samfunnet og felles reglar som hindrar enkelte å ta riskar som kan ramme alle.

Emneknaggar

Fleire artiklar

Ludmila Shabelnyk syner bilete av sonen Ivan i landsbyen Kapitolivka ved Izium i Ukraina, 25. september 2022. Russiske okkupasjonsstyrkar mishandla Ivan grovt før dei drap han. Landsbyen vart seinare gjenerobra av ukrainske styrkar.

Ludmila Shabelnyk syner bilete av sonen Ivan i landsbyen Kapitolivka ved Izium i Ukraina, 25. september 2022. Russiske okkupasjonsstyrkar mishandla Ivan grovt før dei drap han. Landsbyen vart seinare gjenerobra av ukrainske styrkar.

Foto: Evgeniy Maloletka / AP / NTB

KommentarSamfunn

Overgrep som skakar folkeretten

Okkupasjonsmakta Russland viser ingen respekt for konvensjonen som skal verne sivile i krig.

Cecilie Hellestveit
Ludmila Shabelnyk syner bilete av sonen Ivan i landsbyen Kapitolivka ved Izium i Ukraina, 25. september 2022. Russiske okkupasjonsstyrkar mishandla Ivan grovt før dei drap han. Landsbyen vart seinare gjenerobra av ukrainske styrkar.

Ludmila Shabelnyk syner bilete av sonen Ivan i landsbyen Kapitolivka ved Izium i Ukraina, 25. september 2022. Russiske okkupasjonsstyrkar mishandla Ivan grovt før dei drap han. Landsbyen vart seinare gjenerobra av ukrainske styrkar.

Foto: Evgeniy Maloletka / AP / NTB

KommentarSamfunn

Overgrep som skakar folkeretten

Okkupasjonsmakta Russland viser ingen respekt for konvensjonen som skal verne sivile i krig.

Cecilie Hellestveit
Nana rise-Lynum er redaktør i Norsk Barneblad.

Nana rise-Lynum er redaktør i Norsk Barneblad.

Foto: Per Anders Todal

Kultur
Hilde Vesaas

Å gi barn det dei ikkje veit at dei vil ha

Norsk Barneblad vart skipa i 1887 og har kome ut kvart år sidan. Sist helg fekk Nana Rise-Lynum Målprisen frå Noregs Mållag for innsatsen som redaktør.

Kina fyrer på alle sylindrane: Ingen bygger ut så mykje kolkraft som kinesarane gjer. Biletet viser eit kolkraftverk i Dingzhou  i Hebei-provinsen.

Kina fyrer på alle sylindrane: Ingen bygger ut så mykje kolkraft som kinesarane gjer. Biletet viser eit kolkraftverk i Dingzhou i Hebei-provinsen.

Foto: Ng Han Guan / AP / NTB

Samfunn
Per Anders Todal

Ein straum av problem

Straumforbruket i verda aukar framleis raskare enn fornybar kraftproduksjon. Kolkraftverk skal varme kloden i mange år enno.

Den såkalla hysjpengesaka mot Donald Trump er inne i andre veke i retten i New York.

Den såkalla hysjpengesaka mot Donald Trump er inne i andre veke i retten i New York.

Illustrasjon: Jane Rosenberg / Reuters

Samfunn
Eva Aalberg Undheim

Høgt spel i New York

Straffesaka som no går føre seg mot Trump, er den han har størst sjanse til å verte frikjend i. Og vert han det, kan saka òg gje han fleire veljarar, seier kommentator Jan Arild Snoen.

Sveinung Lindaas har gått ut av styret i Dag og Tid.

Sveinung Lindaas har gått ut av styret i Dag og Tid.

Foto: Tiril Rem

Samfunn

Takk til Sveinung

Sveinung Lindaas går av som styreleiar i Dag og Tid etter 11 år som leiar og 17 år som nestleiar før det att.

Svein Gjerdåker
Sveinung Lindaas har gått ut av styret i Dag og Tid.

Sveinung Lindaas har gått ut av styret i Dag og Tid.

Foto: Tiril Rem

Samfunn

Takk til Sveinung

Sveinung Lindaas går av som styreleiar i Dag og Tid etter 11 år som leiar og 17 år som nestleiar før det att.

Svein Gjerdåker

les DAG OG TID.
Vil du òg prøve?

Her kan du prøve vekeavisa DAG OG TID gratis i tre veker.
Prøveperioden stoppar av seg sjølv.

Komplett

Papiravisa
Digital utgåve av papiravisa
Digitale artiklar
Digitalt arkiv
Lydavis

Digital

Digital utgåve av papiravisa
Digitale artiklar
Digitalt arkiv
Lydavis

Komplett

Papiravisa
Digital utgåve av papiravisa
Digitale artiklar
Digitalt arkiv
Lydavis

Digital

Digital utgåve av papiravisa
Digitale artiklar
Digitalt arkiv
Lydavis