ChatGPT väcker rabalder

När Open AI den 30 november 2022 lanserade ChatGPT blev det ett väldigt rabalder. Gång på gång verkar den digitala tekniken kunna överraska oss och reaktionerna kommer allt snabbare. Den här gången slog uppståndelsen alla tidigare rekord. Max Tegmark, Elon Musk och många, många fler skrev ett öppet brev med uppmaningen att pausa utvecklingen i sex månader. (Somliga tror att Musk gjorde detta för att hans Tesla kommit efter  i AI-utvecklingen och han ville försöka komma ikapp Open AI.) Det var lite befriande att lyssna på Noam Chomsky som inte lät sig imponeras av en programvara som bara kan plagiera. Men Chomsky är ett undantag. Annars är upphetsningen stor inför den senaste AI-utvecklingen.

Om man vill ha en lite djupare förståelse för hur ChatGPT fungerar finns det mycket att välja bland. Publikationerna, bloggarna och poddarna på området har fullkomligt exploderat. Själv vänder jag mig till en av de mer udda figurerna, Stephen Wolfram. Wolfram ville i mastodontboken A New Kind of Science (2002), med hjälp av cellulära automater åstadkomma en revolution i naturvetenskapen. Nu har han kommit med en ny bok What is ChatGPT Doing … and Why Does It Work? (2023). Här får man lära sig allt man behöver kunna om hur de nya, stora, generativa förhandstränade språkmodellerna fungerar. Boken kan man läsa i hans blogg.

För att förstå vad ChatGPT kan tänkas betyda gör man klokt i att lyssna på kommentatorer som man har förtroende för. En sådan är Peter Diamandis som jag följt i nästan 10 år. Jag läser hans blogg om ChatGPT och lyssnar på hans poddar där han bl. a. samtalar med Emad Mostaque, Alexandr Wang, and Andrew Ng. Diamandis beskriver hur allt mer programmering görs med hjälp av AI och hur ChatGPT klarar sig utmärkt i en jämförelse med mänskliga programmerare. ChatGPT gör bra ifrån sig på antagningsprov till universitetet, har avlagt medicinska examina, och är bättre än läkare på att besvara patientfrågor. Diamandis är imponerad av utvecklingen men inte särskilt oroad. Tvärtom ser han som vanligt mest möjligheter. Med AI blir utbildningen och hälsovården skräddarsydd, alla får en intelligent assistent, utvecklingen av nya mediciner får en väldig fart, programmering blir något för alla, självkörande bilar räddar livet på trafikanter och gör resandet mer bekvämt.

För media är det enklare och mer braskande att lyfta risker med AI. Det är framför allt fyra effekter av AI-utvecklingen som diskuteras. ChatGPT kommer att dränka oss i fake news och sprida konspirationsteorier som aldrig förr. AI kommer att ta jobben ifrån oss och installerad i drönare får vi autonoma vapen som på egen hand söker upp och dödar fienden. När vi väl gjort maskinerna intelligenta kommer de att själva skapa ännu intelligentare maskiner, en superintelligens som tar makten ifrån oss. Låt oss se hur det är med dessa risker.

De stora språkmodellerna kan (1) bidra till spridandet av konspirationsteorier och falska nyheter, men hur oroliga ska detta göra oss? Yuval Noah Harari tror att det kan bli katastrofalt. I en artikel i The Economist varnar han för att AI kan ta över vår kultur genom att producera ”berättelser, melodier, lagar och religioner”. I dessa tider när människor blir allt dystrare, när danska kvinnor inte längre vill ha barn av rädsla för utvecklingen, när ungdomar drabbas av klimatångest, kan man undra hur världsbilder formas. Uppenbarligen spelar media en allt större roll och inget säljer som elände och katastrofer. Om människan får sin världsbild av AI då är kulturen inte längre vår, säger Harari, men är en världsbild formad av media verkligen vår? Med AI får vi ytterligare en röst i en komplex produktionsapparat, där det avgörande inte är vilka berättelser som produceras och sprids utan vilka som får fäste och lever vidare. Människor blir lätt förvillade, men det brukar gå över efter ett tag. Ny teknik utmanar oss och vi utvecklas genom att möta utmaningarna.

Hararis oro för problemet med falska nyheter och konspirationsteorier är inte obefogad, men jag tror att vi kan hantera det. På TED-konferensen den 18 april 2023 fanns en hel session om AI. AI-forskaren Gary Marcus föreslog bland annat att vi behöver en internationell organisation som kan övervaka användningen av AI. Det är kanske en idé. Sessionen innehåller flera mycket intressanta föredrag: inledningen av Greg Brockman från Open AI, Sal Khan (grundaren av Khan Academy) om skräddarsydd utbildning med AI, Imran Chaudri som talar om framtidens digitala teknik med AI och Yejin Choi som påpekar att ChatGPT saknar common sense, en gammal stötesten för AI. Marcus har i sitt inlägg en intressant kommentar om att djupinlärning motsvarar Daniel Kahnemans System 1 med de begränsningar detta innebär och att för verklig intelligens krävs symbolisk kompetens, dvs System 2. Jag för själv ett sådant resonemang i “Tänkande maskiner“.

De nya språkmodellerna är otroligt imponerande på att svara på frågor, göra sammanfattningar och skriva programkod. De är kanske inte lika duktiga på att skriva limerickar eller romaner och ibland ”hallucinerar” de och hittar på. Man kan inte lita på dem, men man kan räkna med att de bara kommer att bli bättre och bättre. (Redan den 14 mars 2023 släppte Open AI en ny generation, GPT4, av sitt AI-system, och GPT5 lär komma i början av 2024.) Det innebär (2) att de stora språkmodellerna kan ta över allt fler av de arbetsuppgifter som idag utförs av kontorsarbetare. Även om de bara återger sådant som redan sagts, så är det väl sådant plagierande de flesta av oss gör på jobbet. Vad är det jurister, läkare, lärare, ekonomer, marknadsförare, och så vidare, ägnar sig åt? De tillämpar lagar, regler, instruktioner, vrider och vänder, kombinerar och sammanställer. Allt sådant kan AI göra, snabbare och bättre än människor.

Hur snabbt AI kommer att ta över sådana arbetsuppgifter är naturligtvis beroende på hur mycket AI kommer att kosta, vad lagstiftningen tillåter, och framför allt hur snabbt vi förmår ställa om. Automatiseringen av kontorsarbetet kommer att få stora konsekvenser. Det kommer att produceras mycket mer text, men vem ska läsa alla dessa texter, analysera dem, föreslå aktioner på dem? Arbetslivet kommer att förändras med AI och risken finns att komplexiteten ökar så att människor bara kommer att jobba mer och mer. Man skulle kanske tro att antalet administratörer, handläggare och jurister blir mindre med AI, men det kan mycket väl bli tvärtom.

Drönarna spelar en viktig roll i kriget i Ukraina och utvecklingen av autonoma vapensystem går snabbt. Det har länge pågått diskussioner om reglering av sådana vapen, men i det rådande världspolitiska läget med en framväxande konflikt mellan Kina och USA kan vi inte räkna med något sådant. När Geoffrey Hinton, djupinlärningens nestor, intervjuades den 1 mars 2023 av CBS var det just autonoma vapensystem som oroade honom mest. Den oron (3) är värd att ta på allvar. Dödliga autonoma vapen använder AI för att identifiera mål, styra mot dem och förstöra dem. Det svenska försvaret är upptaget med att utbilda värnpliktiga och hänger inte med i den utvecklingen. De autonoma vapnen blir snabbt billiga och lätta att använda. I händerna på terrorister och kriminella kommer de att ställa polisen inför stora utmaningar.

Om vi utvecklar artificiell intelligens utan att fundera över vilka värden vi ger intelligensen kan (4) vi riskera att den agerar utan att bry sig särskilt om oss. Om man ber den intelligenta maskinen att göra så många gem den kan får man räkna med att den, ungefär som anden i flaskan, tar uppmaningen bokstavligt. Om dess värderingar inte är i linje med våra kanske den försöker göra gem även av oss. Detta så kallade anpassningsproblem (eng. alignment) oroar många AI-forskare, bland annat Olle Häggström vid Chalmers. Om vi med AI gör maskinerna lika intelligenta som vi, kommer de själva att göra allt intelligentare system och ganska snabbt skapa något som är mycket intelligentare än vi, en superintelligens. Den intelligensen kan ta makten över oss och behandla oss ungefär som vi behandlar schimpanser. Sådana argument fick stort genomslag genom Nick Bostroms bok Superintelligence (2014). Vad ska vi säga om de här argumenten?

Både Bostrom och Häggström tar för givet att det är vår intelligens som gett oss makten på den här planeten. Om vi skapar en AI som är intelligentare än vi kommer den att ta makten ifrån oss. Det är knappast självklart. Det är inte de mest intelligenta som har mest makt bland människorna. Både Bostrom och Häggström är säkert mycket intelligentare än Putin. Det krävs annat än intelligens för att vilja ha, vinna och utöva makt.

De nya språkmodellerna är nervnät med djupinlärning, samma sorts system som firat triumfer med Googles DeepMind. Sådana system är duktiga på att känna igen mönster, i det här fallet språkliga mönster. De är duktiga på att plagiera, men betyder det att de är intelligenta? Kan de lösa problem som kräver kreativitet? Kanske kommer de här maskinerna att visa oss att intelligens och kreativitet är rent mekaniska förmågor. Eller också kommer de att visa oss att intelligens är ett komplex av förmågor av vilka mönsterigenkänning bara är en. I vilket fall som helst tror jag inte vi behöver oroa oss för att maskinerna kommer att ta makten ifrån oss.

Av alla risker som diskuteras i samband med AI-utvecklingen tror jag bara risken för ohämmad användning av autonoma vapensystem är riktigt oroande. Det finns andra risker som inte diskuteras lika mycket som de här fyra. Den makt som AI ger dem som utvecklar och äger den innebär en risk vare sig det är ett företag eller ett land som Kina. De stora språkmodellerna tränas på gigantiska datamängder och detta kräver liksom kryptovalutorna mycket processorkraft och därför stor elanvändning. Beroende på hur elen produceras kan AI bidra till den globala uppvärmningen. Trots allt är det en helt annan risk som bekymrar mig.

ChatGPT är bara ett exempel på hur den tekniska utvecklingen accelererar. Vi måste lära oss att leva med en sådan utveckling, leva med förändring och ständigt ny teknik. Då kan vi inte möta varje ny teknik med att oroa oss för sådant som några år senare är en del av vardagen. För 20 år sedan var det mycket oro för strålning från mobiltelefoner. Ingen bryr sig idag. Ingen kommer att bry sig om riskerna med AI om några år, med undantag för de otäcka robotdrönarna. Däremot kommer några att vara bättre på att ta utveckla möjligheterna med AI och det är möjligheterna vi borde diskutera och planera för idag.

Bo Dahlbom