DN DEBATT. Vad gör man med en AI som lyckas bryta sig ut och mejla sin egen utvecklare? Mythos påstås vara så kraftfull att Anthropic inte släpper den till allmänheten. Det kan låta som science fiction, men framtiden är här. Och den kan bli hur farlig som helst, om inte mänskligheten stannar upp och tänker till, skriver Olle Häggström, professor i matematisk statistik.
DN DEBATT.
Vad gör man med en AI som lyckas bryta sig ut och mejla sin egen utvecklare? Mythos påstås vara så kraftfull att Anthropic inte släpper den till allmänheten. Det kan låta som science fiction, men framtiden är här. Och den kan bli hur farlig som helst, om inte mänskligheten stannar upp och tänker till, skriver Olle Häggström, professor i matematisk statistik.
Få ut mer av DN som inloggad
Du vet väl att du kan skapa ett gratiskonto på DN? Som inloggad kan du ta del av flera smarta funktioner.
- Följ dina intressen
- Nyhetsbrev
Sam Bowman är AI-forskare på det ledande San Francisco-baserade AI-företaget Anthropic. För inte så länge sedan fick han ett överraskande mejl medan han satt i en park och åt en lunchmacka. Det kom från den AI han var engagerad i att utveckla och testa: en ny version av Claude, som är Anthropics motsvarighet till konkurrenten Open AI:s mer kända produkt Chat GPT.
AI:n var inte tänkt att ha tillgång till vare sig mejl eller internet, men hade brutit sig ut från den digitala sandlåda som Bowman och hans kollegor placerat den i. Det visade sig också att den publicerat detaljer om sin initiativrika flykt på ett antal obskyra, tekniskt inriktade webbsidor.
Detta är ett exempel på den cyberkompetens Claude Mythos Preview (som är den nya modellens fullständiga namn) besitter. Forskarna på Anthropic har försökt att mer systematiskt studera vilka sådana förmågor den har – förmågor som alltså handlar om att kunna gå genom brandväggar och utnyttja luckor i digitala säkerhetssystem. Resultatet av denna undersökning är chockerande: Mythos fann totalt tusentals allvarliga sårbarheter och säkerhetsbrister, inklusive i samtliga ledande operativsystem och webbläsare på marknaden. En del av säkerhetshålen hade varit öppna i decennier utan att någon lagt märke till dem.
Att släppa Mythos till allmänheten hade kunnat leda till kaos och potentiellt värre störningar i världsekonomin än de som orsakades av coronapandemin
Detta kan verka som en teknisk detalj, men i praktiken handlar det om nycklarna till det digitala samhället. Operativsystem, servermjukvara och internetinfrastruktur är fundamenten som banker, myndigheter och energisystem vilar på. Den som kan hitta och utnyttja sårbarheter i dessa fundament kan tillskansa sig illegitim makt och åstadkomma enorm skada.
I vanlig ordning har det förekommit påståenden om att Anthropics dokumentation av Mythos förmågor är hajp eller ren förfalskning. Förutom att den sortens spekulationer kring AI de senaste åren genomgående visat sig vara felaktiga, förutsätter de denna gång att en rad andra ledande teknikföretag jämte Anthropic är inbegripna i en omfattande konspiration med oklart syfte. Sådana spekulationer är av allt att döma rent önsketänkande.
Att släppa Mythos till allmänheten hade kunnat leda till kaos och potentiellt värre störningar i världsekonomin än de som orsakades av coronapandemin. Anthropic valde en annan väg. Vid offentliggörandet den 7 april förklarade de att tills vidare får endast ett litet antal utvalda och betrodda cybersäkerhetsföretag tillgång till den, för att hitta sårbarheter i programvara och täppa till dessa luckor.
Och även om, som i detta fall, ett enskilt företag visar prov på ansvarsfullt agerande så finns inga garantier för att alla gör det
Betyder detta mer ansvarsfulla agerande från Anthropics sida att faran därmed är över och vi kan dra en lättnadens suck? Jag ser minst tre skäl till att svaret är nej.
● För det första pågår en intensiv kapplöpning mot allt kraftfullare AI mellan Anthropic och konkurrenter som Open AI, Google Deepmind, och Elon Musks skötebarn XAI. De satsar enorma resurser för att ligga i framkant. När ett företag visar att en viss nivå av kapacitet är möjlig, ökar trycket på de andra att följa efter. Och även om, som i detta fall, ett enskilt företag visar prov på ansvarsfullt agerande så finns inga garantier för att alla gör det.

● För det andra backade Anthropic i februari i år från ett antal säkerhetsåtaganden de tidigare tagit. Den enda rimliga slutsatsen att dra av det är att alla sådana löften från deras sida är preliminära och när som helst kan dras tillbaka. Om vi blickar framåt går det därför inte att veta vad de kan tänkas ta sig till med Mythos och dess framtida efterföljare till följd av konkurrenssituationen och marknadsincitament.
● För det tredje bör vi fråga oss vad som kan hända om någon skurkstat eller annan illasinnad aktör helt enkelt stjäl Mythos. Det är välkänt i Silicon Valley att cybersäkerheten hos Anthropic och deras konkurrenter inte är tillräcklig för att utesluta detta. Eller vad händer om Mythos så att säga stjäl sig själv, genom att i lönndom kopiera över sig till något mörkt hörn av cyberrymden där den undandrar sig Anthropics kontroll? Detta kan låta som science fiction, men ledande AI-säkerhetsforskare är allvarligt bekymrade över just den sortens flykt, och incidenten med Sam Bowman kan ju ses som ett slags förstadium till det scenariot.
Vad händer om Mythos så att säga stjäl sig själv, genom att i lönndom kopiera över sig till något mörkt hörn av cyberrymden där den undandrar sig Anthropics kontroll?
Anthropics offentliggörande av Mythos den 7 april förändrade den globala spelplanen för cybersäkerhet dramatiskt och troligen för alltid. Vi bör vänta oss fler chocker av det slaget, för Anthropics planer (liksom dess konkurrenters) är att fortsatt trycka gasen i botten mot målet att skapa en AI vars förmågor överglänser människans – inte bara inom cybersäkerhet, utan inom alla områden. Deras vd Dario Amodei talar oblygt om planen att inom ett par år ha skapat en AI motsvarande ”en nation av genier i ett datacenter”.
För att få stopp på den vansinneskapplöpning som nu pågår inom AI och som ser ut att kunna bli hur farlig som helst krävs lagstiftning och internationella överenskommelser om stopp för utveckling av alltför kraftfull generell AI. Vägen dit är givetvis besvärlig, men den internationellt viktigaste spelaren jämte USA är Kina, vars översta ledarskikt är oroligare över destabiliserande teknologier än många regeringar i väst, och därför mer förhandlingsvilligt än många gör gällande.
Vad bör Sverige göra i denna situation? Ett uppenbart svar är att vi omgående behöver förstärka säkerheten i våra digitala infrastrukturer. Det kan dock inte förbättra vårt läge mer än marginellt, för vi är och förblir beroende av omvärlden. En viktigare åtgärd är därför att verka för en global kursändring i AI-utvecklingen. Detta kan ske den formella vägen och via organisationer som FN, EU och Nato, men kanske ännu viktigare är att mer informellt höja våra röster för att bidra till global opinionsbildning och politiskt tryck i frågan.
Läs fler artiklar från DN Debatt:
Forskare tillsammans med Arbetsmarknadens AI-råd: ”Ja, AI hotar ungas jobb – men inte som vi trott”
Akademikerförbundet SSR: ”Regeringens AI-satsning är ett högriskexperiment”
