Zoom

AI har blivit mainstream – men regleringar dröjer

En ung kvinna demonstrerar i Stockholm för mänskliga rättigheter och mot riskerna som den nya AI-tekniken för med sig.

Diskussionen om säkerhet, integritet och trovärdighet i förhållande till AI får fler forum och kraven på någon form av reglering ökar. Nyligen antogs en resolution om autonoma vapen i FN, och Storbritannien samlade AI-toppar i ett prestigefyllt möte. Men får det några konsekvenser i praktiken?

Den 30 november är det ett år sedan Open AI lanserade Chat GPT som för första gången gav allmänheten en inblick i vad så kallade stora språkmodeller kan åstadkomma. Den snabba utvecklingen på området och chatbotens förmåga att uttrycka sig mänskligt satte också fart på spekulationerna om en AI-apokalyps där den konstgjorda intelligensen gör människan överflödig eller ännu värre, medan den mer optimistiskt lagda sidan såg en värld av oändliga möjligheter öppna sig.

Hur som helst aktualiserade språkmodellernas intåg i det allmänna medvetandet frågor om säkerhet och reglering – både när det kommer till själva utvecklingen, som ju drivs av ett fåtal stora bolag, och när det kommer till användningen, där det inte behövs mycket fantasi för att kunna föreställa sig vad som kan hända om kraftfulla verktyg hamnar i fel händer. Hur AI kan användas för att skapa desinformation har vi redan sett exempel på, och vapentillverkare är heta på gröten när det gäller att utrusta autonoma vapensystem med AI.

AI-panel inom FN ska ge råd

Parallellt med AI-rusningen ökar antalet konflikter i världen – just nu vänds blickarna mot Israel och Palestina, medan Rysslands krig i Ukraina fortgår i medieskugga, liksom stridigheterna i Darfur, Jemen, Etiopien, Syrien…
Frågan är om AI kan vara ett verktyg för att främja fred och säkerhet, eller om riskerna – att utvecklingen bidrar till att elda på splittringar och polarisering– väger över.

Behovet av att diskutera säkerhet i samband med AI resulterade i att EU i juni började förhandla om ”världens första heltäckande AI-lag”, och i juli höll FN sitt första toppmöte på temat. Då beslutades att ett högnivåråd för AI – eller en AI-panel, ungefär som klimatpanelen IPCC – skulle inrättas, vilket skett under hösten.

Organets uppgift är att ge råd och föreslå lösningar på hur AI kan regleras på global internationell nivå. Totalt är 38 experter från olika vetenskapsområden utsedda till att sitta i rådet, och en av dem är Virginia Dignum, professor i ansvarsfull artificiell intelligens vid Institutionen för datavetenskap vid Umeå universitet.

Risker i fokus – fred exkluderas

Just fred är något de flesta internationella organisationer överväger i relation till AI, men sällan uttrycks explicit i de föreskrifter och riktlinjer som läggs fram. Det beror på att försvarsfrågor ofta faller utanför organisationernas mandat, förklarar Virginia Dignum, som också har varit med och utarbetat EU:s AI-strategi. 

– Ta EU:s förslag till AI-förordning, AI-lagen. Det inkluderar inte försvarsfrågor eftersom EU-kommissionen inte har befogenhet att reglera dessa frågor. I de flesta fall är utgångspunkten mänskliga rättigheter. Naturligtvis inkluderar dessa fred, men är som jag säger inte en explicit fråga. Enligt min åsikt är det huvudsakliga sättet AI kan bidra till fred genom att stödja utbildning och förmågan att förstå och ta itu med skillnader mellan människor, samhällen och regioner, skriver hon i ett mail till Syre. 

Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens
Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens. Foto: Johan Gunséus

Till exempel tror Virginia Dignum att skräddarsydda utbildningsprogram förmedlade av AI skulle kunna hjälpa barn att förstå att våra olikheter inte behöver vara en orsak till konflikter utan är något som kan berika. Fokus i diskussionen ligger dock ofta på risker med AI.

– På andra sidan av spektrumet kan AI användas, och används redan, för att förstärka konflikter genom att skapa falska nyheter och desinformation. AI-drivna system kan också användas både på hela populationer eller individer, dels i sociala medier för desinformation men också i verkligheten, som en del av vapensystem.

Positivt med allmän debatt

Så hur går det då med eventuella regleringar för att hantera dylika risker? Vincent Boulanin, programchef på Sipri, Stockholms internationella fredsforskningsinstitut, leder institutets forskningsprogram om AI-reglering, och han tycker att utvecklingen går åt rätt håll. Det kan man tacka Chat GPT för.

– Plötsligt blev AI supermainstream. Tidigare har de viktiga aktörerna diskuterat frågan i olika nischforum, men nu har det blivit en allmän debatt om det, vilket är väldigt bra, säger Vincent Boulanin.

Det nyinrättade FN-rådet kan väl ses som ett exempel på ett bredare forum men redan före det har frågor som tangerar AI behandlats i samfundet. Den 1 november godkände generalförsamlingen en resolution om autonoma vapensystem, så kallade mördarrobotar. Diskussionen om dessa har tidigare pågått inom ramen för Konventionen om vissa konventionella vapen (CCW) i Genève sedan 2014.

– Problemet där är att alla stater som officiellt är med i konventionen på något sätt har en vetorätt. Så det blir politiskt svårt att komma fram till någonting. Man vattnar ur innehållet ganska mycket för att alla ska kunna stödja det. Det har lett till att en del stater har slutat tro på att experterna i Genève kommer att kunna komma fram till något betydelsefullt. Då fungerar generalförsamlingen på ett annat sätt, där behövs majoritet, konstaterar Vincent Boulanin.

Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri
Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri. Foto: Pressbild Sipri

Humanitär rätt öppen för tolkning

Resolutionen har framför allt en symbolisk betydelse; det har nu officiellt påbörjats en formell diskussion och det blir en specifik punkt på agendan framledes. Det innebär emellertid inte att vi kommer att få se en reglering, utan det första steget är att generalsekreteraren samlar in synpunkter till en rapport. Men reglering av de så kallade mördarrobotarna är något som många efterfrågar, även om användningen och utvecklingen av autonoma vapen begränsas i den nuvarande internationella humanitära rätten.

– Den nuvarande rätten gäller för alla typer av vapen, oavsett hur de byggs. Problemet är väl att de regler som finns nu kan tolkas på olika sätt. Och att sådana vapen är autonoma skapar en del nya tolkningsfrågor som också kan bidra till att stater kan tolka det de måste göra på väldigt olika sätt. Så det är därför vissa stater och organisationer från civilsamhället vill ha en ny reglering som skulle tydliggöra den nuvarande rätten, så att det blir tydligt vad man får och inte får göra i utvecklingen och användningen av sådana vapen. Andra stater, bland annat Ryssland, tycker däremot att den nuvarande rätter är tillräckligt tydligt. Så det är en ganska omstridd och debatterad fråga, förklarar Vincent Boulanin.

Finns det risk för att det blir en global kapprustning med autonoma vapensystem? Eller är det redan det?

– Ja, det är redan det på något sätt. Men jag skulle säga att kapprustningen inte nödvändigtvis handlar om sådana vapen per se. Det är en kapprustning som är mer kopplad till utvecklingen av robotik och AI i allmänhet och en kapprustning som också är kopplad till AI i allmänhet. Staterna är inte så fokuserade på just autonoma vapen, säger Vincent Boulanin och tillägger att det är viktigare för stormakterna att ha tillgång till utbildade människor som kan utveckla smarta algoritmer, och att man har kraftfulla processorer och mycket data för att träna upp avancerade AI-system.

Riskbedömningsmöte på anrik mark

Samtidigt som resolutionen om mördarrobotar var uppe i FN:s generalförsamling hölls ett AI-toppmöte i England närmare bestämt i Bletchley park, där Alan Turing en gång i tiden knäckte koder under andra världskriget. I och med Brexit har Storbritannien inte haft en plats på tåget i EU:s arbete med sitt AI-fördrag, och mötet var enligt Vincent Boulanin ett sätt för landet att hitta sin nisch.

Eftersom det redan förs diskussioner om militär användning av AI landade man i ett fokus på så kallade ”frontier AI”, det vill säga de kraftfullaste och mest avancerade typerna av AI-system som kan användas för allmänt bruk (på tekniska kallat ”highly-capable general purpose AI”) som GPT4. Under mötet diskuterades riskerna med sådana system, och det hela utmynnade i en programförklaring som undertecknats av deltagarna, som var både politiska höjdare, företagsledare och forskare.

– De understryker att det finns både positiva aspekter men också risker med utvecklingen av systemen, och att de olika aktörerna som utvecklar sådana system ska försöka hitta sätt att minska riskerna, säger Vincent Boulanin.

Högdjur på toppmötet om AI i Bletchley park som pågick 1-2 november. Första raden från vänster: Frankrikes minister för ekonomi, industri och digital säkerhet Bruno Le Maire, Tysklands klimat- och ekonomiminister Robert Habeck, EU-kommissionens ordförande Ursula von der Leyen, USA:s vicepresident Kamala Harris, Storbritanniens premiärminister Rishi Sunak, Italiens premiärminister Giorgia Meloni, FN:s generalsekreterare Antonio Guterres och  Australiens försvarsminister Richard Marles. Mitten och bakre raden från vänster: James Manyika, Google, Tino Cuellar, vd för Carnegie endowment for international peace, Amba Kak, AI Now institute, Arthur Mensch, Mistal AI, Adam Selipsky, Amazon web services, Nick Clegg, Meta, Yoshu Bengio, Quebec AI Institute, Dario Amodei, Anthropic, Sam Altman, Open AI, Brad Smith, Microsoft, Mustafa Suleyman, Inflection AI, Alondra Nelson, tidigare tillförordnad direktör för Vita husets kontor för vetenskap- och teknikpolicies, Demis Hassabis, Google Deep mind, Eric Schmidt, Schmidt Futures, Ian Hogarth, ordförande för Storbritanniens arbetsgrupp för frontier AI och Reid Hoffman, Inflection AI. Foto: Toby Melville/AP/TT Foto:
Godset Bletchley park, England, numera museum och arena för AI summit 2023. Foto: Matt Dunham/AP/TT Foto:
Öppna i helskärm
1 / 2

Det finns två typer av risker som man diskuterar, och de ställs ofta emot varandra, fortsätter han.

– Den ena är kortsiktiga risker. Hur till exempel nuvarande system som Chat GPT kan missbrukas av olika aktörer som vill genomföra påverkansoperationer. Sådana system är inte pålitliga då de kan innehålla felaktig information som kan ha negativa konsekvenser på många nivåer. Eftersom man har tränat upp dem med stora mängder information som tagits från internet kan de återspela eller förstärka vissa fenomen i samhället som är problematiska, som rasism. Det finns också en oro kring hur de skulle kunna påverka arbetsmarknaden, att det kan vara sådana system som skulle kunna ersätta många jobb och det skulle bli disruptivt.

Maktansamling och intressekonflikter

– Den andra typen är långsiktiga risker, som är kopplade till vad man kallar för artificiell generell intelligens (AGI) eller superintelligens. Vissa tror att system som GPT4 är en tidig form av AGI. Om de blir superintelligenta och inte programmeras på ett sätt som är i enlighet med våra mänskliga värderingar, då finns risken att de gör saker som skulle vara problematiska för mänskligheten. Vissa påstår därför att utvecklingen av avancerade AI-system utgör en existentiell risk. Den bedömningen är dock väldigt debatterad, och många AI-experter tycker att det är lite av en distraktion, att man borde fokusera på att lösa kortsiktiga risker istället. Jag tänker själv att det är viktigt att tänka på både och, konkluderar Vincent Boulanin.

Maktkoncentrationen inom AI ses av både forskare och aktivister som problematisk, något som bland annat DW nyligen rapporterat om. Det finns en fara i att de stora företag som utvecklar AI får för stort inflytande på regleringen. Precis som med all form av reglering finns olika intressen som ställs mot varandra, konstaterar Vincent Boulanin.

– Det är inget konstigt att privata aktörer, som är de stora aktörerna, inte vill att regleringen ska hindra dem för mycket. Det de föreslår att man fokuserar på är säkerhetsaspekter som inte är så problematiska för dem. Det finns olika kulturer också bland stater kring hur man ska reglera och på vilket sätt, hur sträng man ska vara mot den privata sektorn. Vi ser det tydligt i förhandlingen som pågår på EU-nivå för en EU-reglering om AI. Det är ett ganska komplicerat politiskt spel.

Viktigast ackumulera kunskap

Det finns också olika intressen inom staten, fortsätter han.

– Vissa vill se till att man skyddar mänskliga rättigheter, bland annat människors rätt till privatliv, medan andra tycker det är viktigt att man av säkerhetsskäl ska ge möjligheter för polis och militär att kunna bevaka terrorister och gängkriminella och så vidare.

Det viktigaste just nu är att prata om AI och bygga upp kunskap hos beslutsfattarna, så att de vet vad de pratar om, menar Vincent Boulanin. På grund av ämnets tekniska karaktär är det inte helt enkelt, men den senaste händelseutvecklingen på området har gjort att det finns en större grundkunskap hos allmänheten.

– Jag tror de flesta nu ungefär förstår vad Chat GPT är och var det kommer ifrån. Maskininlärning är inte längre ett okänt begrepp för folk. De olika forumen, som FN:s AI-råd, kommer också bidra till ökad kunskap och att fler experter kan uttala sig om ämnet och ge konstruktiv input till beslutsfattarna. Men det är en ganska lång process.

Lär mer:

Framgång i FN för kampen mot mördarrobotarna

Forskare: AI-larmen varnar om fel saker

Prenumerera gratis på vårt
NYHETSBREV
Prenumerera gratis på vårt
NYHETSBREV