Radar · Nyheter

LFV kopplas till emiratisk vapenindustri

Vilhelm Stokstad/TT | Ett av Luftfartsverkets flygtrafikledningstorn vid Bromma flygplats i Stockholm.

Luftfartsverket har genom ett dotterbolag under flera år bedrivit samarbete i Förenade Arabemiraten med ett företag som har kopplingar till den emiratiska vapen- och försvarsindustrin, rapporterar Sveriges Radios Kaliber.

Samarbetet inleddes 2013 och är värt en miljard kronor. Tillsammans med en lokal partner ansvarar Luftfartsverkets dotterbolag för flygledningen på fem flygplatser i Abu Dhabi.

Förenade Arabemiraten ingår i militärkoalitionen som strider i Jemen, under ledning av Saudiarabien. LFV:s dotterbolag ska bara jobba civilt, men enligt Kaliber flygleder samarbetspartnern Gal Ans även militären i landet.

De ägs också av två bolag där det ena varit med och grundat en ny stor försvarskoncern åt regimen, och det andra är ett av regionens största vapenbolag. Vapenbolaget anklagas av både FN och Amnesty för delaktighet i vapenaffärer som strider mot internationella embargon.

Enligt Kaliber har militärflyg med soldater som dödats i Jemen landat på flygplatser som Luftfartsverkets personal flygleder. På en annan flygplats flygleder de militärer som genomgår en militär pilotutbildning.

Luftfartsverkets dotterbolags vd säger till Kaliber att de inte kände till den militära kopplingen till samarbetspartnern i Förenade Arabemiraten.

Fakta: Konflikten i Jemen

Jemen, ett av världens fattigaste länder, bildades 1990 när det konservativa Nordjemen och det socialistiska Sydjemen gick samman efter ett inbördeskrig.

Växande protester mot regimen i samband med ”Arabiska våren” ledde 2011 till att president Ali Abdullah Saleh avgick. Landet klövs återigen, och fick två konkurrerande maktcentra, huvudstaden Sanaa och Sydjemens forna huvudstad Aden.

De shiamuslimska Huthirebellerna, lierade med Iran, tog kontroll över Sanaa 2014. Mot dem står en militärallians, ledd av Saudiarabien, som stödjer den Aden-baserade presidenten Abd Rabu Mansur Hadi.

Styrkor lojala med den tidigare presidenten Ali Abdullah Saleh har slagits på Huthirebellernas sida. Men sedan Saleh öppnat för förhandlingar med Saudiarabien dödades han av Huthirebeller den 4 december.

Sedan den saudiskledda militäralliansen började flygbomba Huthirebellerna i mars 2015 beräknas mellan 9 000 och 10 000 människor ha dödats, många av dem civila. Över 50 000 människor har skadats i striderna och miljontals har tvingats lämna sina hem.
Källa: AFP med flera

Radar · Fred

Regler för svensk vapenexport utreds inför Natomedlemskap – ”Kan försvagas”

Som ett led i processen mot svenskt Natomedlemskap återupptogs vapenexporten till Turkiet.

Ett Natomedlemskap kommer att förändra spelreglerna för svensk krigsmaterielexport. Regeringen tillsätter därför en utredning som ska se över det nationella regelverket. Trots ett principiellt förbud exporterar Sverige i dag vapen till både krigförande länder och icke-demokratiska nationer. Svenska freds befarar att resultatet av utredningen blir ett ännu svagare regelverk.

Som Nato-medlem kommer Sverige behöva göra en rad anpassningar, inte bara ifråga om försvarets utformning utan även politiskt. Att Sverige valde att utebli från FN:s konferens om kärnvapenförbud i förra veckan motiverades bland annat med att konventionen inte är förenlig med alliansens principer.

Förutsättningarna för vapenexport påverkas också av ett Natomedlemskap. Regeringen har därför gett en särskild utredare i uppdrag att se över regelverket för ”tillverkning, tillhandahållande och utförsel av krigsmateriel, inklusive riktlinjerna för utförsel och annan utlandssamverkan”. Även det förändrade säkerhetspolitiska läget utgör en bakomliggande orsak till behovet av en översyn.

– Regeringen går nu vidare med frågan om hur det svenska exportkontrollregelverket påverkas av ett svenskt Natomedlemskap. Sverige har, och ska fortsatt ha, en strikt och effektiv exportkontroll av krigsmateriel. Ett svenskt Natomedlemskap och det nya säkerhetspolitiska läget ställer dock krav på vissa förtydliganden i regelverket, säger utrikesminister Tobias Billström i ett pressmeddelande .

Risk för svagare regelverk

Det är Inspektionen för strategiska produkter (ISP) som beviljar tillstånd för export av krigsmateriel. Enligt det nuvarande regelverket får krigsmateriel endast exporteras om det finns säkerhets- eller försvarspolitiska skäl för det, och så länge det inte strider mot Sveriges utrikespolitik. Vapenexport bör, om riktlinjerna ska följas, inte beviljas till länder som är eller riskerar att bli involverade i väpnad konflikt. Sedan april 2018 gäller också ett så kallat demokratikriterium, som innebär att högre krav ska ställas på mottagarländernas demokratiska status.

Det faktum att Sverige ändå exporterar vapen till flertalet länder i krig och länder där mänskliga rättigheter kränks visar dock att regelverket kan tolkas generöst, något som ”synliggör svagheterna i regelverket och bristerna i demokratikriteriet”, enligt Svenska freds ståndpunkt. I en rapport konstaterade organisationen nyligen att ett Natomedlemskap kan öka risken för att export sker till odemokratiska länder, vilket Syre tidigare skrivit om, och beskedet om utredningen är på intet sätt betryggande:

– Man tillsätter inte en utredning om man inte vill göra förändringar och det finns stora risker att de frågor utredningen ska se över kommer att leda till att regelverket och/eller prövningarna försvagas. Vi ser med stor oro på att utredningen, och ett svenskt Natomedlemskap, kan leda till att kriterier om demokrati, mänskliga rättigheter och att förhindra väpnad konflikt tonas ned i prövningarna för svenska vapenaffärer. De som får betala priset är människor i de länder som svenska vapenföretag är med och beväpnar, säger Linda Åkerström, policychef och sakkunnig i vapenexportfrågor på Svenska freds, i ett uttalande på sociala medier.

Till utredare har regeringen utsett före detta talmannen Per Westerberg (M). Uppdraget ska redovisas senast den 30 november 2024.

Zoom

AI har blivit mainstream – men regleringar dröjer

En ung kvinna demonstrerar i Stockholm för mänskliga rättigheter och mot riskerna som den nya AI-tekniken för med sig.

Diskussionen om säkerhet, integritet och trovärdighet i förhållande till AI får fler forum och kraven på någon form av reglering ökar. Nyligen antogs en resolution om autonoma vapen i FN, och Storbritannien samlade AI-toppar i ett prestigefyllt möte. Men får det några konsekvenser i praktiken?

Den 30 november är det ett år sedan Open AI lanserade Chat GPT som för första gången gav allmänheten en inblick i vad så kallade stora språkmodeller kan åstadkomma. Den snabba utvecklingen på området och chatbotens förmåga att uttrycka sig mänskligt satte också fart på spekulationerna om en AI-apokalyps där den konstgjorda intelligensen gör människan överflödig eller ännu värre, medan den mer optimistiskt lagda sidan såg en värld av oändliga möjligheter öppna sig.

Hur som helst aktualiserade språkmodellernas intåg i det allmänna medvetandet frågor om säkerhet och reglering – både när det kommer till själva utvecklingen, som ju drivs av ett fåtal stora bolag, och när det kommer till användningen, där det inte behövs mycket fantasi för att kunna föreställa sig vad som kan hända om kraftfulla verktyg hamnar i fel händer. Hur AI kan användas för att skapa desinformation har vi redan sett exempel på, och vapentillverkare är heta på gröten när det gäller att utrusta autonoma vapensystem med AI.

AI-panel inom FN ska ge råd

Parallellt med AI-rusningen ökar antalet konflikter i världen – just nu vänds blickarna mot Israel och Palestina, medan Rysslands krig i Ukraina fortgår i medieskugga, liksom stridigheterna i Darfur, Jemen, Etiopien, Syrien…
Frågan är om AI kan vara ett verktyg för att främja fred och säkerhet, eller om riskerna – att utvecklingen bidrar till att elda på splittringar och polarisering– väger över.

Behovet av att diskutera säkerhet i samband med AI resulterade i att EU i juni började förhandla om ”världens första heltäckande AI-lag”, och i juli höll FN sitt första toppmöte på temat. Då beslutades att ett högnivåråd för AI – eller en AI-panel, ungefär som klimatpanelen IPCC – skulle inrättas, vilket skett under hösten.

Organets uppgift är att ge råd och föreslå lösningar på hur AI kan regleras på global internationell nivå. Totalt är 38 experter från olika vetenskapsområden utsedda till att sitta i rådet, och en av dem är Virginia Dignum, professor i ansvarsfull artificiell intelligens vid Institutionen för datavetenskap vid Umeå universitet.

Risker i fokus – fred exkluderas

Just fred är något de flesta internationella organisationer överväger i relation till AI, men sällan uttrycks explicit i de föreskrifter och riktlinjer som läggs fram. Det beror på att försvarsfrågor ofta faller utanför organisationernas mandat, förklarar Virginia Dignum, som också har varit med och utarbetat EU:s AI-strategi. 

– Ta EU:s förslag till AI-förordning, AI-lagen. Det inkluderar inte försvarsfrågor eftersom EU-kommissionen inte har befogenhet att reglera dessa frågor. I de flesta fall är utgångspunkten mänskliga rättigheter. Naturligtvis inkluderar dessa fred, men är som jag säger inte en explicit fråga. Enligt min åsikt är det huvudsakliga sättet AI kan bidra till fred genom att stödja utbildning och förmågan att förstå och ta itu med skillnader mellan människor, samhällen och regioner, skriver hon i ett mail till Syre. 

Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens
Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens. Foto: Johan Gunséus

Till exempel tror Virginia Dignum att skräddarsydda utbildningsprogram förmedlade av AI skulle kunna hjälpa barn att förstå att våra olikheter inte behöver vara en orsak till konflikter utan är något som kan berika. Fokus i diskussionen ligger dock ofta på risker med AI.

– På andra sidan av spektrumet kan AI användas, och används redan, för att förstärka konflikter genom att skapa falska nyheter och desinformation. AI-drivna system kan också användas både på hela populationer eller individer, dels i sociala medier för desinformation men också i verkligheten, som en del av vapensystem.

Positivt med allmän debatt

Så hur går det då med eventuella regleringar för att hantera dylika risker? Vincent Boulanin, programchef på Sipri, Stockholms internationella fredsforskningsinstitut, leder institutets forskningsprogram om AI-reglering, och han tycker att utvecklingen går åt rätt håll. Det kan man tacka Chat GPT för.

– Plötsligt blev AI supermainstream. Tidigare har de viktiga aktörerna diskuterat frågan i olika nischforum, men nu har det blivit en allmän debatt om det, vilket är väldigt bra, säger Vincent Boulanin.

Det nyinrättade FN-rådet kan väl ses som ett exempel på ett bredare forum men redan före det har frågor som tangerar AI behandlats i samfundet. Den 1 november godkände generalförsamlingen en resolution om autonoma vapensystem, så kallade mördarrobotar. Diskussionen om dessa har tidigare pågått inom ramen för Konventionen om vissa konventionella vapen (CCW) i Genève sedan 2014.

– Problemet där är att alla stater som officiellt är med i konventionen på något sätt har en vetorätt. Så det blir politiskt svårt att komma fram till någonting. Man vattnar ur innehållet ganska mycket för att alla ska kunna stödja det. Det har lett till att en del stater har slutat tro på att experterna i Genève kommer att kunna komma fram till något betydelsefullt. Då fungerar generalförsamlingen på ett annat sätt, där behövs majoritet, konstaterar Vincent Boulanin.

Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri
Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri. Foto: Pressbild Sipri

Humanitär rätt öppen för tolkning

Resolutionen har framför allt en symbolisk betydelse; det har nu officiellt påbörjats en formell diskussion och det blir en specifik punkt på agendan framledes. Det innebär emellertid inte att vi kommer att få se en reglering, utan det första steget är att generalsekreteraren samlar in synpunkter till en rapport. Men reglering av de så kallade mördarrobotarna är något som många efterfrågar, även om användningen och utvecklingen av autonoma vapen begränsas i den nuvarande internationella humanitära rätten.

– Den nuvarande rätten gäller för alla typer av vapen, oavsett hur de byggs. Problemet är väl att de regler som finns nu kan tolkas på olika sätt. Och att sådana vapen är autonoma skapar en del nya tolkningsfrågor som också kan bidra till att stater kan tolka det de måste göra på väldigt olika sätt. Så det är därför vissa stater och organisationer från civilsamhället vill ha en ny reglering som skulle tydliggöra den nuvarande rätten, så att det blir tydligt vad man får och inte får göra i utvecklingen och användningen av sådana vapen. Andra stater, bland annat Ryssland, tycker däremot att den nuvarande rätter är tillräckligt tydligt. Så det är en ganska omstridd och debatterad fråga, förklarar Vincent Boulanin.

Finns det risk för att det blir en global kapprustning med autonoma vapensystem? Eller är det redan det?

– Ja, det är redan det på något sätt. Men jag skulle säga att kapprustningen inte nödvändigtvis handlar om sådana vapen per se. Det är en kapprustning som är mer kopplad till utvecklingen av robotik och AI i allmänhet och en kapprustning som också är kopplad till AI i allmänhet. Staterna är inte så fokuserade på just autonoma vapen, säger Vincent Boulanin och tillägger att det är viktigare för stormakterna att ha tillgång till utbildade människor som kan utveckla smarta algoritmer, och att man har kraftfulla processorer och mycket data för att träna upp avancerade AI-system.

Riskbedömningsmöte på anrik mark

Samtidigt som resolutionen om mördarrobotar var uppe i FN:s generalförsamling hölls ett AI-toppmöte i England närmare bestämt i Bletchley park, där Alan Turing en gång i tiden knäckte koder under andra världskriget. I och med Brexit har Storbritannien inte haft en plats på tåget i EU:s arbete med sitt AI-fördrag, och mötet var enligt Vincent Boulanin ett sätt för landet att hitta sin nisch.

Eftersom det redan förs diskussioner om militär användning av AI landade man i ett fokus på så kallade ”frontier AI”, det vill säga de kraftfullaste och mest avancerade typerna av AI-system som kan användas för allmänt bruk (på tekniska kallat ”highly-capable general purpose AI”) som GPT4. Under mötet diskuterades riskerna med sådana system, och det hela utmynnade i en programförklaring som undertecknats av deltagarna, som var både politiska höjdare, företagsledare och forskare.

– De understryker att det finns både positiva aspekter men också risker med utvecklingen av systemen, och att de olika aktörerna som utvecklar sådana system ska försöka hitta sätt att minska riskerna, säger Vincent Boulanin.

Högdjur på toppmötet om AI i Bletchley park som pågick 1-2 november. Första raden från vänster: Frankrikes minister för ekonomi, industri och digital säkerhet Bruno Le Maire, Tysklands klimat- och ekonomiminister Robert Habeck, EU-kommissionens ordförande Ursula von der Leyen, USA:s vicepresident Kamala Harris, Storbritanniens premiärminister Rishi Sunak, Italiens premiärminister Giorgia Meloni, FN:s generalsekreterare Antonio Guterres och  Australiens försvarsminister Richard Marles. Mitten och bakre raden från vänster: James Manyika, Google, Tino Cuellar, vd för Carnegie endowment for international peace, Amba Kak, AI Now institute, Arthur Mensch, Mistal AI, Adam Selipsky, Amazon web services, Nick Clegg, Meta, Yoshu Bengio, Quebec AI Institute, Dario Amodei, Anthropic, Sam Altman, Open AI, Brad Smith, Microsoft, Mustafa Suleyman, Inflection AI, Alondra Nelson, tidigare tillförordnad direktör för Vita husets kontor för vetenskap- och teknikpolicies, Demis Hassabis, Google Deep mind, Eric Schmidt, Schmidt Futures, Ian Hogarth, ordförande för Storbritanniens arbetsgrupp för frontier AI och Reid Hoffman, Inflection AI. Foto: Toby Melville/AP/TT Foto:
Godset Bletchley park, England, numera museum och arena för AI summit 2023. Foto: Matt Dunham/AP/TT Foto:
Öppna i helskärm
1 / 2

Det finns två typer av risker som man diskuterar, och de ställs ofta emot varandra, fortsätter han.

– Den ena är kortsiktiga risker. Hur till exempel nuvarande system som Chat GPT kan missbrukas av olika aktörer som vill genomföra påverkansoperationer. Sådana system är inte pålitliga då de kan innehålla felaktig information som kan ha negativa konsekvenser på många nivåer. Eftersom man har tränat upp dem med stora mängder information som tagits från internet kan de återspela eller förstärka vissa fenomen i samhället som är problematiska, som rasism. Det finns också en oro kring hur de skulle kunna påverka arbetsmarknaden, att det kan vara sådana system som skulle kunna ersätta många jobb och det skulle bli disruptivt.

Maktansamling och intressekonflikter

– Den andra typen är långsiktiga risker, som är kopplade till vad man kallar för artificiell generell intelligens (AGI) eller superintelligens. Vissa tror att system som GPT4 är en tidig form av AGI. Om de blir superintelligenta och inte programmeras på ett sätt som är i enlighet med våra mänskliga värderingar, då finns risken att de gör saker som skulle vara problematiska för mänskligheten. Vissa påstår därför att utvecklingen av avancerade AI-system utgör en existentiell risk. Den bedömningen är dock väldigt debatterad, och många AI-experter tycker att det är lite av en distraktion, att man borde fokusera på att lösa kortsiktiga risker istället. Jag tänker själv att det är viktigt att tänka på både och, konkluderar Vincent Boulanin.

Maktkoncentrationen inom AI ses av både forskare och aktivister som problematisk, något som bland annat DW nyligen rapporterat om. Det finns en fara i att de stora företag som utvecklar AI får för stort inflytande på regleringen. Precis som med all form av reglering finns olika intressen som ställs mot varandra, konstaterar Vincent Boulanin.

– Det är inget konstigt att privata aktörer, som är de stora aktörerna, inte vill att regleringen ska hindra dem för mycket. Det de föreslår att man fokuserar på är säkerhetsaspekter som inte är så problematiska för dem. Det finns olika kulturer också bland stater kring hur man ska reglera och på vilket sätt, hur sträng man ska vara mot den privata sektorn. Vi ser det tydligt i förhandlingen som pågår på EU-nivå för en EU-reglering om AI. Det är ett ganska komplicerat politiskt spel.

Viktigast ackumulera kunskap

Det finns också olika intressen inom staten, fortsätter han.

– Vissa vill se till att man skyddar mänskliga rättigheter, bland annat människors rätt till privatliv, medan andra tycker det är viktigt att man av säkerhetsskäl ska ge möjligheter för polis och militär att kunna bevaka terrorister och gängkriminella och så vidare.

Det viktigaste just nu är att prata om AI och bygga upp kunskap hos beslutsfattarna, så att de vet vad de pratar om, menar Vincent Boulanin. På grund av ämnets tekniska karaktär är det inte helt enkelt, men den senaste händelseutvecklingen på området har gjort att det finns en större grundkunskap hos allmänheten.

– Jag tror de flesta nu ungefär förstår vad Chat GPT är och var det kommer ifrån. Maskininlärning är inte längre ett okänt begrepp för folk. De olika forumen, som FN:s AI-råd, kommer också bidra till ökad kunskap och att fler experter kan uttala sig om ämnet och ge konstruktiv input till beslutsfattarna. Men det är en ganska lång process.

Lär mer:

Framgång i FN för kampen mot mördarrobotarna

Forskare: AI-larmen varnar om fel saker