Efter 15 år stänger utställningen Sápmi. Samiskt kulturarv och historia ska istället integreras i en ny basutställning om liv i Norden. Foto: Nordiska museet
Efter 15 år lägger Nordiska museet ned utställningen Sápmi. Det främsta skälet är ge plats åt en ny basutställning om nordiskt leverne under 500 år där samisk kultur och historia ska integreras.
En av Nordiska museets hittills permanenta utställningar, Sápmi, läggs ned efter 15 år. Utställningen berör bland annat samisk identitet och samiska rättigheter, och sista chansen att ta del av den är 20 februari. Bland samer är reaktionerna blandade, men framför allt finns förhoppningen om att utställningen som utgår bör ge plats åt en ny, som bättre speglar samernas historia och villkor.
– Jag tycker att det är viktigt att det fortsätter finnas en samisk utställning i Region Stockholm framöver men att just denna läggs ner är en naturlig del i utvecklingen, säger Inge Frisk, verksamhetsledare Sameföreningen i Stockholm till SVT Sápmi.
Att Sápmi nu läggs ned har främst att göra med att museet bygger en ny stor basutställning på hela det plan 4 där Sápmi visats, förklarar Sanne Houby-Nielsen, styresman på Stiftelsen Nordiska museet.
– Det är en väldigt stor satsning med en samlad presentation av Sverige och Nordens historia genom 500 år, och där kommer vi att integrera samisk kultur och historia.
Ska inleda dialog om samlingarna
Stiftelsen Nordiska museet har enligt sina stadgar till uppgift att ”bevara och levandegöra minnet av liv och arbete i Sverige, företrädesvis för tiden efter år 1520” vilket även har lett till en omfattande dokumentation av samisk historia och kulturarv. I och med nedläggningen av Sápmi och planeringen av den kommande basutställningen tittar museet också närmare på hur de samiska samlingarna ska förvaltas i framtiden. För det ändamålet kommer museet i år att påbörja en utredning.
– Där ska vi dels gå i bred dialog med en rad intressenter kring samlingarna, det är ett sätt för oss att förstå hur vi inom ramen för vårt uppdrag kan jobba på ett nytt sätt med samisk kultur och historia. Stiftelsen fyller 150 år 2023 och vår grundares absoluta ambition var att vi ska skildra liv, arbete och människors vardag för alla som bor i Sverige och Norden. Den samiska delen av befolkningen är en viktig del i den ambitionen.
En penningpung i renskinn ur Nordiska museets samling. Foto: Mats Landin, Nordiska museet
Sedan bildandet 1873 har museet samlat mer än 8 000 kulturhistoriska föremål som relaterar till samisk kultur och historia. Det har ifrågasatts huruvida vissa av dessa föremål hör hemma på museum utan bör återbördas till det samiska folket. Även de samlingar som nu visas i Sápmi kommer ingå i utredningen om förvaltningen av de samiska samlingarna i framtiden.
Vilka samiska föremål som ska vara med i den kommande utställningen är ännu inte klart, men Sanne Houby-Nielsens gissning är att det blir ett annorlunda urval.
– Vi ser själva mycket fram emot det, det är en spännande utmaning vi har kastat oss ut i. Det handlar mycket om olika förhållningssätt, till naturen, naturresurser, familjestrukturer, tro och vetande, hur det har ändrats. När man tänker på samtiden är det ganska tunga områden.
"Närma oss frågan på annat sätt"
Utställningen kommer vara kronologiskt uppbyggd.
– Det låter kanske lite banalt, men personligen tror jag mycket på det. Vi vill tillgängliggöra ett brett urval som mer presenteras i en social kontext. Hur såg det egentligen ut på 1500-talet och framåt till idag? I Sverige har det samiska uttrycket krympt på grund av kolonisering men långt tillbaka i tiden har det kulturgeografiskt fyllt väldigt mycket. Den utställning vi nu tar ner är en väldigt fin utställning, men vi vill helt enkelt närma oss frågan på ett annat sätt, vi vill vara mer lyhörda för hur de här 500 åren har sett ut, hur samspelet mellan samisk kulturhistoria och andra har sett ut, säger Sanne Houby-Nielsen.
Den generella ambitionen är samtidigt att vara lite mindre redovisande och att man istället ska komma väldigt nära människan bakom föremålen.
– Istället för att berätta om en stol berättar vi mer om vem som har suttit på stolen och hur personens liv såg ut, med föremålen som källmaterial, säger Sanne Houby-Nielsen.
En demonstration mot övervakningsförslaget, som i folkmun kallas Chat control, på Mynttorget i Stockholm 2023. Foto: Henrik Montgomery/TT
EU-parlamentets utskott för medborgerliga fri- och rättigheter sa nej till det kontroversiella övervakningsförslaget kallat Chat control och antog i stället ett reviderat förslag som innebär att det behöver finnas misstanke om brott och att krypterade chattar kan undantas.
När förslaget till förordningen för CSAM (child sexual abuse material) behandlades i EU-utskottet Libe den 15 november presenterades ett omarbetat förslag för övervakning av digital kommunikation. För förslaget, som till exempel undantar krypterade tjänster, röstade 51 av 54 ledamöter, rapporterar ETC.
EU-parlamentariker Malin Björk (V), som är ledamot i Libe, verkar nöjd med det omarbetade förslaget.
”I parlamentets position tas alla delar om massövervakning bort. Nu hoppas vi att också vi får medlemsländerna med oss”, skriver hon på mikrobloggen X.
Bakom förslaget ligger den svenska EU-kommissionären Ylva Johansson, som menar att lagen behövs för att förhindra spridning av barnpornografi. Men den nya lagen innebär också krav på att företag och molntjänster ska söka igenom alla användares privata kommunikation, vilket mött hård kritik.
I det tidigare förslaget krävdes att alla företag scannar allt, även appar för krypterad kommunikation, i jakten på pedofiler, men efter omarbetningen kan alltså krypterade chattar undantas.
Ylva Johansson har anklagats för att lobbyister fått ha för stort inflytande över förslaget och kritiserats för lämpligheten i att EU-kommissionen bedrev kampanj mot medborgare i länder som är tveksamma till förslaget.
Men ännu är det inte klart. Nu följer förhandlingar mellan EU-parlamentet, EU-kommissionen och ministerrådet. I Sverige kan riksdagspartierna påverka Sveriges position i ministerrådet.
En majoritet av de svenska riksdagspartierna; Socialdemokraterna, Moderaterna, Kristdemokraterna och Liberalerna, var positiva till det tidigare förslaget.
En ung kvinna demonstrerar i Stockholm för mänskliga rättigheter och mot riskerna som den nya AI-tekniken för med sig. Foto: Fredrik Sandberg/TT
Diskussionen om säkerhet, integritet och trovärdighet i förhållande till AI får fler forum och kraven på någon form av reglering ökar. Nyligen antogs en resolution om autonoma vapen i FN, och Storbritannien samlade AI-toppar i ett prestigefyllt möte. Men får det några konsekvenser i praktiken?
Den 30 november är det ett år sedan Open AI lanserade Chat GPT som för första gången gav allmänheten en inblick i vad så kallade stora språkmodeller kan åstadkomma. Den snabba utvecklingen på området och chatbotens förmåga att uttrycka sig mänskligt satte också fart på spekulationerna om en AI-apokalyps där den konstgjorda intelligensen gör människan överflödig eller ännu värre, medan den mer optimistiskt lagda sidan såg en värld av oändliga möjligheter öppna sig.
Hur som helst aktualiserade språkmodellernas intåg i det allmänna medvetandet frågor om säkerhet och reglering – både när det kommer till själva utvecklingen, som ju drivs av ett fåtal stora bolag, och när det kommer till användningen, där det inte behövs mycket fantasi för att kunna föreställa sig vad som kan hända om kraftfulla verktyg hamnar i fel händer. Hur AI kan användas för att skapa desinformation har vi redan sett exempel på, och vapentillverkare är heta på gröten när det gäller att utrusta autonoma vapensystem med AI.
AI-panel inom FN ska ge råd
Parallellt med AI-rusningen ökar antalet konflikter i världen – just nu vänds blickarna mot Israel och Palestina, medan Rysslands krig i Ukraina fortgår i medieskugga, liksom stridigheterna i Darfur, Jemen, Etiopien, Syrien… Frågan är om AI kan vara ett verktyg för att främja fred och säkerhet, eller om riskerna – att utvecklingen bidrar till att elda på splittringar och polarisering– väger över.
Behovet av att diskutera säkerhet i samband med AI resulterade i att EU i juni började förhandla om ”världens första heltäckande AI-lag”, och i juli höll FN sitt första toppmöte på temat. Då beslutades att ett högnivåråd för AI – eller en AI-panel, ungefär som klimatpanelen IPCC – skulle inrättas, vilket skett under hösten.
Organets uppgift är att ge råd och föreslå lösningar på hur AI kan regleras på global internationell nivå. Totalt är 38 experter från olika vetenskapsområden utsedda till att sitta i rådet, och en av dem är Virginia Dignum, professor i ansvarsfull artificiell intelligens vid Institutionen för datavetenskap vid Umeå universitet.
Risker i fokus – fred exkluderas
Just fred är något de flesta internationella organisationer överväger i relation till AI, men sällan uttrycks explicit i de föreskrifter och riktlinjer som läggs fram. Det beror på att försvarsfrågor ofta faller utanför organisationernas mandat, förklarar Virginia Dignum, som också har varit med och utarbetat EU:s AI-strategi.
– Ta EU:s förslag till AI-förordning, AI-lagen. Det inkluderar inte försvarsfrågor eftersom EU-kommissionen inte har befogenhet att reglera dessa frågor. I de flesta fall är utgångspunkten mänskliga rättigheter. Naturligtvis inkluderar dessa fred, men är som jag säger inte en explicit fråga. Enligt min åsikt är det huvudsakliga sättet AI kan bidra till fred genom att stödja utbildning och förmågan att förstå och ta itu med skillnader mellan människor, samhällen och regioner, skriver hon i ett mail till Syre.
Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens. Foto: Johan Gunséus
Till exempel tror Virginia Dignum att skräddarsydda utbildningsprogram förmedlade av AI skulle kunna hjälpa barn att förstå att våra olikheter inte behöver vara en orsak till konflikter utan är något som kan berika. Fokus i diskussionen ligger dock ofta på risker med AI.
– På andra sidan av spektrumet kan AI användas, och används redan, för att förstärka konflikter genom att skapa falska nyheter och desinformation. AI-drivna system kan också användas både på hela populationer eller individer, dels i sociala medier för desinformation men också i verkligheten, som en del av vapensystem.
Positivt med allmän debatt
Så hur går det då med eventuella regleringar för att hantera dylika risker? Vincent Boulanin, programchef på Sipri, Stockholms internationella fredsforskningsinstitut, leder institutets forskningsprogram om AI-reglering, och han tycker att utvecklingen går åt rätt håll. Det kan man tacka Chat GPT för.
– Plötsligt blev AI supermainstream. Tidigare har de viktiga aktörerna diskuterat frågan i olika nischforum, men nu har det blivit en allmän debatt om det, vilket är väldigt bra, säger Vincent Boulanin.
Det nyinrättade FN-rådet kan väl ses som ett exempel på ett bredare forum men redan före det har frågor som tangerar AI behandlats i samfundet. Den 1 november godkände generalförsamlingen en resolution om autonoma vapensystem, så kallade mördarrobotar. Diskussionen om dessa har tidigare pågått inom ramen för Konventionen om vissa konventionella vapen(CCW) i Genèvesedan 2014.
– Problemet där är att alla stater som officiellt är med i konventionen på något sätt har en vetorätt. Så det blir politiskt svårt att komma fram till någonting. Man vattnar ur innehållet ganska mycket för att alla ska kunna stödja det. Det har lett till att en del stater har slutat tro på att experterna i Genève kommer att kunna komma fram till något betydelsefullt. Då fungerar generalförsamlingen på ett annat sätt, där behövs majoritet, konstaterar Vincent Boulanin.
Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri. Foto: Pressbild Sipri
Humanitär rätt öppen för tolkning
Resolutionen har framför allt en symbolisk betydelse; det har nu officiellt påbörjats en formell diskussion och det blir en specifik punkt på agendan framledes. Det innebär emellertid inte att vi kommer att få se en reglering, utan det första steget är att generalsekreteraren samlar in synpunkter till en rapport. Men reglering av de så kallade mördarrobotarna är något som många efterfrågar, även om användningen och utvecklingen av autonoma vapen begränsas i den nuvarande internationella humanitära rätten.
– Den nuvarande rätten gäller för alla typer av vapen, oavsett hur de byggs. Problemet är väl att de regler som finns nu kan tolkas på olika sätt. Och att sådana vapen är autonoma skapar en del nya tolkningsfrågor som också kan bidra till att stater kan tolka det de måste göra på väldigt olika sätt. Så det är därför vissa stater och organisationer från civilsamhället vill ha en ny reglering som skulle tydliggöra den nuvarande rätten, så att det blir tydligt vad man får och inte får göra i utvecklingen och användningen av sådana vapen. Andra stater, bland annat Ryssland, tycker däremot att den nuvarande rätter är tillräckligt tydligt. Så det är en ganska omstridd och debatterad fråga, förklarar Vincent Boulanin.
Finns det risk för att det blir en global kapprustning med autonoma vapensystem? Eller är det redan det?
– Ja, det är redan det på något sätt. Men jag skulle säga att kapprustningen inte nödvändigtvis handlar om sådana vapen per se. Det är en kapprustning som är mer kopplad till utvecklingen av robotik och AI i allmänhet och en kapprustning som också är kopplad till AI i allmänhet. Staterna är inte så fokuserade på just autonoma vapen, säger Vincent Boulanin och tillägger att det är viktigare för stormakterna att ha tillgång till utbildade människor som kan utveckla smarta algoritmer, och att man har kraftfulla processorer och mycket data för att träna upp avancerade AI-system.
Riskbedömningsmöte på anrik mark
Samtidigt som resolutionen om mördarrobotar var uppe i FN:s generalförsamling hölls ett AI-toppmöte i England närmare bestämt i Bletchley park, där Alan Turing en gång i tiden knäckte koder under andra världskriget. I och med Brexit har Storbritannien inte haft en plats på tåget i EU:s arbete med sitt AI-fördrag, och mötet var enligt Vincent Boulanin ett sätt för landet att hitta sin nisch.
Eftersom det redan förs diskussioner om militär användning av AI landade man i ett fokus på så kallade ”frontier AI”, det vill säga de kraftfullaste och mest avancerade typerna av AI-system som kan användas för allmänt bruk (på tekniska kallat ”highly-capable general purpose AI”) som GPT4. Under mötet diskuterades riskerna med sådana system, och det hela utmynnade i en programförklaring som undertecknats av deltagarna, som var både politiska höjdare, företagsledare och forskare.
– De understryker att det finns både positiva aspekter men också risker med utvecklingen av systemen, och att de olika aktörerna som utvecklar sådana system ska försöka hitta sätt att minska riskerna, säger Vincent Boulanin.
Högdjur på toppmötet om AI i Bletchley park som pågick 1-2 november. Första raden från vänster: Frankrikes minister för ekonomi, industri och digital säkerhet Bruno Le Maire, Tysklands klimat- och ekonomiminister Robert Habeck, EU-kommissionens ordförande Ursula von der Leyen, USA:s vicepresident Kamala Harris, Storbritanniens premiärminister Rishi Sunak, Italiens premiärminister Giorgia Meloni, FN:s generalsekreterare Antonio Guterres och Australiens försvarsminister Richard Marles. Mitten och bakre raden från vänster: James Manyika, Google, Tino Cuellar, vd för Carnegie endowment for international peace, Amba Kak, AI Now institute, Arthur Mensch, Mistal AI, Adam Selipsky, Amazon web services, Nick Clegg, Meta, Yoshu Bengio, Quebec AI Institute, Dario Amodei, Anthropic, Sam Altman, Open AI, Brad Smith, Microsoft, Mustafa Suleyman, Inflection AI, Alondra Nelson, tidigare tillförordnad direktör för Vita husets kontor för vetenskap- och teknikpolicies, Demis Hassabis, Google Deep mind, Eric Schmidt, Schmidt Futures, Ian Hogarth, ordförande för Storbritanniens arbetsgrupp för frontier AI och Reid Hoffman, Inflection AI. Foto: Toby Melville/AP/TT
Foto:
Godset Bletchley park, England, numera museum och arena för AI summit 2023. Foto: Matt Dunham/AP/TT
Foto:
Öppna i helskärm
1 / 2
Det finns två typer av risker som man diskuterar, och de ställs ofta emot varandra, fortsätter han.
– Den ena är kortsiktiga risker. Hur till exempel nuvarande system som Chat GPT kan missbrukas av olika aktörer som vill genomföra påverkansoperationer. Sådana system är inte pålitliga då de kan innehålla felaktig information som kan ha negativa konsekvenser på många nivåer. Eftersom man har tränat upp dem med stora mängder information som tagits från internet kan de återspela eller förstärka vissa fenomen i samhället som är problematiska, som rasism. Det finns också en oro kring hur de skulle kunna påverka arbetsmarknaden, att det kan vara sådana system som skulle kunna ersätta många jobb och det skulle bli disruptivt.
Maktansamling och intressekonflikter
– Den andra typen är långsiktiga risker, som är kopplade till vad man kallar för artificiell generell intelligens (AGI) eller superintelligens. Vissa tror att system som GPT4 är en tidig form av AGI. Om de blir superintelligenta och inte programmeras på ett sätt som är i enlighet med våra mänskliga värderingar, då finns risken att de gör saker som skulle vara problematiska för mänskligheten. Vissa påstår därför att utvecklingen av avancerade AI-system utgör en existentiell risk. Den bedömningen är dock väldigt debatterad, och många AI-experter tycker att det är lite av en distraktion, att man borde fokusera på att lösa kortsiktiga risker istället. Jag tänker själv att det är viktigt att tänka på både och, konkluderar Vincent Boulanin.
Maktkoncentrationen inom AI ses av både forskare och aktivister som problematisk, något som bland annat DW nyligen rapporterat om. Det finns en fara i att de stora företag som utvecklar AI får för stort inflytande på regleringen. Precis som med all form av reglering finns olika intressen som ställs mot varandra, konstaterar Vincent Boulanin.
– Det är inget konstigt att privata aktörer, som är de stora aktörerna, inte vill att regleringen ska hindra dem för mycket. Det de föreslår att man fokuserar på är säkerhetsaspekter som inte är så problematiska för dem. Det finns olika kulturer också bland stater kring hur man ska reglera och på vilket sätt, hur sträng man ska vara mot den privata sektorn. Vi ser det tydligt i förhandlingen som pågår på EU-nivå för en EU-reglering om AI. Det är ett ganska komplicerat politiskt spel.
Viktigast ackumulera kunskap
Det finns också olika intressen inom staten, fortsätter han.
– Vissa vill se till att man skyddar mänskliga rättigheter, bland annat människors rätt till privatliv, medan andra tycker det är viktigt att man av säkerhetsskäl ska ge möjligheter för polis och militär att kunna bevaka terrorister och gängkriminella och så vidare.
Det viktigaste just nu är att prata om AI och bygga upp kunskap hos beslutsfattarna, så att de vet vad de pratar om, menar Vincent Boulanin. På grund av ämnets tekniska karaktär är det inte helt enkelt, men den senaste händelseutvecklingen på området har gjort att det finns en större grundkunskap hos allmänheten.
– Jag tror de flesta nu ungefär förstår vad Chat GPT är och var det kommer ifrån. Maskininlärning är inte längre ett okänt begrepp för folk. De olika forumen, som FN:s AI-råd, kommer också bidra till ökad kunskap och att fler experter kan uttala sig om ämnet och ge konstruktiv input till beslutsfattarna. Men det är en ganska lång process.
För bästa användarupplevelse använder vi kakor där vi lagrar och läser in information om er användare. Om ni accepterar det så kan vi spara information om ifall ni är inloggade och vilka artiklar som blir mest lästa. Att tacka nej kan påverka vissa funktioner och användarupplevelsen. Det gör det också svårare för oss att bedriva vårt uppdrag, att leverera den bästa gröna journalistiken.
Du kan när som helst ändra inställningarna genom att klicka på den gröna fliken i nedre högra hörnet eller "Mer" i menyn.
Funktionella
Alltid aktiv
För att sidan ska fungera som det ska använder vi oss av kakor. Kakorna i den här kategorin kan inte väljas bort eftersom de är nödvändiga för er läsupplevelse.
Alternativ
Den tekniska lagringen eller åtkomsten är nödvändig för det legitima syftet att lagra inställningar som inte efterfrågas av abonnenten eller användaren.
Statistik
För vår överlevnad är det fullständigt nödvändigt att vi kan redovisa statistik över antalet besökare vi har. Vi använder också statistiken för att fatta kloka beslut om vad ni läsare är mest intresserade av att läsa.Den tekniska lagringen eller åtkomsten som används uteslutande för anonyma statistiska ändamål. Utan en stämningsansökan, frivillig efterlevnad från din Internetleverantörs sida, eller ytterligare register från en tredje part, kan information som lagras eller hämtas endast för detta ändamål vanligtvis inte användas för att identifiera dig.
Marknadsföring
För att nå ut använder vi oss av marknadsföring, men också för att få inkomster.