I år är det tio år sedan den amerikanska organisationen Epilepsy foundation utsattes för en hackerattack. Hackarna lade ut blinkande bilder och mönster på organisationens diskussionsforum vilket ledde till att flera användare drabbades av epileptiska anfall. Attacken klassades som den första som hade som mål att fysiskt skada datoranvändare. I dag lever vi i en värld där allt mer teknik omkring oss blir uppkopplad till nätet och därmed gör oss sårbara för attacker.
I somras sköljde en våg av bluffmejl över Sverige. Bedragarna påstod sig ha bevis för att du surfat på porrsajter och hotade att skicka filmer på detta till dina vänner och familj om du inte betalade. Som ett resultat uppmanade polisen till att täcka för ens webbkamera. De var inte de första som gjorde det. För två år sedan rekommenderade den dåvarande FBI-chefen James Comey alla att tejpa för sina webbkameror. Han jämförde det med att låsa sin bil eller ytterdörr på natten.
Vilket för oss till vår sköna nya värld av anslutna apparater – tv, lampor, kylskåp, bilar, leksaker – det som kallas för internet of things, eller sakernas internet. Det är inte längre bara webbkameror och datorer som står på glänt för objudna gäster. Vi har omringat oss med nyckelhål in i våra liv. Problemet är att väldigt många av dessa ”smarta” apparater är dåligt skyddade och enkla att hacka.
Något ett amerikanskt par upptäckte alltför väl när de år 2014 vaknade mitt i natten av att någon skrek obsceniteter i bebisrummet. Det visade sig till deras förskräckelse att någon hackat sig in i deras babymonitor. Att leksaker hackas har blivit så pass vanligt att FBI i fjol skickade ut en konsumentvarning gällande internetanslutna leksaker.
När sakernas internet tar allt mer utrymme i våra dagliga liv kan dessa attacker mycket väl sätta människoliv i fara. Bilar har blivit hackade ett flertal gånger, när någon med endast en laptop lyckats ta full kontroll över fordonet. Lampor kan släckas och tändas. Toaletter spolas. Kylskåp användas för att skicka spam och för ett par år sedan visade några säkerhetsexperter hur de kunde ”kidnappa” en termostat. Som demonstration lämnade de ett meddelande som krävde 300 dollar inom 24 timmar, annars skulle de sätta temperaturen på max.
Experter förutspår att år 2025 kommer det att finnas 75 miljarder anslutna apparater i världen. Och inte bara runt omkring oss, utan även i oss. För två år sedan beskrev forskare hur de lyckats hacka sig in i flera pacemaker. Väl ”inne” kunde de utdela elchocker och även stänga av livsuppehållande funktioner. Efter det har hundratusentals pacemaker återkallats.
I en teknologisk era där Sapiens-författaren Yuval Harari siar om nästa generation av mänskligheten – Homo Deus. Där vi använder oss av medicinska implantat för att förbättra vår biologi. Där industrin alltför ofta är usel på att göra sitt jobb. Då är det upp till var och en av dagens teknikkonsumenter att själva utbilda sig till säkerhetsexperter ifall illvilliga hackare bestämmer sig för att knacka på.
Eldsjälar som Greta Thunberg som ger hopp om en grönare framtid.
En ung kvinna demonstrerar i Stockholm för mänskliga rättigheter och mot riskerna som den nya AI-tekniken för med sig. Foto: Fredrik Sandberg/TT
Diskussionen om säkerhet, integritet och trovärdighet i förhållande till AI får fler forum och kraven på någon form av reglering ökar. Nyligen antogs en resolution om autonoma vapen i FN, och Storbritannien samlade AI-toppar i ett prestigefyllt möte. Men får det några konsekvenser i praktiken?
Den 30 november är det ett år sedan Open AI lanserade Chat GPT som för första gången gav allmänheten en inblick i vad så kallade stora språkmodeller kan åstadkomma. Den snabba utvecklingen på området och chatbotens förmåga att uttrycka sig mänskligt satte också fart på spekulationerna om en AI-apokalyps där den konstgjorda intelligensen gör människan överflödig eller ännu värre, medan den mer optimistiskt lagda sidan såg en värld av oändliga möjligheter öppna sig.
Hur som helst aktualiserade språkmodellernas intåg i det allmänna medvetandet frågor om säkerhet och reglering – både när det kommer till själva utvecklingen, som ju drivs av ett fåtal stora bolag, och när det kommer till användningen, där det inte behövs mycket fantasi för att kunna föreställa sig vad som kan hända om kraftfulla verktyg hamnar i fel händer. Hur AI kan användas för att skapa desinformation har vi redan sett exempel på, och vapentillverkare är heta på gröten när det gäller att utrusta autonoma vapensystem med AI.
AI-panel inom FN ska ge råd
Parallellt med AI-rusningen ökar antalet konflikter i världen – just nu vänds blickarna mot Israel och Palestina, medan Rysslands krig i Ukraina fortgår i medieskugga, liksom stridigheterna i Darfur, Jemen, Etiopien, Syrien… Frågan är om AI kan vara ett verktyg för att främja fred och säkerhet, eller om riskerna – att utvecklingen bidrar till att elda på splittringar och polarisering– väger över.
Behovet av att diskutera säkerhet i samband med AI resulterade i att EU i juni började förhandla om ”världens första heltäckande AI-lag”, och i juli höll FN sitt första toppmöte på temat. Då beslutades att ett högnivåråd för AI – eller en AI-panel, ungefär som klimatpanelen IPCC – skulle inrättas, vilket skett under hösten.
Organets uppgift är att ge råd och föreslå lösningar på hur AI kan regleras på global internationell nivå. Totalt är 38 experter från olika vetenskapsområden utsedda till att sitta i rådet, och en av dem är Virginia Dignum, professor i ansvarsfull artificiell intelligens vid Institutionen för datavetenskap vid Umeå universitet.
Risker i fokus – fred exkluderas
Just fred är något de flesta internationella organisationer överväger i relation till AI, men sällan uttrycks explicit i de föreskrifter och riktlinjer som läggs fram. Det beror på att försvarsfrågor ofta faller utanför organisationernas mandat, förklarar Virginia Dignum, som också har varit med och utarbetat EU:s AI-strategi.
– Ta EU:s förslag till AI-förordning, AI-lagen. Det inkluderar inte försvarsfrågor eftersom EU-kommissionen inte har befogenhet att reglera dessa frågor. I de flesta fall är utgångspunkten mänskliga rättigheter. Naturligtvis inkluderar dessa fred, men är som jag säger inte en explicit fråga. Enligt min åsikt är det huvudsakliga sättet AI kan bidra till fred genom att stödja utbildning och förmågan att förstå och ta itu med skillnader mellan människor, samhällen och regioner, skriver hon i ett mail till Syre.
Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens. Foto: Johan Gunséus
Till exempel tror Virginia Dignum att skräddarsydda utbildningsprogram förmedlade av AI skulle kunna hjälpa barn att förstå att våra olikheter inte behöver vara en orsak till konflikter utan är något som kan berika. Fokus i diskussionen ligger dock ofta på risker med AI.
– På andra sidan av spektrumet kan AI användas, och används redan, för att förstärka konflikter genom att skapa falska nyheter och desinformation. AI-drivna system kan också användas både på hela populationer eller individer, dels i sociala medier för desinformation men också i verkligheten, som en del av vapensystem.
Positivt med allmän debatt
Så hur går det då med eventuella regleringar för att hantera dylika risker? Vincent Boulanin, programchef på Sipri, Stockholms internationella fredsforskningsinstitut, leder institutets forskningsprogram om AI-reglering, och han tycker att utvecklingen går åt rätt håll. Det kan man tacka Chat GPT för.
– Plötsligt blev AI supermainstream. Tidigare har de viktiga aktörerna diskuterat frågan i olika nischforum, men nu har det blivit en allmän debatt om det, vilket är väldigt bra, säger Vincent Boulanin.
Det nyinrättade FN-rådet kan väl ses som ett exempel på ett bredare forum men redan före det har frågor som tangerar AI behandlats i samfundet. Den 1 november godkände generalförsamlingen en resolution om autonoma vapensystem, så kallade mördarrobotar. Diskussionen om dessa har tidigare pågått inom ramen för Konventionen om vissa konventionella vapen(CCW) i Genèvesedan 2014.
– Problemet där är att alla stater som officiellt är med i konventionen på något sätt har en vetorätt. Så det blir politiskt svårt att komma fram till någonting. Man vattnar ur innehållet ganska mycket för att alla ska kunna stödja det. Det har lett till att en del stater har slutat tro på att experterna i Genève kommer att kunna komma fram till något betydelsefullt. Då fungerar generalförsamlingen på ett annat sätt, där behövs majoritet, konstaterar Vincent Boulanin.
Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri. Foto: Pressbild Sipri
Humanitär rätt öppen för tolkning
Resolutionen har framför allt en symbolisk betydelse; det har nu officiellt påbörjats en formell diskussion och det blir en specifik punkt på agendan framledes. Det innebär emellertid inte att vi kommer att få se en reglering, utan det första steget är att generalsekreteraren samlar in synpunkter till en rapport. Men reglering av de så kallade mördarrobotarna är något som många efterfrågar, även om användningen och utvecklingen av autonoma vapen begränsas i den nuvarande internationella humanitära rätten.
– Den nuvarande rätten gäller för alla typer av vapen, oavsett hur de byggs. Problemet är väl att de regler som finns nu kan tolkas på olika sätt. Och att sådana vapen är autonoma skapar en del nya tolkningsfrågor som också kan bidra till att stater kan tolka det de måste göra på väldigt olika sätt. Så det är därför vissa stater och organisationer från civilsamhället vill ha en ny reglering som skulle tydliggöra den nuvarande rätten, så att det blir tydligt vad man får och inte får göra i utvecklingen och användningen av sådana vapen. Andra stater, bland annat Ryssland, tycker däremot att den nuvarande rätter är tillräckligt tydligt. Så det är en ganska omstridd och debatterad fråga, förklarar Vincent Boulanin.
Finns det risk för att det blir en global kapprustning med autonoma vapensystem? Eller är det redan det?
– Ja, det är redan det på något sätt. Men jag skulle säga att kapprustningen inte nödvändigtvis handlar om sådana vapen per se. Det är en kapprustning som är mer kopplad till utvecklingen av robotik och AI i allmänhet och en kapprustning som också är kopplad till AI i allmänhet. Staterna är inte så fokuserade på just autonoma vapen, säger Vincent Boulanin och tillägger att det är viktigare för stormakterna att ha tillgång till utbildade människor som kan utveckla smarta algoritmer, och att man har kraftfulla processorer och mycket data för att träna upp avancerade AI-system.
Riskbedömningsmöte på anrik mark
Samtidigt som resolutionen om mördarrobotar var uppe i FN:s generalförsamling hölls ett AI-toppmöte i England närmare bestämt i Bletchley park, där Alan Turing en gång i tiden knäckte koder under andra världskriget. I och med Brexit har Storbritannien inte haft en plats på tåget i EU:s arbete med sitt AI-fördrag, och mötet var enligt Vincent Boulanin ett sätt för landet att hitta sin nisch.
Eftersom det redan förs diskussioner om militär användning av AI landade man i ett fokus på så kallade ”frontier AI”, det vill säga de kraftfullaste och mest avancerade typerna av AI-system som kan användas för allmänt bruk (på tekniska kallat ”highly-capable general purpose AI”) som GPT4. Under mötet diskuterades riskerna med sådana system, och det hela utmynnade i en programförklaring som undertecknats av deltagarna, som var både politiska höjdare, företagsledare och forskare.
– De understryker att det finns både positiva aspekter men också risker med utvecklingen av systemen, och att de olika aktörerna som utvecklar sådana system ska försöka hitta sätt att minska riskerna, säger Vincent Boulanin.
Högdjur på toppmötet om AI i Bletchley park som pågick 1-2 november. Första raden från vänster: Frankrikes minister för ekonomi, industri och digital säkerhet Bruno Le Maire, Tysklands klimat- och ekonomiminister Robert Habeck, EU-kommissionens ordförande Ursula von der Leyen, USA:s vicepresident Kamala Harris, Storbritanniens premiärminister Rishi Sunak, Italiens premiärminister Giorgia Meloni, FN:s generalsekreterare Antonio Guterres och Australiens försvarsminister Richard Marles. Mitten och bakre raden från vänster: James Manyika, Google, Tino Cuellar, vd för Carnegie endowment for international peace, Amba Kak, AI Now institute, Arthur Mensch, Mistal AI, Adam Selipsky, Amazon web services, Nick Clegg, Meta, Yoshu Bengio, Quebec AI Institute, Dario Amodei, Anthropic, Sam Altman, Open AI, Brad Smith, Microsoft, Mustafa Suleyman, Inflection AI, Alondra Nelson, tidigare tillförordnad direktör för Vita husets kontor för vetenskap- och teknikpolicies, Demis Hassabis, Google Deep mind, Eric Schmidt, Schmidt Futures, Ian Hogarth, ordförande för Storbritanniens arbetsgrupp för frontier AI och Reid Hoffman, Inflection AI. Foto: Toby Melville/AP/TT
Foto:
Godset Bletchley park, England, numera museum och arena för AI summit 2023. Foto: Matt Dunham/AP/TT
Foto:
Öppna i helskärm
1 / 2
Det finns två typer av risker som man diskuterar, och de ställs ofta emot varandra, fortsätter han.
– Den ena är kortsiktiga risker. Hur till exempel nuvarande system som Chat GPT kan missbrukas av olika aktörer som vill genomföra påverkansoperationer. Sådana system är inte pålitliga då de kan innehålla felaktig information som kan ha negativa konsekvenser på många nivåer. Eftersom man har tränat upp dem med stora mängder information som tagits från internet kan de återspela eller förstärka vissa fenomen i samhället som är problematiska, som rasism. Det finns också en oro kring hur de skulle kunna påverka arbetsmarknaden, att det kan vara sådana system som skulle kunna ersätta många jobb och det skulle bli disruptivt.
Maktansamling och intressekonflikter
– Den andra typen är långsiktiga risker, som är kopplade till vad man kallar för artificiell generell intelligens (AGI) eller superintelligens. Vissa tror att system som GPT4 är en tidig form av AGI. Om de blir superintelligenta och inte programmeras på ett sätt som är i enlighet med våra mänskliga värderingar, då finns risken att de gör saker som skulle vara problematiska för mänskligheten. Vissa påstår därför att utvecklingen av avancerade AI-system utgör en existentiell risk. Den bedömningen är dock väldigt debatterad, och många AI-experter tycker att det är lite av en distraktion, att man borde fokusera på att lösa kortsiktiga risker istället. Jag tänker själv att det är viktigt att tänka på både och, konkluderar Vincent Boulanin.
Maktkoncentrationen inom AI ses av både forskare och aktivister som problematisk, något som bland annat DW nyligen rapporterat om. Det finns en fara i att de stora företag som utvecklar AI får för stort inflytande på regleringen. Precis som med all form av reglering finns olika intressen som ställs mot varandra, konstaterar Vincent Boulanin.
– Det är inget konstigt att privata aktörer, som är de stora aktörerna, inte vill att regleringen ska hindra dem för mycket. Det de föreslår att man fokuserar på är säkerhetsaspekter som inte är så problematiska för dem. Det finns olika kulturer också bland stater kring hur man ska reglera och på vilket sätt, hur sträng man ska vara mot den privata sektorn. Vi ser det tydligt i förhandlingen som pågår på EU-nivå för en EU-reglering om AI. Det är ett ganska komplicerat politiskt spel.
Viktigast ackumulera kunskap
Det finns också olika intressen inom staten, fortsätter han.
– Vissa vill se till att man skyddar mänskliga rättigheter, bland annat människors rätt till privatliv, medan andra tycker det är viktigt att man av säkerhetsskäl ska ge möjligheter för polis och militär att kunna bevaka terrorister och gängkriminella och så vidare.
Det viktigaste just nu är att prata om AI och bygga upp kunskap hos beslutsfattarna, så att de vet vad de pratar om, menar Vincent Boulanin. På grund av ämnets tekniska karaktär är det inte helt enkelt, men den senaste händelseutvecklingen på området har gjort att det finns en större grundkunskap hos allmänheten.
– Jag tror de flesta nu ungefär förstår vad Chat GPT är och var det kommer ifrån. Maskininlärning är inte längre ett okänt begrepp för folk. De olika forumen, som FN:s AI-råd, kommer också bidra till ökad kunskap och att fler experter kan uttala sig om ämnet och ge konstruktiv input till beslutsfattarna. Men det är en ganska lång process.
En demonstration mot övervakningsförslaget, som i folkmun kallas Chat control, på Mynttorget i Stockholm 2023. Foto: Henrik Montgomery/TT
EU-parlamentets utskott för medborgerliga fri- och rättigheter sa nej till det kontroversiella övervakningsförslaget kallat Chat control och antog i stället ett reviderat förslag som innebär att det behöver finnas misstanke om brott och att krypterade chattar kan undantas.
När förslaget till förordningen för CSAM (child sexual abuse material) behandlades i EU-utskottet Libe den 15 november presenterades ett omarbetat förslag för övervakning av digital kommunikation. För förslaget, som till exempel undantar krypterade tjänster, röstade 51 av 54 ledamöter, rapporterar ETC.
EU-parlamentariker Malin Björk (V), som är ledamot i Libe, verkar nöjd med det omarbetade förslaget.
”I parlamentets position tas alla delar om massövervakning bort. Nu hoppas vi att också vi får medlemsländerna med oss”, skriver hon på mikrobloggen X.
Bakom förslaget ligger den svenska EU-kommissionären Ylva Johansson, som menar att lagen behövs för att förhindra spridning av barnpornografi. Men den nya lagen innebär också krav på att företag och molntjänster ska söka igenom alla användares privata kommunikation, vilket mött hård kritik.
I det tidigare förslaget krävdes att alla företag scannar allt, även appar för krypterad kommunikation, i jakten på pedofiler, men efter omarbetningen kan alltså krypterade chattar undantas.
Ylva Johansson har anklagats för att lobbyister fått ha för stort inflytande över förslaget och kritiserats för lämpligheten i att EU-kommissionen bedrev kampanj mot medborgare i länder som är tveksamma till förslaget.
Men ännu är det inte klart. Nu följer förhandlingar mellan EU-parlamentet, EU-kommissionen och ministerrådet. I Sverige kan riksdagspartierna påverka Sveriges position i ministerrådet.
En majoritet av de svenska riksdagspartierna; Socialdemokraterna, Moderaterna, Kristdemokraterna och Liberalerna, var positiva till det tidigare förslaget.
För bästa användarupplevelse använder vi kakor där vi lagrar och läser in information om er användare. Om ni accepterar det så kan vi spara information om ifall ni är inloggade och vilka artiklar som blir mest lästa. Att tacka nej kan påverka vissa funktioner och användarupplevelsen. Det gör det också svårare för oss att bedriva vårt uppdrag, att leverera den bästa gröna journalistiken.
Du kan när som helst ändra inställningarna genom att klicka på den gröna fliken i nedre högra hörnet eller "Mer" i menyn.
Funktionella
Alltid aktiv
För att sidan ska fungera som det ska använder vi oss av kakor. Kakorna i den här kategorin kan inte väljas bort eftersom de är nödvändiga för er läsupplevelse.
Alternativ
Den tekniska lagringen eller åtkomsten är nödvändig för det legitima syftet att lagra inställningar som inte efterfrågas av abonnenten eller användaren.
Statistik
För vår överlevnad är det fullständigt nödvändigt att vi kan redovisa statistik över antalet besökare vi har. Vi använder också statistiken för att fatta kloka beslut om vad ni läsare är mest intresserade av att läsa.Den tekniska lagringen eller åtkomsten som används uteslutande för anonyma statistiska ändamål. Utan en stämningsansökan, frivillig efterlevnad från din Internetleverantörs sida, eller ytterligare register från en tredje part, kan information som lagras eller hämtas endast för detta ändamål vanligtvis inte användas för att identifiera dig.
Marknadsföring
För att nå ut använder vi oss av marknadsföring, men också för att få inkomster.