Zoom

Advokat om Tidöavtalet: ”Vill vi verkligen vara på väg mot 1984?”

Advokaten Peter Hellman ser många integritetsrisker i Tidöavtalet.

Visitationszoner, fler övervakningskameror och utökade möjligheter till preventiva tvångsmedel. Syre har bett två jurister att kommentera Tidöavtalet ur ett integritetsperspektiv.
– Preventiva tvångsmedel låter som något som är hämtat ur 1984, säger advokaten Peter Hellman.

Peter Hellman är advokat med ett särskilt intresse för integritets- och rättsstatsfrågor. Han anser att Tidöavtalet är mycket oroande om man läser det i sin helhet.

– Väldigt många jurister säger att vi får vänta och titta på de konkreta lagförslagen och diskutera frågan då. Jag tycker precis tvärtom. När det är ett litet förslag här och där kanske de inte ser så farliga ut var för sig. Men sammantaget kan det få väldigt stora effekter på integriteten. Nu ser vi alla förslag upplagda på ett bräde. Det är nu vi måste agera.

Vad ser du som det största problemet med avtalet i sin helhet?

– Det är problematiken kring att oskyldiga drabbas. Hela idén kring vårt samhälle är att myndigheterna ska agera enligt lag och att enbart de som begår brott ska straffas. Vi sysslar inte med kollektiv bestraffning eller andra kollektiva åtgärder. Sedan är vissa saker i avtalet är värre än andra. Där tycker jag att visitationszoner, anonyma vittnen, preventiva tvångsmedel och övervakning är de värsta ur ett integritetsperspektiv.

”Enorm integritetsrisk”

I avtalet står det bland annat att kamerabevakningslagen ska ses över ”för att möjliggöra kamerabevakning oftare och på fler platser”. Peter Hellman menar att det är det tydligaste exemplet på kränkning av den privata sfären.

– Det finns en enorm integritetsrisk i övervakningsapparaten. Vi vet att kameror missbrukas, information läcker och att poliser slår i register och tittar på bilder som de inte har med att göra. Och det finns inget tungt vägande i andra skålen, som att kameror skulle vara brottsförebyggande. Alla studier, utom någon enstaka, pekar på motsatsen just när det gäller våldsbrott och ordningsstörningar.

En av punkterna i avtalet som har debatterats flitigt de senaste veckorna är införandet av de så kallade ”visitationszonerna”, som innebär att polisen får utökade befogenheter att visitera människor och fordon i ett begränsat område och under en begränsad tid. Peter Hellman ser flera risker med visitationszonerna.

Utdrag ur Tidöavtalet: ”Kamerabevakningslagen ses över för att möjliggöra kamerabevakning oftare och på fler platser
Utdrag ur Tidöavtalet: ”Kamerabevakningslagen ses över för att möjliggöra kamerabevakning oftare och på fler platser. Bland annat bör kommunernas rätt att kameraövervaka utan att behöva ansöka om tillstånd utökas. Vidare bör kraven för Polisen att bedriva kamerabevakning sänkas”. Foto: Alexander Zemlianichenko/AP/TT

– Nu ska man alltså få genomsöka alla på en viss plats utan skäl. Ska det även vara till exempel journalister eller advokater som har känsliga handlingar i väskan? Var går gränsen? Jag tror inte att det kommer att missbrukas av polisen på en systematisk nivå. Men däremot är jag helt övertygad om att det kommer att missbrukas av enskilda polismän. Då har vi ett jätteproblem. Dels med förtroendet för myndigheterna i grunden och dels med att det kommer ske en ändamålsglidning till att man inte bara letar efter handgranater.

Inga visitationszoner på Stureplan

Det finns även en risk med att visitationszonerna kommer att drabba de mest utsatta i samhället särskilt hårt, menar han.

– Man kan säga att vi mäter samhället efter hur vi behandlar de mest utsatta. Det finns väldigt många delar i Tidöavtalet som slår mot de utsatta och visitationszonerna är ett av dem. Det är inte så att de här zonerna kommer att vara på Stureplan. Det kommer att vara i förorterna. Det är ett illa dolt försök att komma åt det man inte kan säga för att det låter så fult. Att man vill komma åt gängmedlemmar som är rasifierade ungdomar genom att gå på andra som ser ut som dem och beter sig som dem. Men som inte nödvändigtvis är som dem.

Vad ser du för konsekvenser med det?

– Den stora konsekvensen är att förtroendet för polisen kommer att minska i de här områdena. Jag tror att det finns många poliser som inte vill ha det här heller. Har man en konkret brottsmisstanke så kan man visitera folk redan i dag. Varför ska man visitera folk utan konkret brottsmisstanke? Jag har svårt att se hur man ska kunna skriva det här på ett sätt så det blir förutsägbart och rättssäkert utan att man får visitera alla på en viss plats på en ganska godtycklig grund. Och det är inte rimligt.

Högerpartierna skriver även i avtalet att de vill öka möjligheterna till preventiva tvångsmedel för att ”förhindra och upptäcka brottslig verksamhet i kriminella nätverk.” Peter Hellman tycker att det ”låter som något som är hämtat ur 1984” (klassisk övervakningsdystopi av författaren George Orwell, reds anm).

– Om det är preventivt går det ut på att du inte har en konkret brottsmisstanke. För har du det får du avlyssna och övervaka redan i dag. Här handlar det om att tråla bland oskyldiga människor för att se om de kan begå brott till exempel baserat på vem de umgås med eller annat löst, säger Peter Hellman och fortsätter:

– Det gör att staten i hemlighet kan göra hemliga husrannsakan, hemliga avlyssningar och hemlig dataavläsning på lösa grunder. Det ska inte vara möjligt i en rättsstat. Det kännetecknar verkligen polisstaten. Det kommer också hämma om man tror att det finns någon som avlyssnar dig, det kommer inskränka vad du säger och vad du tänker.

Utdrag ur Tidöavtalet: ”Skyddet för poliser ska stärkas
Utdrag ur Tidöavtalet: ”Skyddet för poliser ska stärkas. Straffen för våld och hot mot tjänsteman skärps, missfirmelse mot tjänsteman ska återinföras. Straffet för blåljussabotage ses i samband med detta över för en sammanhängande straffskala”. Foto: .Johan Nilsson/TT

”Bocka och buga-lagstiftning”

En annan del i avtalet som Peter Hellman ställer sig kritisk till är att ett system med anonyma vittnen ska införas.

– För det första är det svårt att försvara sig mot någon som man inte vet vem det är. Det kan vara någon gammal ovän, ditt ex som vill dig illa eller någon annan som vill få bort dig. Det finns oerhörda incitament att inte tala sanning när man är anonym. Jag tror också att vi kommer gå till att fler vill vittna anonymt och det kommer urholka trovärdigheten i vittnesmålen. Vilket i förlängningen riskerar att personer som borde dömas går fria för att vittnesmålet inte är trovärdigt.

I avtalet nämns även att ”missfirelse mot tjänsteman” ska återinföras för att stärka skyddet mot polisen. Peter Hellman beskriver det som att man inte ska kunna ”kaxa lite mot polisen”.

– Jag köper helt att man vill skydda poliser från att det begås brott mot dem.  Men en väldigt viktig grund i vår demokrati är att man kan säga ifrån och ifrågasätta myndigheter och inte bara bocka och buga med mössan i hand. Det måste kunna finnas utrymme för att kunna säga till en polis: Jag tycker att du gör ett felaktigt ingripande här. Det blir en slags ”bocka och buga-lagstiftning”, som jag tror kommer vara farlig.

Vad ser du att Sverige blir för ett land om allt det här införs?

– Jag tror inte att Sverige kommer att bli en polisstat på grund av enskilda saker i detta. Däremot finns det en skala mellan den ultimata demokratiska rättsstaten och polisstaten. På den skalan kommer vi glida ner mot polisstatshållet. Jag tror att många politiker på högersidan tittar på Danmark och säger att det är ju en rättsstat och det fungerar bra. Det är en rättsstat, men kanske inte den bästa rättsstaten, säger Peter Hellman och avslutar:

– Vi kanske inte behöver vara sämst i klassen när det kommer till rättsstatliga principer. Vi kanske kan lägga oss där Sverige alltid har legat, i den övre delen. Nu går vi bort från det och säger att vittnen ska vara anonyma, polisen ska vara anonyma men vi ska ha mer kontroll över sådana som inte ser ut som oss. Det är väldigt svårt att förena med det Sverige som jag värnar som advokat.

John Stauffer, chefsjurist på Civil rights defenders
John Stauffer, chefsjurist på Civil rights defenders. Foto: Pressbild

Civil rights defenders: ”Mycket oroande”

Även organisationen Civil rights defenders utrycker oro över flera delar i avtalet.

– Som människorättsorganisation är vi mycket oroade över innehållet i Tidöavtalet. Det innehåller en rad åtgärder som tydligt strider mot de normer för mänskliga rättigheter som Sverige är bundet av, säger John Stauffer, chefsjurist på Civil rights defenders.

De ställer sig särskilt kritiska till delarna om visitationszoner och preventiva hemliga tvångsmedel ur ett integritetsperspektiv.

– Dessa är långtgående inskränkningar av individens fri- och rättigheter, till exempel vad gäller oskuldspresumtionen och rätten till privatliv. Visitationszoner aktualiserar även stor risk för diskriminering, så som etnisk- och rasprofilering, säger John Stauffer.

Läs mer:

Kritik mot Tidöavtalet: ”Vi ska förstå att vi inte är svenskar”

Strid mellan regering och fack om tuffare lagar

Reaktioner på Tidöavtalet: Bäddar för öppen rasism

Här är klimatsprickan i den nya regeringen

Radar · Integritet

EU-utskott ratade föreslagna Chat control – reviderad version antogs

En demonstration mot övervakningsförslaget, som i folkmun kallas Chat control, på Mynttorget i Stockholm 2023.

EU-parlamentets utskott för medborgerliga fri- och rättigheter sa nej till det kontroversiella övervakningsförslaget kallat Chat control och antog i stället ett reviderat förslag som innebär att det behöver finnas misstanke om brott och att krypterade chattar kan undantas.

När förslaget till förordningen för CSAM (child sexual abuse material) behandlades i EU-utskottet Libe den 15 november presenterades ett omarbetat förslag för övervakning av digital kommunikation. För förslaget, som till exempel undantar krypterade tjänster, röstade 51 av 54 ledamöter, rapporterar ETC.

EU-parlamentariker Malin Björk (V), som är ledamot i Libe, verkar nöjd med det omarbetade förslaget.

”I parlamentets position tas alla delar om massövervakning bort. Nu hoppas vi att också vi får medlemsländerna med oss”, skriver hon på mikrobloggen X.

Bakom förslaget ligger den svenska EU-kommissionären Ylva Johansson, som menar att lagen behövs för att förhindra spridning av barnpornografi. Men den nya lagen innebär också krav på att företag och molntjänster ska söka igenom alla användares privata kommunikation, vilket mött hård kritik.

I det tidigare förslaget krävdes att alla företag scannar allt, även appar för krypterad kommunikation, i jakten på pedofiler, men efter omarbetningen kan alltså krypterade chattar undantas.

Ylva Johansson har anklagats för att lobbyister fått ha för stort inflytande över förslaget och kritiserats för lämpligheten i att EU-kommissionen bedrev kampanj mot medborgare i länder som är tveksamma till förslaget.

Men ännu är det inte klart. Nu följer förhandlingar mellan EU-parlamentet, EU-kommissionen och ministerrådet. I Sverige kan riksdagspartierna påverka Sveriges position i ministerrådet.

En majoritet av de svenska riksdagspartierna; Socialdemokraterna, Moderaterna, Kristdemokraterna och Liberalerna, var positiva till det tidigare förslaget.

Läs mer:

Beslut om övervakningslagen Chat control skjuts fram

Demonstration mot Chat control: ”Lagen måste stoppas”

Zoom

AI har blivit mainstream – men regleringar dröjer

En ung kvinna demonstrerar i Stockholm för mänskliga rättigheter och mot riskerna som den nya AI-tekniken för med sig.

Diskussionen om säkerhet, integritet och trovärdighet i förhållande till AI får fler forum och kraven på någon form av reglering ökar. Nyligen antogs en resolution om autonoma vapen i FN, och Storbritannien samlade AI-toppar i ett prestigefyllt möte. Men får det några konsekvenser i praktiken?

Den 30 november är det ett år sedan Open AI lanserade Chat GPT som för första gången gav allmänheten en inblick i vad så kallade stora språkmodeller kan åstadkomma. Den snabba utvecklingen på området och chatbotens förmåga att uttrycka sig mänskligt satte också fart på spekulationerna om en AI-apokalyps där den konstgjorda intelligensen gör människan överflödig eller ännu värre, medan den mer optimistiskt lagda sidan såg en värld av oändliga möjligheter öppna sig.

Hur som helst aktualiserade språkmodellernas intåg i det allmänna medvetandet frågor om säkerhet och reglering – både när det kommer till själva utvecklingen, som ju drivs av ett fåtal stora bolag, och när det kommer till användningen, där det inte behövs mycket fantasi för att kunna föreställa sig vad som kan hända om kraftfulla verktyg hamnar i fel händer. Hur AI kan användas för att skapa desinformation har vi redan sett exempel på, och vapentillverkare är heta på gröten när det gäller att utrusta autonoma vapensystem med AI.

AI-panel inom FN ska ge råd

Parallellt med AI-rusningen ökar antalet konflikter i världen – just nu vänds blickarna mot Israel och Palestina, medan Rysslands krig i Ukraina fortgår i medieskugga, liksom stridigheterna i Darfur, Jemen, Etiopien, Syrien…
Frågan är om AI kan vara ett verktyg för att främja fred och säkerhet, eller om riskerna – att utvecklingen bidrar till att elda på splittringar och polarisering– väger över.

Behovet av att diskutera säkerhet i samband med AI resulterade i att EU i juni började förhandla om ”världens första heltäckande AI-lag”, och i juli höll FN sitt första toppmöte på temat. Då beslutades att ett högnivåråd för AI – eller en AI-panel, ungefär som klimatpanelen IPCC – skulle inrättas, vilket skett under hösten.

Organets uppgift är att ge råd och föreslå lösningar på hur AI kan regleras på global internationell nivå. Totalt är 38 experter från olika vetenskapsområden utsedda till att sitta i rådet, och en av dem är Virginia Dignum, professor i ansvarsfull artificiell intelligens vid Institutionen för datavetenskap vid Umeå universitet.

Risker i fokus – fred exkluderas

Just fred är något de flesta internationella organisationer överväger i relation till AI, men sällan uttrycks explicit i de föreskrifter och riktlinjer som läggs fram. Det beror på att försvarsfrågor ofta faller utanför organisationernas mandat, förklarar Virginia Dignum, som också har varit med och utarbetat EU:s AI-strategi. 

– Ta EU:s förslag till AI-förordning, AI-lagen. Det inkluderar inte försvarsfrågor eftersom EU-kommissionen inte har befogenhet att reglera dessa frågor. I de flesta fall är utgångspunkten mänskliga rättigheter. Naturligtvis inkluderar dessa fred, men är som jag säger inte en explicit fråga. Enligt min åsikt är det huvudsakliga sättet AI kan bidra till fred genom att stödja utbildning och förmågan att förstå och ta itu med skillnader mellan människor, samhällen och regioner, skriver hon i ett mail till Syre. 

Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens
Virginia Dignum är en av 38 experter i FN:s nya expertorgan för artificiell intelligens. Foto: Johan Gunséus

Till exempel tror Virginia Dignum att skräddarsydda utbildningsprogram förmedlade av AI skulle kunna hjälpa barn att förstå att våra olikheter inte behöver vara en orsak till konflikter utan är något som kan berika. Fokus i diskussionen ligger dock ofta på risker med AI.

– På andra sidan av spektrumet kan AI användas, och används redan, för att förstärka konflikter genom att skapa falska nyheter och desinformation. AI-drivna system kan också användas både på hela populationer eller individer, dels i sociala medier för desinformation men också i verkligheten, som en del av vapensystem.

Positivt med allmän debatt

Så hur går det då med eventuella regleringar för att hantera dylika risker? Vincent Boulanin, programchef på Sipri, Stockholms internationella fredsforskningsinstitut, leder institutets forskningsprogram om AI-reglering, och han tycker att utvecklingen går åt rätt håll. Det kan man tacka Chat GPT för.

– Plötsligt blev AI supermainstream. Tidigare har de viktiga aktörerna diskuterat frågan i olika nischforum, men nu har det blivit en allmän debatt om det, vilket är väldigt bra, säger Vincent Boulanin.

Det nyinrättade FN-rådet kan väl ses som ett exempel på ett bredare forum men redan före det har frågor som tangerar AI behandlats i samfundet. Den 1 november godkände generalförsamlingen en resolution om autonoma vapensystem, så kallade mördarrobotar. Diskussionen om dessa har tidigare pågått inom ramen för Konventionen om vissa konventionella vapen (CCW) i Genève sedan 2014.

– Problemet där är att alla stater som officiellt är med i konventionen på något sätt har en vetorätt. Så det blir politiskt svårt att komma fram till någonting. Man vattnar ur innehållet ganska mycket för att alla ska kunna stödja det. Det har lett till att en del stater har slutat tro på att experterna i Genève kommer att kunna komma fram till något betydelsefullt. Då fungerar generalförsamlingen på ett annat sätt, där behövs majoritet, konstaterar Vincent Boulanin.

Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri
Vincent Boulanin forskar om AI-reglering på fredsforskningsinstitutet Sipri. Foto: Pressbild Sipri

Humanitär rätt öppen för tolkning

Resolutionen har framför allt en symbolisk betydelse; det har nu officiellt påbörjats en formell diskussion och det blir en specifik punkt på agendan framledes. Det innebär emellertid inte att vi kommer att få se en reglering, utan det första steget är att generalsekreteraren samlar in synpunkter till en rapport. Men reglering av de så kallade mördarrobotarna är något som många efterfrågar, även om användningen och utvecklingen av autonoma vapen begränsas i den nuvarande internationella humanitära rätten.

– Den nuvarande rätten gäller för alla typer av vapen, oavsett hur de byggs. Problemet är väl att de regler som finns nu kan tolkas på olika sätt. Och att sådana vapen är autonoma skapar en del nya tolkningsfrågor som också kan bidra till att stater kan tolka det de måste göra på väldigt olika sätt. Så det är därför vissa stater och organisationer från civilsamhället vill ha en ny reglering som skulle tydliggöra den nuvarande rätten, så att det blir tydligt vad man får och inte får göra i utvecklingen och användningen av sådana vapen. Andra stater, bland annat Ryssland, tycker däremot att den nuvarande rätter är tillräckligt tydligt. Så det är en ganska omstridd och debatterad fråga, förklarar Vincent Boulanin.

Finns det risk för att det blir en global kapprustning med autonoma vapensystem? Eller är det redan det?

– Ja, det är redan det på något sätt. Men jag skulle säga att kapprustningen inte nödvändigtvis handlar om sådana vapen per se. Det är en kapprustning som är mer kopplad till utvecklingen av robotik och AI i allmänhet och en kapprustning som också är kopplad till AI i allmänhet. Staterna är inte så fokuserade på just autonoma vapen, säger Vincent Boulanin och tillägger att det är viktigare för stormakterna att ha tillgång till utbildade människor som kan utveckla smarta algoritmer, och att man har kraftfulla processorer och mycket data för att träna upp avancerade AI-system.

Riskbedömningsmöte på anrik mark

Samtidigt som resolutionen om mördarrobotar var uppe i FN:s generalförsamling hölls ett AI-toppmöte i England närmare bestämt i Bletchley park, där Alan Turing en gång i tiden knäckte koder under andra världskriget. I och med Brexit har Storbritannien inte haft en plats på tåget i EU:s arbete med sitt AI-fördrag, och mötet var enligt Vincent Boulanin ett sätt för landet att hitta sin nisch.

Eftersom det redan förs diskussioner om militär användning av AI landade man i ett fokus på så kallade ”frontier AI”, det vill säga de kraftfullaste och mest avancerade typerna av AI-system som kan användas för allmänt bruk (på tekniska kallat ”highly-capable general purpose AI”) som GPT4. Under mötet diskuterades riskerna med sådana system, och det hela utmynnade i en programförklaring som undertecknats av deltagarna, som var både politiska höjdare, företagsledare och forskare.

– De understryker att det finns både positiva aspekter men också risker med utvecklingen av systemen, och att de olika aktörerna som utvecklar sådana system ska försöka hitta sätt att minska riskerna, säger Vincent Boulanin.

Högdjur på toppmötet om AI i Bletchley park som pågick 1-2 november. Första raden från vänster: Frankrikes minister för ekonomi, industri och digital säkerhet Bruno Le Maire, Tysklands klimat- och ekonomiminister Robert Habeck, EU-kommissionens ordförande Ursula von der Leyen, USA:s vicepresident Kamala Harris, Storbritanniens premiärminister Rishi Sunak, Italiens premiärminister Giorgia Meloni, FN:s generalsekreterare Antonio Guterres och  Australiens försvarsminister Richard Marles. Mitten och bakre raden från vänster: James Manyika, Google, Tino Cuellar, vd för Carnegie endowment for international peace, Amba Kak, AI Now institute, Arthur Mensch, Mistal AI, Adam Selipsky, Amazon web services, Nick Clegg, Meta, Yoshu Bengio, Quebec AI Institute, Dario Amodei, Anthropic, Sam Altman, Open AI, Brad Smith, Microsoft, Mustafa Suleyman, Inflection AI, Alondra Nelson, tidigare tillförordnad direktör för Vita husets kontor för vetenskap- och teknikpolicies, Demis Hassabis, Google Deep mind, Eric Schmidt, Schmidt Futures, Ian Hogarth, ordförande för Storbritanniens arbetsgrupp för frontier AI och Reid Hoffman, Inflection AI. Foto: Toby Melville/AP/TT Foto:
Godset Bletchley park, England, numera museum och arena för AI summit 2023. Foto: Matt Dunham/AP/TT Foto:
Öppna i helskärm
1 / 2

Det finns två typer av risker som man diskuterar, och de ställs ofta emot varandra, fortsätter han.

– Den ena är kortsiktiga risker. Hur till exempel nuvarande system som Chat GPT kan missbrukas av olika aktörer som vill genomföra påverkansoperationer. Sådana system är inte pålitliga då de kan innehålla felaktig information som kan ha negativa konsekvenser på många nivåer. Eftersom man har tränat upp dem med stora mängder information som tagits från internet kan de återspela eller förstärka vissa fenomen i samhället som är problematiska, som rasism. Det finns också en oro kring hur de skulle kunna påverka arbetsmarknaden, att det kan vara sådana system som skulle kunna ersätta många jobb och det skulle bli disruptivt.

Maktansamling och intressekonflikter

– Den andra typen är långsiktiga risker, som är kopplade till vad man kallar för artificiell generell intelligens (AGI) eller superintelligens. Vissa tror att system som GPT4 är en tidig form av AGI. Om de blir superintelligenta och inte programmeras på ett sätt som är i enlighet med våra mänskliga värderingar, då finns risken att de gör saker som skulle vara problematiska för mänskligheten. Vissa påstår därför att utvecklingen av avancerade AI-system utgör en existentiell risk. Den bedömningen är dock väldigt debatterad, och många AI-experter tycker att det är lite av en distraktion, att man borde fokusera på att lösa kortsiktiga risker istället. Jag tänker själv att det är viktigt att tänka på både och, konkluderar Vincent Boulanin.

Maktkoncentrationen inom AI ses av både forskare och aktivister som problematisk, något som bland annat DW nyligen rapporterat om. Det finns en fara i att de stora företag som utvecklar AI får för stort inflytande på regleringen. Precis som med all form av reglering finns olika intressen som ställs mot varandra, konstaterar Vincent Boulanin.

– Det är inget konstigt att privata aktörer, som är de stora aktörerna, inte vill att regleringen ska hindra dem för mycket. Det de föreslår att man fokuserar på är säkerhetsaspekter som inte är så problematiska för dem. Det finns olika kulturer också bland stater kring hur man ska reglera och på vilket sätt, hur sträng man ska vara mot den privata sektorn. Vi ser det tydligt i förhandlingen som pågår på EU-nivå för en EU-reglering om AI. Det är ett ganska komplicerat politiskt spel.

Viktigast ackumulera kunskap

Det finns också olika intressen inom staten, fortsätter han.

– Vissa vill se till att man skyddar mänskliga rättigheter, bland annat människors rätt till privatliv, medan andra tycker det är viktigt att man av säkerhetsskäl ska ge möjligheter för polis och militär att kunna bevaka terrorister och gängkriminella och så vidare.

Det viktigaste just nu är att prata om AI och bygga upp kunskap hos beslutsfattarna, så att de vet vad de pratar om, menar Vincent Boulanin. På grund av ämnets tekniska karaktär är det inte helt enkelt, men den senaste händelseutvecklingen på området har gjort att det finns en större grundkunskap hos allmänheten.

– Jag tror de flesta nu ungefär förstår vad Chat GPT är och var det kommer ifrån. Maskininlärning är inte längre ett okänt begrepp för folk. De olika forumen, som FN:s AI-råd, kommer också bidra till ökad kunskap och att fler experter kan uttala sig om ämnet och ge konstruktiv input till beslutsfattarna. Men det är en ganska lång process.

Lär mer:

Framgång i FN för kampen mot mördarrobotarna

Forskare: AI-larmen varnar om fel saker

Radar · Integritet

Hemlig dataavläsning – kräver lagändring

Enligt Åklagarmyndigheten användes hemlig dataavläsning mot 365 personer under 2022.

Hemlig dataavläsning ses som ett av polisens vassaste verktyg i brottsbekämpningen.Metoden föreslås bli permanent och till viss del utvidgas, precis som kritikerna varnade för.

Polisens fick 2020 möjlighet att genom tekniska hjälpmedel ta sig in i misstänktas mobiltelefoner, datorer och mejlkonton.

På grund av att metoden innebär en så pass stor integritetskränkning, så gjordes lagen om hemlig dataavläsning tillfällig fram till sista mars 2025.

Nu har hemlig dataavläsning utvärderats. Utredaren, hovrättspresident Ylva Norling Jönsson, anser att lagen bör permanentas, eftersom verktyget är polisens vassaste hemliga tvångsmedel.

– Man kan komma åt krypterad information som inte är åtkomlig genom andra hemliga tvångsmedel, säger hon.

Norling Jönsson pekar på att hemlig dataavläsning använts i mer än dubbelt så stor omfattning än vad man bedömde skulle bli fallet när lagen infördes.

– Det tycker jag ändå tyder på att den är ganska vass, säger hon.

Slå på kameran

Enligt Åklagarmyndigheten användes hemlig dataavläsning mot 365 personer under 2022. I 23 procent av ärendena bidrog de inhämtade uppgifterna till att den misstänkte kunde åtalas.

Utredningen föreslår nu en viss utökning av tillämpningsområdet för hemlig dataavläsning.

Polisen har efterfrågat en möjlighet att kunna slå på en mobiltelefons eller dators kamera för att även kunna utreda vem som ”skäligen” kan misstänkas för ett brott. Det föreslås nu bli möjligt.

– Det kan vara viktigt om man till exempel vet att de begås allvarlig brottslighet från en mobiltelefon eller dator, men inte vet vem som använder datorn, då kan det vara viktigt att kunna slå på kamerorna, säger Norling Jönsson.

Det föreslås också förenklade bestämmelser som gör att det blir lättare att utfärda tillstånd till polisen att få använda sig av hemlig dataavläsning.

Dessutom ska all lagrad information på till exempel en dator få hämtas in under den tiden hemlig dataavläsning pågår, oavsett hur länge sedan det var som informationen skapades.

Ökad risk

För att stärka integritetsskyddet föreslås tydliga regler om att information och uppgifter som samlats in, men inte får granskas och bearbetas, ska förstöras. Den hemliga dataavläsningen ska även dokumenteras bättre, vilket underlättar kontroller av att allt gått rätt till.

Utredaren medger att förslagen innebär en ökad risk för den personliga integriteten, men anser att de ändå är proportionerliga i förhållande till vad man uppnår i brottsbekämpningen.

Norling Jönsson påpekar att staten visserligen har en skyldighet att se till att integriteten inte kränks mer än absolut nödvändigt när brott utreds. Men hon understryker att staten också har en skyldighet att skydda individer från den integritetskränkning det innebär att bli utsatt för ett brott av andra.

Justitieminister Gunnar Strömmer (M) bedömer att de samlade förslagen kommer att leda till att hemlig dataavläsning blir ännu mer rättssäker än i dag.

– Min utgångspunkt är att den här lagstiftningen ska permanentas på det sätt utredaren föreslår, säger han.