Open AI har inlett ett samarbete med försvarsteknikföretaget Anduril industries, som primärt ska handla om att utveckla tekniker för försvar mot drönare. Enligt AI-forskaren Peter Bovet Emanuel är samarbetet inte en ny företeelse utan ett i raden där försvarsindustrier köper in kunskap kring nyttjandet av artificiell intelligens.
Beskedet om samarbetet med Anduril, som tillverkar drönare, kom den 4 december, mindre än ett år efter att Open AI uppgett att tekniken inte skulle användas för utveckling av vapen eller militära ändamål. Den 10 januari 2024 mildrades riktlinjerna till att modellerna inte ska användas för att skada.
Sam Altman, vd för Open AI, uppger att utvecklingen ”ska gynna så många som möjligt och stödja USA-ledda insatser för att upprätthålla demokratiska värderingar”.
– Vårt partnerskap med Anduril kommer att hjälpa till att säkerställa att vår teknik skyddar amerikansk militär personal och hjälpa den nationella säkerhetsgemenskapen att hålla våra medborgare säkra och fria, uppgav han i ett uttalande.
”Svårt att peka ut ansvar”
Peter Bovet Emanuel, överstelöjtnant på Försvarshögskolan, forskar på AI och dess inverkan på framtida krigföring.
Ser du några risker med att ökat samarbete mellan AI- och vapenföretag?
– Det finns alltid risker med att koppla samman AI med vapenföretag och utveckling av AI-förstärkta vapen, sensorer och ledningssystem. Ansvarsfrågan är fortsatt utmanande. AI erbjuder möjligheter att effektivare koppla samman fler vapen och sensorer till större system. Det leder dock till en ökad komplexitet. Forskare som arbetar med etiska och legala aspekter hävdar att det är svårt att generellt peka ut ansvar, säger han.
Ansvarsfrågan handlar i grunden om att någon behöver hållas ansvarig om något går fel. FN:s generalsekreterare António Guterres vill senast 2026 ha ett bindande avtal, som ska begränsa militär användning av AI och förbjuda användning av autonoma vapen utan mänsklig övervakning.
– Ansvarsfrågan behöver lösas, men begrepp såsom ”utan mänsklig övervakning” eller ”meningsfull mänsklig kontroll” har visat sig vara svåra att tydligt definiera. Min bedömning är att fler behöver en ökad kunskap inom området för att kunna fatta bra beslut kring användningen av AI i krigföring. Samtidigt är det är svårt att ha färdiga svar, då utvecklingen inom området accelererar, säger Peter Bovet Emanuel.
Flera AI-tillverkare svängt
Att sälja militär AI har blivit en ”ny guldrusch”, rapporterade Svenska Dagbladet i november. Först ut 2022 var Palantir, kända för att har erbjudit sina system för databehandling till Ukraina. Senare har bland andra Google följt i spåren, där anställda har protesterat mot försvarsprojekt.
– Dels handlar det om en opinionsförändring sedan Ukrainakriget. Det ses alltmer som ett moraliskt kall att tjäna försvaret, även inom bolagsstyrelser. Dels så satsas det väldigt mycket pengar på det här, och det kommer troligtvis bli ännu mer framöver, säger Martin Hagström, forskningsledare på Totalförsvarets forskningsinstitut, till Svenska Dagbladet.
Tidigare i år uppgav SVT nyheter att ukrainska förband använder drönare som med hjälp av artificiell intelligens kan känna igen ryska militärfordon.
– En överhängande risk är att utvecklingen går för fort, och där flera intressenter har en känsla av tidsnöd. Det finns ett narrativ av att den som först har lösningar på plats vinner, vilket kan göra att företag, såväl som stater och militära organisationer, implementerar AI-förstärkta vapen, sensorer och ledningssystem i en alltför snabb takt utan erforderlig eftertanke, säger Peter Bovet Emanuel.