Det är viktigt att diskutera principiella frågor om hur autonoma vapen ska användas på ett så etiskt sätt som möjligt. Men vi måste också vara realistiska, skriver Peteris Timofejevs.
Hur länge dröjer det tills smarta robotar blir en del av vår vardag? För tio år sedan hade svaret blivit att det inte skulle ske under vår livstid. Men robotar eller dataprogram med artificiell intelligens (AI) är verklighet i Sverige redan nu.
AI innebär att robotar eller dataprogram är programmerade så att de kan lära sig och utvecklas på egen hand. Intresset för AI är stort bland annat i sjuk- och äldrevårdssektor, men även inom transport och utbildning. I dag ser vi också en diskussion i FN och EU om huruvida man ska använda sig av AI inom försvarsområdet.
Vissa oroar sig för att artificiellt intelligenta robotar (”autonoma dödliga vapensystem”) ska användas i krigföring. Miljöpartiets och Vänsterpartiets representanter har ställt frågor och skrivit motioner både i den svenska riksdagen och i Europaparlamentet för att förbjuda sådana autonoma vapen. Dels handlar motståndet om legitima frågor om ansvarsutkrävande. Vem ska hållas ansvarig om autonoma robotar av effektivitetsskäl följer en utveckling som vi, människor, inte hade gjort? Dels handlar det om oron för att dessa vapen kan hamna i orätta händer. Men det handlar också om att tröskeln till konflikt kan bli för låg, ifall stater inte riskerar skicka sina soldater i krig.
Denna diskussion kommer dock för sent. En del vapen är redan åtminstone delvis autonoma. Till exempel är land- och sjöminor strikt sett autonoma vapen, även om de är trubbiga och relativt primitiva. Men en del missiler är redan utrustade med mer precisa, autonoma orienteringssystem. Det handlar alltså inte om några Terminatorliknande "mördarrobotar”.
Det är viktigt att diskutera principiella frågor om hur autonoma vapen ska användas på ett så etiskt sätt som möjligt. Men vi måste också vara realistiska. För det första är ansvarsfrågan överdriven. Man kan utkräva ansvar av dem som beställt, tillverkat, installerat och godkänt användning av autonoma vapen. Dessa vapen programmeras och kalibreras. Bakom varje autonom försvarsrobot står alltså människor som visst kan och ska hållas ansvariga för resultatet.
För det andra arbetar vissa stater – bland annat Ryssland – redan nu med att utveckla AI i militärt syfte. Det går inte att vrida utvecklingen bakåt. Om Sverige avstår från autonoma vapen, gör vi oss själva sårbara. Det minsta vi kan göra är åtminstone att öka vår kunskap om dessa vapen, för att försvara vårt land.
För det tredje är det viktigt att vi, ansvarsfulla västliga demokratier, utvecklar autonoma vapen. På det sättet kan vi försvara både oss själva och resten av världen mot ansvarslösa stater och icke-statliga aktörer som har aggressiva avsikter mot oss.
Vi har därför inte råd att förbjuda autonoma vapen. Självklart ska vi delta i de internationella diskussionerna, men också utforska och utveckla autonoma vapen för att försvara Sverige.
”Om du vill fred, rusta dig för krig” lyder ett gammalt latinskt ordspråk. I vårt moderna samhälle innebär det också att man ska satsa på forskning om autonoma vapen.
Peteris Timofejevs
Elev på SNB:s skribentskola