Samma teknik som gör industriprocesser och lagerhantering snabbare, mer effektiva och säkrare väntas inom kort få sitt stora genombrott inom ett helt annat område som också kräver snabbhet och effektivitet, men snarare träffsäkerhet än säkerhet.
Drönare som helt eller delvis styrs av artificiell intelligens har blivit ett viktigt inslag i luften över slagfältet i östra Ukraina och allt talar för att liknande teknik kommer att ta allt större plats i framtida krig, även på marken och till sjöss.
Ett exempel på teknik som används i Ukraina är Palantir Skykit, ett system för spaning och informationsinhämtning som består av en låda med AI för analys av underrättelseuppgifter inhämtade av en tillhörande drönare som på egen hand kan navigera över stora områden. Detta enligt den franska tidningen L’Express, men uppgiften är som så ofta i krig svår att verifiera.
Vid sidan av kommersiella produkter använder den ukrainska sidan även hemmabyggen, bland annat modifierade konsumentdrönare, för att identifiera och förstöra mål och i sociala medier finns videoklipp på dataspelskonsoler som har används för att fjärrstyra vapen.
Men ska frågor om liv och död avgöras av ettor och nollor? Den frågan ställer Campaign to Stop Killer Robots i filmen “Immoral Code”.
FN, som håller sig till mer neutral terminologi, kallar dem inte mördarrobotar, utan Lethal Autonomous Weapons Systems (LAWS, dödliga autonoma vapensystem) och generalsekreteraren António Guterres kräver ett det senast 2026 finns ett förbud mot sådana samt en reglering av alla andra typer av autonoma vapensystem.
Samtidigt är autonoma vapen inget nytt i en värld där teknikutvecklingen accelererar. Truppminor, som ju är oförmögna att skilja mellan vänner och fiender när de exploderar utan att någon operatör är närvarande, användes i Kina redan för hundratals år sedan. Då var sensorn en snubbeltråd. I dag finns en uppsjö av betydligt mer sofistikerade sensorer, men principen är densamma.
Vapentillverkare följer förstås debatten och invändningarna mot autonoma vapensystem och i podcasten Zero Pressure som är ett samarbete mellan Saab och Imperial College London avhandlades i somras vem som bär ansvaret när autonoma vapensystem begår misstag.
– Vi måste undvika narrativet att det är svårt att avgöra vem som bär ansvaret bara för att ett system är autonomt. Det är det inte — någon beslutar att använda ett autonomt system som någon annan har byggt. Systemet i sig är bara en del i ett ekosystem av beslut och produktion, säger Virginia Dignum, professor i ansvarsfull AI i podcastavsnittet.
Hon får dock mothugg av professor Denise Garcia, som forskar om internationell rätt och dödlig robotik vid Northeastern University i Boston, och som säger att autonoma vapensystem kan leda till att de som hanterar dem inte ser konsekvenserna med egna ögon.
– Det finns farhågor om att autonoma vapen inte kan skilja mellan civila och kombattanter, till exempel vid användning av drönare som sänker tröskeln för att gå i krig och sätter mänskliga rättigheter i fara.”
Samma oro uttrycks av en tidigare brittisk officer som i filmen “Immoral Code”befarar att den tekniska utvecklingen kan leda till att krig — och dess offer — blir något som folk tar med en axelryckning.
– Krigföring, och jag har varit inblandad i det,känns invärtes,är otäckt och hemskt och människor dör och det är blod och det skriks och det är hemskt. Men att fjärma sig från det och låtsas att det inte händer är mycket, mycket farligt eftersom folk istället för att inse hur hemskt krig är /…/i stället tänker ”Hmm, det är inte så illa.”, säger amiral Alan West som bland annat deltog i Falklandskriget där hans fartyg sänktes.
Samtidigt innebär den snabba teknikutvecklingen också andra utmaningar, vilket FOI konstaterade i sitt underlag inför det försvarspolitiska inriktningsbeslutet.
“Till skillnad från kunskap om avancerade vapenteknologier, är ingenjörskunskap inom områden som robotik, programmering och farkostteknik vitt spridd över hela världen, och kan inte kontrolleras. Automatisering är således inte en kontrollerbar teknologi, och idag används fjärrstyrda, mer eller mindre automatiska system, av icke-statliga aktörer i flera konflikter.”
Med andra ord: Även om kraven på lagstiftning och förbud kring autonoma vapensystem hörsammas innebär det inte att risken för att att sådana kommer till användning försvinner — tekniken och kunskapen är allmängods som gerillagrupper och terrorister också kan använda.
Men det finns hopp, även om terrorister skaffar sig autonoma vapen. Möjligheten att överleva hänger på vem som har övertaget i kapprustningen mellan vapen och motmedel.
Ett sätt att stoppa motståndaren är genom att “förgifta” den träningsdata som används för att lära autonoma vapensystem att se skillnad mål och civila, konstaterar FOI i en rapport som släpptes i augusti.
Detta kan exempelvis göras genom att smyga in falsk data i motståndarens AI.
– Träningsdata kan manipuleras, eller förgiftas, med förhoppningen att motståndaren ska använda den. Vi testade att förgifta träningsbilder så att vissa stridsvagnar felaktigt klassificerades som bilar, säger Björn Pelzer, forskare på FOI:s avdelning Cyberförsvar och ledningsteknik och en av författarna till rapporten i en pressrelease.
På samma sätt skulle man, åtminstone i teorin, kunna få en terrorists AI-styrda drönare att felaktigt identifiera en skogsdunge som en folksamling och släppa sin dödliga last på ett ofarligt ställe.
Samtidigt måste man veta varifrån träningsdatan kommer och vilken AI motståndaren använder, vilket är lättare sagt än gjort.
Men kan man inte förgifta motståndarens träningsdata finns en annan metod som FOI:s forskare testade genom att låta två virtuella robotar slåss.
– En ska försöka ta sig förbi den andra genom att knuffas. Genom att låta den ena roboten lägga sig på marken och vifta med armarna lyckades vi förvirra den andra roboten så mycket att den inte visste vad den skulle göra och inte tog sig förbi, säger Pelzer och lägger till att metoden fungerar förvånansvärt bra på AI-modeller trots att människor inte skulle låta sig bli lurade.