Close Menu
    Facebook X (Twitter) Instagram
    Tidningen Automation

    Guldhanden 2025

    • Hem
    • Om Automation
    • Företagens Webbsida
    • Kontakta oss
    • Prenumerera
    • Annonsera
    • Mässor & Event
    • Tipsa oss
    Tidningen Automation

    Guldhanden
    2025

    Hem » Automation på liv och död
    Nyheter

    Automation på liv och död

    2023-11-27
    Dela
    E-post Facebook LinkedIn Twitter Tumblr Reddit

    Samma teknik som gör industriprocesser och lagerhantering snabbare, mer effektiva och säkrare väntas inom kort få sitt stora genombrott inom ett helt annat område som också kräver snabbhet och effektivitet, men snarare träffsäkerhet än säkerhet.

    Drönare som helt eller delvis styrs av artificiell intelligens har blivit ett viktigt inslag i luften över slagfältet i östra Ukraina och allt talar för att liknande teknik kommer att ta allt större plats i framtida krig, även på marken och till sjöss.

    Ett exempel på teknik som används i Ukraina är Palantir Skykit, ett system för spaning  och informationsinhämtning som består av en låda med AI för analys av underrättelseuppgifter inhämtade av en tillhörande drönare som på egen hand kan navigera över stora områden. Detta enligt den franska tidningen L’Express, men uppgiften är som så ofta i krig svår att verifiera.

    Vid sidan av kommersiella produkter använder den ukrainska sidan även hemmabyggen, bland annat modifierade konsumentdrönare, för att identifiera och förstöra mål och i sociala medier finns videoklipp på dataspelskonsoler som har används för att fjärrstyra vapen.

    Men ska frågor om liv och död avgöras av ettor och nollor? Den frågan ställer Campaign to Stop Killer Robots i filmen “Immoral Code”.

    FN, som håller sig till mer neutral terminologi, kallar dem inte mördarrobotar, utan Lethal Autonomous Weapons Systems (LAWS, dödliga autonoma vapensystem) och generalsekreteraren António Guterres kräver ett det senast 2026 finns ett förbud mot sådana samt en reglering av alla andra typer av autonoma vapensystem.

    Samtidigt är autonoma vapen inget nytt i en värld där teknikutvecklingen accelererar. Truppminor, som ju är oförmögna att skilja mellan vänner och fiender när de exploderar utan att någon operatör är närvarande, användes i Kina redan för hundratals år sedan. Då var sensorn en snubbeltråd. I dag finns en uppsjö av betydligt mer sofistikerade sensorer, men principen är densamma.

    Vapentillverkare följer förstås debatten och invändningarna mot autonoma vapensystem och i podcasten Zero Pressure som är ett samarbete mellan Saab och Imperial College London avhandlades i somras vem som bär ansvaret när autonoma vapensystem begår misstag.

    – Vi måste undvika narrativet att det är svårt att avgöra vem som bär ansvaret bara för att ett system är autonomt. Det är det inte — någon beslutar att använda ett autonomt system som någon annan har byggt. Systemet i sig är bara en del i ett ekosystem av beslut och produktion, säger Virginia Dignum, professor i ansvarsfull AI i podcastavsnittet.

    Virginia Dignum, professor i ansvarsfull AI
    Virginia Dignum, professor i ansvarsfull AI

    Hon får dock mothugg av professor Denise Garcia, som forskar om internationell rätt och dödlig robotik vid Northeastern University i Boston, och som säger att autonoma vapensystem kan leda till att de som hanterar dem inte ser konsekvenserna med egna ögon.

    – Det finns farhågor om att autonoma vapen inte kan skilja mellan civila och kombattanter, till exempel vid användning av drönare som sänker tröskeln för att gå i krig och sätter mänskliga rättigheter i fara.”

    Samma oro uttrycks av en tidigare brittisk officer som i filmen “Immoral Code”befarar att den tekniska utvecklingen kan leda till att krig — och dess offer — blir något som folk tar med en axelryckning.

    – Krigföring, och jag har varit inblandad i det,känns invärtes,är otäckt och hemskt och människor dör och det är blod och det skriks och det är hemskt. Men att fjärma sig från det och låtsas att det inte händer är mycket, mycket farligt eftersom folk istället för att inse hur hemskt krig är /…/i stället tänker ”Hmm, det är inte så illa.”, säger amiral Alan West som bland annat deltog i Falklandskriget där hans fartyg sänktes.

    Samtidigt innebär den snabba teknikutvecklingen också andra utmaningar, vilket FOI konstaterade i sitt underlag inför det  försvarspolitiska inriktningsbeslutet.

    “Till skillnad från kunskap om avancerade vapenteknologier, är ingenjörskunskap inom områden som robotik, programmering och farkostteknik vitt spridd över hela världen, och kan inte kontrolleras. Automatisering är således inte en kontrollerbar teknologi, och idag används fjärrstyrda, mer eller mindre automatiska system, av icke-statliga aktörer i flera konflikter.”

    Med andra ord: Även om kraven på lagstiftning och förbud kring autonoma vapensystem hörsammas innebär det inte att risken för att att sådana kommer till användning försvinner — tekniken och kunskapen är allmängods som gerillagrupper och terrorister också kan använda.

    Men det finns hopp, även om terrorister skaffar sig autonoma vapen. Möjligheten att överleva hänger på vem som har övertaget i kapprustningen mellan vapen och motmedel.

    Ett sätt att stoppa motståndaren är genom att “förgifta” den träningsdata som används för att lära autonoma vapensystem att se skillnad mål och civila, konstaterar FOI i en rapport som släpptes i augusti.

    Detta kan exempelvis göras genom att smyga in falsk data i motståndarens AI.

    – Träningsdata kan manipuleras, eller förgiftas, med förhoppningen att motståndaren ska använda den. Vi testade att förgifta träningsbilder så att vissa stridsvagnar felaktigt klassificerades som bilar, säger Björn Pelzer, forskare på FOI:s avdelning Cyberförsvar och ledningsteknik och en av författarna till rapporten i en pressrelease.

    På samma sätt skulle man, åtminstone i teorin, kunna få en terrorists AI-styrda drönare att felaktigt identifiera en skogsdunge som en folksamling och släppa sin dödliga last på ett ofarligt ställe.

    Samtidigt måste man veta varifrån träningsdatan kommer och vilken AI motståndaren använder, vilket är lättare sagt än gjort.

    Men kan man inte förgifta motståndarens träningsdata finns en annan metod som FOI:s forskare testade genom att låta två virtuella robotar slåss.

    – En ska försöka ta sig förbi den andra genom att knuffas. Genom att låta den ena roboten lägga sig på marken och vifta med armarna lyckades vi förvirra den andra roboten så mycket att den inte visste vad den skulle göra och inte tog sig förbi, säger Pelzer och lägger till att metoden fungerar förvånansvärt bra på AI-modeller trots att människor inte skulle låta sig bli lurade.

    (Visited 155 times, 1 visits today)
    Föregående inläggTillverkningsindustrin tveksamma till AI
    Nästa inlägg Vapensystem i luften, till sjöss – och snart på marken
    Ekstrand Patrick
    • Webbplats

    Relaterade artiklar

    Nyheter Automation2025-06-23

    Byggstart för ABB:s Robotics Campus – nyckelsatsning på svensk automation och AI-robotik

    Nyheter Automation2025-06-19

    Sverige växlar upp för AI – datacenterexpansion i norr

    Nyheter Automation2025-06-18

    Hexagon tar klivet in i humanoidrobotik – lanserar AEON för industriell autonomi

    Nyheter Mary Örnborg2025-06-17

    “Det känns helt fantastiskt” – Gabor Szabo om Guldhanden 2025

    Lämna svar Avbryt svar

    Du måste vara inloggad för att publicera en kommentar.

    Verkstadstidningen Förlags AB

    Co / Automation

    Box 2082

    169 02 SOLNA

    Vx 08-514 934 00

    automation@vtf.se

    Instagram LinkedIn
    Få nyheter i mailen
      © 2025 Tidningen Automation ---

      Skriv ovan och tryck Enter för att söka.

      Hantera Cookies

      För att ge en bra upplevelse använder vi teknik som cookies för att lagra enhetsinformation.  Om du inte samtycker eller om du återkallar ditt samtycke kan detta påverka vissa funktioner negativt.

      Funktionell Alltid aktiv
      Den tekniska lagringen eller åtkomsten är absolut nödvändig för det legitima syftet att möjliggöra användningen av en specifik tjänst som uttryckligen begärts av abonnenten eller användaren, eller för det enda syftet att utföra överföring av en kommunikation över ett elektroniskt kommunikationsnät.
      Alternativ
      Den tekniska lagringen eller åtkomsten är nödvändig för det legitima syftet att lagra inställningar som inte efterfrågas av abonnenten eller användaren.
      Statistik
      Den tekniska lagringen eller åtkomsten som används uteslutande för statistiska ändamål. Den tekniska lagringen eller åtkomsten som används uteslutande för anonyma statistiska ändamål. Utan en stämningsansökan, frivillig efterlevnad från din Internetleverantörs sida, eller ytterligare register från en tredje part, kan information som lagras eller hämtas endast för detta ändamål vanligtvis inte användas för att identifiera dig.
      Marknadsföring
      Den tekniska lagringen eller åtkomsten krävs för att skapa användarprofiler för att skicka reklam, eller för att spåra användaren på en webbplats eller över flera webbplatser för liknande marknadsföringsändamål.
      Hantera alternativ Hantera tjänster Hantera {vendor_count}-leverantörer Läs mer om dessa syften
      Visa preferenser
      {title} {title} {title}