Möjligheterna med AI i militär teknik

Publicerad: 2024-08-30 08:36

Mikael Grev, grundare och VD vid försvarsföretaget Avioniq AB med en bakgrund som stridspilot, utforskar i två krönikor för FSN Perspektiv de komplexa utmaningar och möjligheter som AI står inför inom militär teknik. I denna andra krönika fördjupar sig Mikael i möjligheterna med att implementera AI i luftstrid.

Annons

Efter att ha diskuterat de generella utmaningarna med AI i militära sammanhang, låt oss nu dyka djupare in i hur dessa utmaningar konkret kan te sig, med fokus på luftstrid. Här blir gränsdragningen mellan människa och maskin särskilt påtaglig, och vi måste förstå varför ett samarbete mellan dessa två är kritiskt för framgång.

För att ta ett konkret exempel så är det förhållandevis enkelt att skapa ett AI som är oerhört effektivt, nästan oslagbart, för att bedriva luftstrid om systemet får göra som det vill och det bara finns kända, tydliga regler. Men det blir fort väldigt komplext, och kräver stor domänkännedom från piloter, om man ska göra ett AI som bedriver luftstrid tillsammans med operatören, där den senare kanske har förutsättningar som AI inte känner till.

Ett enklare exempel är att det är förhållandevis enkelt att skapa ett AI som spelar schack otroligt bra, men svårt att göra ett AI som i samarbete med en människa ska spela lika bra. Roten till båda problemen är gränsdragningar, där människa och maskin måste förstå varandra för att kunna arbeta tillsammans. Ett AI kan idag inte, och kommer förmodligen aldrig kunna – annat än i vissa specifika fall – effektivt förklara varför det gör på ett visst sätt, med möjlighet för operatören att ändra vissa inte förprogrammerade prioriteringar och förutsättningar.

AI-företagens lösning på ovan är att tillgängliggöra mer information för AI-träningen, helt enkelt för att det är det enda som går att göra utan att göra de svåra gränsdragningarna som kräver de domänexperter som ofta inte finns tillgängliga. I vissa domäner så fungerar detta, till exempel sensor- och bildanalys, som har en naturlig gränsdragning mot människan och övriga system. För andra områden, som luftstrid – där skeendet är en kontinuerlig avvägning mellan olika lösningar – blir det betydligt svårare.

Annons

För att kunna ersätta en stridspilot, även under vissa stridssekvenser, så måste AI matas med i princip hela pilotutbildningen (har föreslagits...), riskvärderingar (svåra att kvantifiera) och alla i operationen ingående dokument (ständigt föränderliga) för att AI ska kunna generera en lösning som inte kräver mänsklig förståelse. Under överskådlig framtid kommer därför operatören-i-loopen behöva förstå och kontinuerligt kunna korrigera vad som händer, med hjälp av sin erfarenhet och all den ”mjuka” information som förändras under en insats.

Ovan beskrivs två av betydligt fler egenskaper AI har som blir problematiska i vissa militära sammanhang. Konsekvenserna om ChatGPT generar ett felaktigt svar är hanterbara men på militära produkter ställer vi naturligt högre krav. Detta gäller speciellt när det handlar om flygarenan med sina snabba förlopp som inte möjliggör manuell kontroll av svaren från AI och där felsteg ofta får stora konsekvenser. Det betyder inte att vi inte kan använda AI för den militära flygarenan, det ställer bara högre krav och kräver hantering av problemen tidigt i utvecklingen. Det är lätt att bli förförd av möjligheterna med AI och extrapolera det för långt.

På Avioniq har vi använt AI för luftstrid sedan 2016, men vi har redan från början varit medvetna om dess begräsningar i luftstrid och inte byggt in oss i problemen beskrivna ovan. Låt oss ta dem en i taget då lösningen är av helt olika karaktär.

För att hantera problemet med att svaren som AI levererar är svåra att verifiera, då de finns så många möjligheter av vad som är rätt och lösningsrummet är så komplext, så har vi valt att för dessa lösningsområden enbart använda oss av något vi benämner verifierbar AI.

Annons

Principiellt innebär det att vi gör mindre, enklare AI där in- och utdata är väldefinierad och direkt verifierbar med en simulering av hela skeendet. Dessa AI kräver fortfarande enorm datorkraft att skapa, med miljarder simuleringar per AI, men strukturen är optimerad för tydlighet och verifierbarhet.

I stället för att skapa ett AI som ger operatören en kurs eller flygbana att styra för att vinna striden, vilket är ett svårdefinierat problem då det ingår så många delar i ”vinna striden”, så ställer vi enklare frågor med tydligare och väldefinierade svar. Exempelvis: ”Hur många g (hur kraftigt) måste flygplanet svänga undan med för att undvika den inkommande missilen om den är av typen AA 10-C?”.

Skillnaden är att här går det att simulera fram det exakta svaret, givet att man har en modell av missilen, och verifiera att AI levererar rätt svar, vilket är en enkel siffra mellan noll och nio. Tekniskt brukar man säga att man kan göra en uttömmande statistisk verifiering av resultaten för samtliga kombinationer av in-parametrar med hjälp av deterministiska simuleringar.

Verifierbar AI levererar inte hela svaret som ett allomfattande AI gör, vilket är själva meningen, eftersom det löser även det andra problemet, gränsdragningen mellan operatör och AI. I stället för att ett AI ska leverera hela svaret på problemet, vilket operatören har svårt att förstå och därmed förändra eller godkänna, så levererar verifierbar AI lösningar på exakt de frågor som operatören ställer sig. Att veta hur många g flygplanet precis behöver svänga undan med är en viktig parameter i luftstrid eftersom piloten inte vill svänga för lite (man blir träffad) eller för mycket (man blir passiv och tappar fart).

Annons

För att ge operatören samma hjälp som ett allomfattande AI kan leverera så producerar vi i stället flera verifierbara AI som visualiseras för operatören på olika sätt beroende på plattform och kund. Till exempel: ”När kan jag tidigast skjuta för att träffa, även om motståndaren svänger bort, men innan motståndaren kan släppa en bomb på mitt skyddsobjekt”. Varje av dessa AI kan sedan kombineras och införas i steg i stridsflyg, luftvärnssystem och C2-system utan att byta ut människan mot en maskin. Detta resulterar i iterativ utveckling över tid, utan den Big Bang-problematik som allomfattande AI innebär.

På Avioniq säger vi att vi augmenterar – inte ersätter – operatören genom att leverera svar på de relevanta frågor som ingår beslutsunderlaget. Operatörens beslut blir på en högre abstraktionsnivå, där människan fortfarande excellerar, och avlastas därmed från de kognitivt betungande delarna i luftstrid som en maskin gör bättre och snabbare. Vilka verifierbara AI som löser operatörens problem är enbart något som en domänexpert, till exempel en stridspilot eller flygstridsledare, med teknisk bakgrund kan lista ut. Det är därför vi anser att företag som kombinerar AI-ingenjörer med domänexperter är den optimala och kanske enda vägen framåt inom komplexa militära områden som vill kunna nyttja AI.

AI inom det militära är på frammarsch, om detta råder ingen tvekan, men det gäller att veta vad som fungerar för varje lösningsområde så att beställaren inte tror att det som görs på den civila marknaden är direkt översättbart till det militära. Framtiden för tekniskt intresserade domänexperter är ljus och kommer att bli en trång sektor för utveckling av nya AI-baserade system framgent.

AI är inte magi där generalister löser problemen, utan ett verktyg för att lösa vissa problem, med hjälp av domänexperter. Tillsammans kan ingenjörer och domänexperter bygga system som vida överstiger den operativa effekten av dagens system. Våra och FOI:s tester visar på flera hundra procents effektökning i luftstrid, enbart genom att introducera rätt verifierbara AI. När ett flygplan blir värt tre kan det omsättas till tiotals miljarder i ökat kundvärde per flygvapen.

Annons

Som alltid när det sker ett tekniksprång – den som agerar sent eller inte alls kommer att hamna ohjälpligt efter medan den som agerar och agerar rätt kan dominera marknaden för lång tid framöver. Ni vet alla vilka företag som brukar tas som exempel.

Dela: