Utmaningar med AI i militär teknik
Mikael Grev, grundare och VD vid försvarsföretaget Avioniq AB med en bakgrund som stridspilot, utforskar i två krönikor för FSN Perspektiv de komplexa utmaningar och möjligheter som AI står inför inom militär teknik. I den första beskriver han hur AI kan vara ett kraftfullt verktyg, men också varför dess tillämpning i militär kontext kräver noggranna överväganden och anpassningar.
AI löser inte allt – men mycket – om det görs på rätt sätt
AI är tekniken som är glödhet inom de flesta civila tekniska områden – och tekniken är här för att stanna. AI är ett utmärkt verktyg i verktygslådan för att lösa vissa typer av problem, om än kanske inte den generella lösningen på alla tekniska problem som ibland torgförs, inte sällan av dem som säljer tjänsten. Allomfattande AI fungerar bra när resultatet tillåts vara lite luddigt och när exakthet, repeterbarhet och förståelse för ingående bevekelsegrunder inte är primära krav.
På Avioniq har vi sedan många år en variant av AI för den komplexa och känsliga militära miljön, där människa inom överskådlig framtid måste vara ”in the loop” och förstå vad som sker, då det ofta handlar om människoliv och svåra avvägningar mellan olika alternativ. Men låt oss först reda ut varför AI kan vara ett problem och varför man inte bara kan kopiera de allomfattande AI-lösningar finns i det civila.
Den AI-typ som rönt mest intresse och beundran senaste tiden är den generativa. ChatGPT och de bild- och filmskapande tjänsterna som så förföriskt överöser oss med den ena fantastiska lösningen efter den andra är av denna typ. Generativ AI innebär kort att man matar in data, till exempel en fråga i text, en ljudfil, en bild eller missilparametrar och får tillbaka ett svar som data, exempelvis text, ljud, bild eller en serie manövrar i luftstrid.
Kännetecknande för generativ AI är att antal distinkta kombinationer av in- och utdata är i det närmaste oändliga. Generar man en bild från en text så blir det olika varje gång, även om bilden alltid är ett svar på texten. Det är därför svårt att verifiera att resultatet är korrekt - eller ens bra - eftersom det sällan för dessa AI finns ett facit – vad som faktiskt är det rätta svaret.
För att veta om svaret som generativa AI levererar är bra så måste en domänexpert bedöma det, vilket är mycket resurskrävande. I fallet ChatGPT så används ett stort antal människor, som fungerar som domänexperter för vanlig text, för att bedöma hur bra svaret är och man tränar faktiskt även upp speciella AI som bedömer kvalitén på svaren av andra AI från dessa människors svar.
När det gäller AI för till exempel luftstrid är otydligheten i vad som är bra, och att svaret kan bli lite olika varje gång, ett problem eftersom piloter både är en bristvara och de få som finns inte prioriteras att vara domänexperter för AI-träning.
De bolag som specialiserat sig på just AI säljer det ofta som om AI är lösningen på hela problemet, därav uttrycket allomfattande. Generar AI svar på frågor där hela problembilden ryms i själva frågan, vilket är fallet för ChatGPT och bild- och ljudgenerering, då fungerar det utmärkt att ha AI-experter som löser hela problemet enbart genom att kunna värdera om svaret är mer eller mindre rätt i förhållande till frågan. Men när lösningen är en del av ett större sammanhang, med implicit information i frågan som inte finns som indata, där det är svårare med gränsdragningar mellan vad AI ska leverera och där viss information och vissa förutsättningar finns i andra system, då blir det knivigare.
Sammantaget har vi sett hur AI kan vara ett kraftfullt verktyg, men att dess tillämpning inom militär teknik inte är utan betydande utmaningar. Allomfattande AI-lösningar som fungerar väl i civila sammanhang är ofta svåra att direkt överföra till militär kontext, där kraven på precision och säkerhet är högre. Men vad innebär detta konkret för utvecklingen av AI i luftstrid? I nästa del utforskar vi hur dessa utmaningar kan mötas genom specifika exempel och strategier för att optimera AI roll i den militära arenan