USA odlar myten om att en krigföring som tar i anspråk AI-teknik och utvecklas till ett mer eller mindre automatiserat dödande kan förenas med god etik.
Stephan Bryan hävdar i Asia Times den 15 juli att krigföring som är oetisk utan AI sannolikt också blir det med AI.
USA:s försvarsminister Lloyd Austin vill att försvarsdepartementet ska börja använda artificiell intelligens (AI) "på rätt sätt", även om vår huvudkonkurrent, Kina, inte gör det.
I ett tal till National Security Commission on Artificial Intelligence sa Austin: "... vår användning av AI måste stärka våra demokratiska värderingar, skydda våra rättigheter, säkerställa vår säkerhet och försvara vår integritet”.
Detta ligger nära den formel som tilldelades den fiktive “Officer Murphy” i filmen Robocop från 1987. Murphy, en mördad polisman, förvandlades till Robocop, en cyborg vars mänskliga minne (mestadels) raderats. [En cyborg är en cybernetisk organism, det vill säga en organism som består av såväl biologisk vävnad som syntetiska delar. Termen myntades. 1960.]
Han fick fyra direktiv, de första tre var att förtjäna allmänhetens förtroende, skydda oskyldiga och upprätthålla lagen. Han fick också en hemlig order, direktiv 4, som hindrade honom att skada anställda hos Omni Consumer Products (OCP), det företag som byggde honom.
Detta var ett försök att installera företagsetik i en cyborg.
Detta liknar också att försöka installera amerikansk militäretik i ett AI-förbättrat vapen. Försvarsminister Austin verkar tro på officer Murphy, men krigföringens etik, så som den tillämpas av USA, av våra allierade eller våra motståndare, ligger hos soldaterna och befälhavarna.
Om vi inte kan ha en god etik utan AI så kan vi inte heller få en sådan hos AI-förbättrade vapen.
Försvarsministerier runt om i världen är angelägna om att införa militära system med AI. Baserat på framgången med övervakning och beväpnade drönare och dessas ökade betydelse i strid söker USA, Israel, Ryssland och Kina alla att skaffa sig autonoma stridssystem.
I sin enklaste form kan dessa utföra en uppgift utan att någon människa måste ingripa. En drönare kan skickas för att förstöra ett mål utan att det behöver finnas något kommunikations- eller styrsystem utanför själva vapnet.
De brinnande efterdyningen av missil- och dönarattackerna mot Abqaig i Saudiarabien den 15 september 2019. Foto: Screengrab |
När iranierna (omstritt påstående! NB) skickade kryssningsmissiler och drönare mot saudiarabiska oljeanläggningar i september 2019 tyckte vissa experter att drönarna som träffade Abqaiqs oljeanläggning verkade fungera helt självständigt. Autonomin låter dock bara ett vapen göra det jobb det har programmerats för. Det är AI som får vapnet att fatta beslut.
I vissa fall verkar det ganska enkelt.
Under Gazakonflikten i maj hävdade Israel att landet hade skickat iväg och styrt en stor svärm av drönare via AI. Enligt de senaste rapporterna täckte drönarna var och en ett förvalt övervakningsområde och kunde sedan skicka koordinater tillbaka till artilleri- och granatkastarenheter som därmed kunde attackera de valda målen.
Tekniken sägs ha utvecklats av den israeliska arméns enhet 8200 som är specialiserad på signalspaning - ungefär motsvarande National Security Agency (NSA) i USA. Israel har inte lämnat någon mer detaljerad information om drönarsvärmarna, men det tycks stå klart att varje drönare inte bara kunde kartlägga ett specifikt område utan också upptäcka missiluppskjutningsplatser och andra militära aktiviteter och välja ut dessa som mål.
Om det fanns någon människa inblandad efter drönarnas avsändande eller inte – sannolikt inte – vet vi inte.
USA arbetar med ett antal olika autonoma system, sådana som ska verka på land, över- och under vattnet eller system för autonom tankning av flygplan. Armén tillför till exempel AI-kapacitet till sina landfordon, däribland till sina tanks som i slutändan ska kunna samordnas av övervakningsdrönare, fås att välja de säkraste tillgängliga vägarna, förutsäga var blockeringar kan finnas och automatiskt vidta alternativa åtgärder.
Dessa system bygger på civil teknik som utvecklats i Israel - t.ex. WAZE - och i USA - självkörande fordon, där Tesla gått i spetsen.
En del av detta ser man redan förverkligat när man riktar in sig på att söka och döda terrorister med hjälp av drönare och Hellfire-missiler. USA har redan gjort sådant här sedan länge, med avsevärd framgång, även om man ibland träffat fel mål.
Dessa är dock ännu inga fullfjädrade AI-system, men de är på god väg att "förbättras" med AI så att AI ger instruktioner som sedan utförs utan externt beslutsfattande - "Valde vi rätt mål?" eller "Finns det en alltför stor risk för 'collateral damages' (oavsiktliga bieffekter)?"
AI-kontrollerade soldater kan göra ett bättre jobb i närstrid, men det finns gränser. |
Det verkliga dilemmat kommer när vi närmar oss den framtida soldaten. För att göra denne effektiv måste han eller hon eliminera upplevda hot innan dessa hot eliminerar soldaten själv. Här blir soldaten faktiskt inte en cyborg, men hans eller hennes förmågor når en cyborgnivå.
Det finns ingen anledning tro att ett AI-drivet system skulle vara vare sig bättre eller sämre än ett mänskligt helstyrt system. Men i en komplex stridsmiljö kanske AI kan göra ett bättre jobb än stressade människor som kämpar för sina liv.
AI kan programmeras för att följa vissa "etiska" regler, särskilt när det gäller civila i en stridsmiljö, men befälhavare kan uppleva en sådan programmering som ett störningsmoment under uppdraget om de inbyggda "etiska" begränsningarna kan sätta soldaterna i fara.
Så till exempel kan ett AI-system låsa en soldats vapen för att förhindra att en civil dödas, fastän civilisten i själva verket är en stridande eller en terrorist.
Under terrorhändelser i städer är det praktiskt taget omöjligt att veta vem som är eller inte är civil. Israel har till exempel, med eller utan AI, brottats med hur man ska kunna minimera civila dödsoffer när terrorister skjuter raketer från moskéer, skolor och hyreshus.
AI kommer inte att kunna lösa detta problem på egen hand eller ens i kombination med mänskliga operatörer.
Våra motståndare har inga bekymmer för några begränsningar vid användningen av AI. Även om det är praktiskt taget omöjligt att göra AI "etiskt", är det möjligt och absolut nödvändigt att pressa våra militära och civila ledare att agera etiskt och använda detta slags vapen endast när det är motiverat och avgörande för vår säkerhet.
Kort sagt, även om etisk AI kan vara en myt, är etiska ledare inte det minsta mytologiska.
Källa: Asia Times 17 juli 2021
Översättning: Lennart Palm
Inga kommentarer:
Skicka en kommentar
Underteckna med ditt namn.