Når kunstig intelligens endrer hvordan kriger føres

Frykten for roboter som vender seg mot oss har lenge vært filmtema.

Det som faktisk skjer i dag, er at mennesker bruker KI til å planlegge og gjennomføre angrep.

Forskere og militære eksperter advarer om et skifte i bruken av KI på slagmarken. Tidligere var kunstig intelligens i militæret først og fremst et verktøy for oversettelse, logistikk og vedlikehold, men nå hjelper systemene beslutningstaking og kan gjøre våpendelvis autonome.

Elke Schwarz, professor i politisk teori ved Queen Mary University i London og forfatter av Death Machines, mener dette øker tempoet og omfanget av krigføring.

Hun var nylig i Oslo og fortalte NRK at slike systemer fortsatt er i utvikling, men bruken øker. Gaza-konflikten er ifølge Schwarz den første kjente krigen der KI har blitt brukt aktivt for å foreslå angrepsmål.

Et system omtalt som «Lavender» skal ha analysert sosiale medier, helsedata og bevegelsesmønstre for å identifisere titusener av mistenkte militante.

Ifølge rapporter foreslo systemet tusenvis av potensielle mål hver dag, og operatørene fikk bare sekunder til å vurdere om de skulle slå til. Schwarz beskriver situasjonen som en form for kvasi-autonomi, der menneskelig beslutningstid blir ekstremt kort.

Menneskerettsorganisasjoner anslo svært høye dødstall i de første fasene av konflikten.

Schwarz sier bruken av KI sannsynligvis bidro til økt tap av liv tidlig i krigen. Også i angrepene mot Iran har observatører pekt på KI som en mulig forklaring på omfanget og hastigheten.

Journalister fra The New York Times har rapportert at amerikanske ledere omtaler KI som et viktig verktøy i operasjonene, og flere hundre mål ble truffet i løpet av kort tid.

Droneteknologi har særlig blitt påvirket av KI. For å unngå forstyrrelser i kontrollsignalene kan droner få en selvstendig «siste mil»-funksjon.

KI gjør det også mulig for droner å koordinere i svermform, noe som reduserer behovet for manuell styring i angrepsfasen.

I Ukraina brukes både billige kamikazedroner inspirert av Shahed-modellen og delvis autonome droner. Rapportene beskriver droner som navigerer mot mål selvstendig når fjernstyring er umulig, samt svermer som opererer sammen uten direkte menneskelig kommando.

På bakken har væpnede, delvis selvstyrte UGVer (unmanned ground vehicles) vært i bruk.

Disse robotene kan patruljere, identifisere fiender og ta fangene, men mange av dem kan ikke selv avfyre våpen. De kan likevel sendes inn i områder som er for farlige for mennesker.

Bruken av autonome elementer reiser et grunnleggende spørsmål om ansvar.

Schwarz påpeker at tradisjonell krigføringsansvarlighet hviler på at et menneske kan holdes ansvarlig, og at dette blir uklart når maskiner tar større deler av beslutningsprosessen. I USA er også juridiske konflikter under oppseiling.

KI-selskapet Anthropic har gått til sak mot det amerikanske forsvarsdepartementet etter at selskapet nektet å la myndighetene bruke deres system til helautonome våpen og masseovervåkning.

Saken kommer i kjølvannet av et forbud mot Anthropic-verktøy i føderale etater, og saken kan få stor betydning for både næringsliv og forsvarsbruk. Investeringene i forsvarsrelatert KI øker, spesielt i teknologamiljøer som Silicon Valley.

Analysebyråer meldte rekordstor kapitalflyt til ny forsvarsteknologi i 2025, og selskaper som leverer data- og analyseverktøy er i sentrum for utviklingen.

Schwarz understreker at vi ikke står overfor en framtid der KI «vil» vende seg mot mennesker som i science fiction. Hennes bekymring er at mennesker vil bruke teknologien til å gjøre krig enklere, raskere og mer omfattende — og at det blir lettere å unngå ansvar ved å skylde på maskinene.

Publisert 02.04.2026

Leave A Comment


Last Visited Articles


Info Board

Visitor Counter
0
 

Todays visit

26 Articles 1 RSS ARTS 15 Photos

Popular News

if (isset($_GET['endless'])) { ?>
Farsi English Norsk RSS
🚀 Welcome to our website! Stay updated with the latest news. 🎉
Farsi English Norsk RSS