Derimot: Automatisert dreping:Israel lar AI bestemme hvem som dør i Gaza – Derimot

derimot.no:

Av Tyler Durden.

Tel Aviv nettavisen +972 Magazine har avslørt at det israelske militæret har brukt enda et AI-basert system for å velge bombemål på Gazastripen. Det nye systemet har produsert omfattende lister på titusenvis av palestinere som skal drepes, en del av IDFs (Israel Defence Force) økende avhengighet av AI (kunstig intelligens) for å planlegge dødelige angrep.

Nettavisen siterer seks israelske etterretningsoffiserer, og sa at det tidligere AI-systemet, kalt ‘Lavender’, har spilt en «sentral rolle i en bombing uten sidestykke» av Gaza siden oktober i fjor, og IDF har behandlet systemets utvelgelse av bombemål » som om det var menneskelige avgjørelser».

«Formelt sett er Lavender-systemet utformet for å markere alle mistenkte i de militære fløyene til Hamas og Palestinian Islamic Jihad (PIJ), og lavere offiserer som potensielle bombemål», rapporterte nettavisen, og la til at «i løpet av de første ukene av krigen stolte hæren nesten fullstendig på Lavender, som valgte ut så mange som 37 000 palestinere som mistenkte militante – og deres hjem – for mulige luftangrep».

Tusenvis har blitt drept i luftangrepene mot mål systemet valgte ut, og flertallet var «kvinner og barn eller mennesker som ikke var deltakere i kampene», sa offiserene til nettavisen, og sa også at israelske feltsjefer ofte stoler på AI-systemet uten å bruke mer omfattende etterretning.

«Menneskelig personell tjente ofte bare som et «godkjenningsstempel» for AI-systemets beslutninger», sa en kilde, og la til at mange sjefer bruker bare «20 sekunder» på å gjennomgå informasjon om måetl før de godkjenner et angrep – «bare for å sikre at målet Lavender har valgt ut er en mann».

Mennesker har blitt henvist til en så liten rolle i beslutningsprosessen, at Lavenders konklusjoner ofte blir behandlet som «en ordre» av israelske tropper, «uten krav om uavhengig å sjekke hvorfor systemet tok valget».

Slike avgjørelser tas til tross for velkjente systemfeil, som resulterer i feilidentifiserte mål i minst 10 % av tilfellene. Ikke desto mindre har AI «systematisk» valgt ut hjemmene til mistenkte militante for angrep, med bombing ofte utført sent på kvelden, når det er mer sannsynlig at hele familien er til stede.

Når det gjelder Hamas-militære på lavere nivå i de tidlige stadiene av krigen, tyr militæret stort sett til bruken av bomber uten styring, og konkluderte med at det var tillatt å «drepe opptil 15 eller 20 sivile» i slike operasjoner, sa etterretningskildene la til. Høyere senior militære Hamas-offiserer kan rettferdiggjøre dreping av «mer enn 100 sivile». «Du vil ikke kaste bort dyre bomber på uviktige mennesker», sa en IDF-offiser.

Automatisert dreping.
Lavendel er langt fra det første AI-programmet som brukes til å lede operasjoner for Israels militære. Et annet system avdekket av +972 Magazine nettavisen, som er kjent som ‘Hvor er pappa?’, har også blitt brukt «spesifikt for å spore individer som er militære mål, og utføre bombeangrep etter de var kommet hjem, og er i familiens boliger».

En navngitt etterretningsoffiser fortalte nettavisen at hjemmet anses som et «første alternativ» som militære mål, og observerte at IDF «ikke bare er interessert i å drepe Hamas-militær personell når de er i militære bygninger eller er i kamp”.

Fra april har israelske bombeangrep delvis ødelagt eller ødelagt svimlende 62 % av alle boliger i Gaza – eller nesten 300 000 hjem – og drevet mer enn 1 million mennesker internt på Gazastripen på flukt, ifølge FNs tall. Gazastripens boligområder har båret hovedtyngden av det israelske angrepet, og representerer godt over to tredjedeler av ødeleggelsene i Gaza til dags dato.

Tidligere rapporter har kastet ytterligere lys over Israels AI-drevne «automatiserte massemord», med et annet program, «Gospel», som brukes til å automatisk generere lange lister med mål, og med en hastighet som langt overgår tidligere metoder. Med dette verktøyet har israelske styrker i økende grad slått til det de kaller «viktige mål», inkludert høyblokker med boliger og offentlige bygninger. Slike angrep er angivelig del av å sette det sivile palestinske samfunnet under press– en taktikk som er klart forbudt under internasjonal lov som en form for kollektiv straff.

Fra Zero Hedge, publisert 12 april 2024.
Oversatt fra engelsk og forkortet. Linker i orginalartikkelen. Oversatt av Northern Light
Orginalartikkel: ‘Automated Assassination’: Israel Lets AI Decide Who Dies In Gaza.

Forsidebilde: Lexica

Les artikkelen direkte på derimot.no

You may also like...