Çmenduria në Izrael! Ushtria vendos përmes Inteligjencës Artificiale kush jeton dhe vdes në Gaza

Spread the love

Sisteme të tilla janë ndërtuar me qëllim dhe zyrtarët duhet të kujtojnë se edhe në rrethana emergjente, ata duhet të vazhdojnë me kujdes kur zgjerojnë frekuencën ose shtrirjen e një vegle kompjuterike. Përfitimet operacionale të shpresuara nuk janë të garantuara dhe siç tregon katastrofa në Gaza, kostot strategjike dhe morale mund të jenë të rëndësishme.

Një artikull investigativ i botuar nga media izraelite Local Call (dhe versioni i saj në anglisht, +972 Magazine) tregon se ushtria izraelite ka krijuar një program vrasjesh masive me përmasa të paprecedentë, duke përzier shënjestrimin algoritmik me një tolerancë të lartë për vdekjet dhe lëndimet e kalimtarëve, raporton ‘Foreign Policy’.

Hetimi zbulon një zgjerim të madh të praktikave të mëparshme të vrasjes në shënjestër të Izraelit, dhe ai shkon shumë drejt shpjegimit se si dhe pse Forcat e Mbrojtjes të Izraelit (IDF) mund të vrasin kaq shumë palestinezë, ndërkohë që ende pretendojnë se i përmbahen ligjit ndërkombëtar humanitar. Ai gjithashtu përfaqëson një horizont të ri të rrezikshëm në ndërveprimin njeri-makinë në konflikt – një prirje që nuk kufizohet vetëm në Izrael.

Izraeli ka një histori të gjatë të përdorimit të vrasjeve në shënjestër. Gjatë viteve të dhunshme të Intifadës së Dytë (2000-2005), ajo u institucionalizua si një teknikë ushtarake, por operacionet ishin shumë të rralla dhe praktikat e veçanta të municioneve të veçanta që synonin vetëm personat në automjete për të dëmtuar dëmin e kalimtarëve.

Por që nga sulmi i Hamasit më 7 tetor 2023, IDF ka ndërruar ingranazhet. Ajo ka hedhur poshtë procesin e vjetër të përzgjedhjes së kujdesshme të objektivave të komandantëve militantë të rangut të mesëm dhe të lartë. Në vend të kësaj, ajo ka bërë mbi përparimin e njëjtë në mjetet e inteligjencës artificiale (AI), duke përfshirë gjetjen e objektivave. Sistemi i ri analizon automatikisht sasi të mëdha të dorës së papërpunuar për të qenë objektivat e mundshëm dhe për të huazuar emrat e  analistëve njerëzorë për të bërë atë që ata duan – dhe në këto gjëra e rasteve, me sa duket, ata analistë njerëzorë. rekomandojnë një sulm ajror.

Procesi i ri, sipas hetimit nga Local Call dhe +972 Magazine, funksionon kështu: Një sistem i drejtuar nga AI Lavender ka gjurmuar emrat e çdo personi në Gaza dhe kombinon një gamë të gjerë të gjerë të inteligjencës me video dhe ka përgjuar mesazhe bisedash për të dhënat e rrjeteve sociale – për të gjetur dhe një individ që mund të jetë një luftëtar i Hamasit ose një grupi militant palestinez. IDF-së i është thënë se ishte e rëndësishme dhe e nevojshme të tolerojë në objektivin e tij që të ketë nga Lavender, dhe në pjesën më të madhe të luftës, ky prag me sa duket ka qenë 10 përqind.

Objektivat që arritën ose tejkaluan atë prag do t’u kalonin ekipeve të operacioneve pasi një analist njerëzor shpenzoi rreth 20 sekonda për t’i rishikuar ato. Shpesh kjo përfshinte vetëm kontrollimin nëse një emër i caktuar ishte ai i një burri (me supozimin se gratë nuk janë luftëtare). Goditjet në 10 për qind të rezultateve false – që përfshijnë, për shembull, njerëz me emra të ngjashëm me anëtarët e Hamasit ose ata që ndajnë telefona me anëtarët e familjes të identifikuar si anëtarë të Hamasit – u konsideruan një gabim i pranueshëm në kushtet e kohës së luftës.

Një sistem i dytë, i quajtur Where’s Dad, përcakton nëse objektivat janë në shtëpitë e tyre. Local Call raportoi se IDF preferon të godasë objektivat në shtëpitë e tyre, sepse është shumë më e lehtë për t’i gjetur ato atje sesa kur ata angazhojnë IDF në betejë. Familjet dhe fqinjët e këtyre anëtarëve të mundshëm të Hamasit shihen si dëme të parëndësishme kolaterale dhe shumë nga këto sulme deri më tani janë drejtuar ndaj asaj që një nga oficerët e inteligjencës izraelite të intervistuar i quajti “njerëz të parëndësishëm”.

Anëtarë të rinj të Hamasit shihen si objektiva legjitimë, sepse janë luftëtarë por jo me rëndësi të madhe strategjike. Ky duket të ketë qenë veçanërisht rasti gjatë kreshendos së hershme të bombardimeve në fillim të luftës, pas së cilës fokusi u zhvendos drejt objektivave disi më të larta “për të mos humbur bomba”.

Një mësim nga ky zbulim trajton pyetjen nëse taktikat e Izraelit në Gaza janë gjenocidale. Aktet gjenocidale mund të përfshijnë përpjekjet për të sjellë vdekje masive nëpërmjet urisë së shkaktuar qëllimisht ose shkatërrimit me shumicë të infrastrukturës së nevojshme për të mbështetur jetën e ardhshme të komunitetit, dhe disa vëzhgues kanë pohuar se të dyja janë evidente në Gaza. Por shembulli më i qartë i sjelljes gjenocidale është hapja e zjarrit ndaj civilëve me qëllimin për t’i zhdukur ata masivisht. Pavarësisht nxitjes së dukshme për gjenocid nga zyrtarë izraelitë që nuk janë të lidhur me zinxhirin komandues të IDF, mënyra se si IDF ka përzgjedhur dhe goditur objektivat ka mbetur e errët.

Local Call dhe Revista +972 kanë treguar se IDF mund të jetë kriminalisht neglizhent në gatishmërinë e saj për të goditur objektivat kur rreziku i vdekjes së kalimtarëve është shumë i lartë, por për shkak se objektivat e zgjedhur nga Lavender janë gjoja luftarakë, sulmet ajrore të IDF nuk synojnë të asgjësojnë një popullsi civile. Ata kanë ndjekur të ashtuquajturën logjikë operacionale të vrasjes në shënjestër, edhe nëse ekzekutimi i tyre ka ngjan me bombardimin e ngopjes në efektet e tij.

Kjo ka rëndësi për ekspertët e së drejtës ndërkombëtare dhe etikës ushtarake për shkak të doktrinës së efektit të dyfishtë, e cila lejon dëme të parashikueshme por të paqëllimshme nëse veprimi i synuar nuk varet nga ato dëme që ndodhin, si në rastin e një sulmi ajror kundër një objektivi legjitim që do të ndodhin nëse ka pasur apo jo kalimtarë. Por në rastin e luftës Izrael-Hamas, shumica e juristëve dhe me sa duket një numër oficerësh të IDF-së – i shohin këto sulme si të dështuara për të përmbushur ndonjë standard të arsyeshëm të proporcionalitetit, ndërkohë që e shtrijnë nocionin e diskriminimit përtej interpretimeve të arsyeshme. Me fjalë të tjera, ato mund të jenë ende krime lufte.

Studiuesit kanë diskutuar “bashkimin njeri-makinë” si një mënyrë për të konceptuar qendrën në rritje të ndërveprimit midis sistemeve të fuqizuara nga AI dhe operatorëve të tyre gjatë veprimeve ushtarake. Në vend të “robotëve vrasës” autonomë, bashkimi njeri-makinë parashikon që gjenerata e ardhshme e luftëtarëve të jenë sisteme që shpërndajnë agjencinë midis vendimmarrësve njerëz dhe makinë. Ajo që shfaqet nuk është Terminatori, por një plejadë mjetesh të bashkuara nga algoritme dhe të vendosura në duart e njerëzve që ende ushtrojnë gjykime për përdorimin e tyre.

Apeli i ekipeve njeri-makinë dhe sistemeve algoritmike shpesh pretendohet të jetë efikasiteti – por këto sisteme nuk mund të rriten pafundësisht pa gjeneruar rezultate kundërnormative dhe kundërproduktive. Lavender nuk synohej të ishte arbitri i vetëm i legjitimitetit të objektivit dhe objektivat që ajo rekomandon mund t’i nënshtroheshin shqyrtimit shterues, nëse operatorët e tij e dëshirojnë atë. Por nën presion të jashtëzakonshëm, analistët e inteligjencës IDF thuhet se nuk i kushtuan pothuajse asnjë burim kontrollimit të dyfishtë të objektivave, as kontrollimit të dyfishtë të vendndodhjeve të kalimtarëve, pasi i dhanë emrat e objektivave.

Sisteme të tilla janë ndërtuar me qëllim dhe zyrtarët duhet të kujtojnë se edhe në rrethana emergjente, ata duhet të vazhdojnë me kujdes kur zgjerojnë frekuencën ose shtrirjen e një vegle kompjuterike. Përfitimet operacionale të shpresuara nuk janë të garantuara dhe siç tregon katastrofa në Gaza, kostot strategjike dhe morale mund të jenë të rëndësishme.

Leave a Reply

Your email address will not be published. Required fields are marked *