Kohët e fundit gazetarë izraelitë kanë raportuar se kanë zbuluar që pjesa më e madhe e shkatërrimit në Gaza është orientuar nga Inteligjenca Artificiale (AI). Sulmet e 7 tetorit të Izraelit kundrejt Gazës janë mundësuar shpesh herë nga AI.
Një pedagog i Universitetit Hebraik në Jeruzalem ka thënë se përdorimi i AI është një premtim në dy aspekte: i shpejtë dhe i saktë. Ndërsa një reporter i “Policito” ka thënë se qëllimi i AI është të ofrojë goditje preçise.

Përdorimi i Inteligjencës Artificiale nga forcat izraelite nuk është diçka e re. Ky lloj sistemi mbrojti pjesërisht Izraelin nga sulmi me dronë dhe raketa nga Irani në prill të 2024. Tani Izraeli po përdor AI për të survejuar palestinezët në territoret e pushtuara. Por si e bëjnë izraelitët këtë gjë?
“Gospel” është një sistem i cili prodhon bombardime për struktura specifike në Gaza. Ky sistem funksionon duke punuar me mjete të tjera të AI dhe çdo system tjetër të tij. “Gospel” mbledh të dhënat historike të palestinezëve dhe mbi vendndoidhjen e militantëve në Gaza.

Kjo gjë funksionon në bazë të disa objektivave dhe këto objektiva janë të vendosura ne katër kategori. Një objektivë e njohur si “objektiva taktike” përfshin depot e armëve lëshuese dhe shtabet e militantëve. Ndërsa objektiva tyjetër e cila është nëntokësore ka të bëjë përgjithësisht me tunelet nën shtëpitë e civilëve. Kategoria e tretë janë shtëpitë familjare të operativëve dhe e katërt janë objektivat që nuk janë të dukshme si të natyrës ushtrake.
Pas mbledhjes së informacioneve ktëo kalohen në “Gospel” e cila prodhon objektiva në Gaza për të sulmuar shumë herë më shpëjt sesa një njeri.
Me fillimin e Luftës së Hamasit në Izrael, Lavender përdori të dhëna historike dhe mbikëqyrje për të gjeneruar deri në 37,000 objektiva të Hamasit dhe Xhihadit Islamik. Sipas burimeve vetëm 10% e objektivave është e gabuar dhe përcaktoi se 90% e tyre kanë rezultuar të sakta.

Çështja është se Hamasi drejton Rripin e Gazës, kështu që ju keni shumë shoqëri civile që ndërvepron me Hamasin. Policët, doktorët, civilët në përgjithësi. Dhe kështu këto janë objektivat që ne e dimë se ata po i vëzhgojnë” – tha Heidy Khlaaf, eksperte e sigurisë për Inteligjencën Artificiale.
Kjo metodë funksion duke lidhur AI objektin me shtëpinë specifike dhe më pas rekomandon armën e duhur që do të përdorte për atë objektiv, kjo gjë varej kryesisht në varësi të rëndësisë së operativit të Hamasit.
Burimet iu kanë thënë gazetarëve se çdo shënjestër e cila shënjohej nga strukturab e AI-së lejonte të vriste vetëm 15 deri në 20 civilë. Gjithashtu në lidhje me disa objektiva numri i viktimave të lejuara ishte deri në 300.
Sistemi AI Lavender, që pasi përcakton objektivat, zgjedh edhe armën me të cilën do goditen. Ky sistem ka shkaktuar viktima kolaterale të shumta.
Gjithashtu protokolli i mbikëqyrjes njerëzore në këtë system të kontrrollohej nga një mashkull jo femër.Në një deklaratë për The Guardian, IDF hodhi poshtë plotësisht se ata kishin ndonjë politikë për të vrarë dhjetëra mijëra njerëz në shtëpitë e tyre dhe theksuan se analistët njerëzorë duhet të kryejnë ekzaminime të pavarura përpara se të zgjidhet një objektiv. Kjo na sjell në hapin e fundit të të dyjave këtyre proceseve, miratimin njerëzor.
