0.8 C
București
22 noiembrie 2024
econtext.ro
ȘTIRI

Dezvăluiri despre „Lavender“, sistemul de inteligență artificială pe care Israelul l-a folosit împotriva Hamas: „E fără precedent“

Surse din serviciile de informații israeliene dezvăluie utilizarea sistemului „Lavender” în războiul din Gaza și susțin că s-a dat permisiunea de a ucide civili în urmărirea militanților de rang inferior.

Campania de bombardamente a armatei israeliene în Gaza a folosit o bază de date cu inteligență artificială, nedezvăluită până acum, care la un moment dat a identificat 37.000 de ținte potențiale pe baza legăturilor aparente ale acestora cu Hamas, potrivit unor surse de informații implicate în război, scrie theguardian.com.

Pe lângă faptul că au vorbit despre utilizarea sistemului de inteligență artificială, numit Lavender, sursele de informații susțin că oficialii militari israelieni au permis uciderea unui număr mare de civili palestinieni, în special în primele săptămâni și luni ale conflictului.

Mărturia lor neobișnuit de sinceră oferă o perspectivă rară asupra experiențelor directe ale oficialilor israelieni din serviciile de informații care au folosit sisteme de învățare automată pentru a ajuta la identificarea țintelor în timpul celor șase luni de război.

Utilizarea de către Israel a unor sisteme puternice de inteligență artificială în războiul împotriva Hamas a intrat pe un teritoriu necunoscut pentru războiul avansat, ridicând o serie de întrebări juridice și morale și transformând relația dintre personalul militar și mașini.

„Acest lucru este fără precedent, din câte îmi amintesc”, a declarat un ofițer de informații care a folosit Lavender, adăugând că au avut mai multă încredere într-un „mecanism statistic” decât într-un soldat îndurerat. „Toți cei de acolo, inclusiv eu, au pierdut oameni pe 7 octombrie. Mașina a făcut-o cu răceală. Și asta a făcut lucrurile mai ușoare”.

Un alt utilizator Lavender a pus la îndoială faptul că rolul oamenilor în procesul de selecție a fost semnificativ. „Aș investi 20 de secunde pentru fiecare țintă în acest stadiu și aș face zeci de astfel de selecții în fiecare zi. Aveam zero valoare adăugată ca om, în afară de a fi o ștampilă de aprobare. Am economisit foarte mult timp.”

Mărturia celor șase ofițeri de informații, toți implicați în utilizarea sistemelor de inteligență artificială pentru a identifica țintele Hamas și ale Jihadului Islamic Palestinian (PIJ) în timpul războiului, a fost dată jurnalistului Yuval Abraham pentru un reportaj publicat de publicația israeliano-palestiniană +972 Magazine și de publicația de limbă ebraică Local Call.

Relatările lor au fost împărtășite în exclusivitate cu The Guardian înainte de publicare. Toți cei șase au spus că Lavender a jucat un rol central în război, procesând mase de date pentru a identifica rapid potențiali agenți „juniori” care să fie ținta. Patru dintre surse au declarat că, la un moment dat, la începutul războiului, Lavender a enumerat până la 37.000 de bărbați palestinieni care au fost legați de sistemul AI de Hamas sau PIJ.

Lavender a fost dezvoltat de divizia de elită a serviciilor de informații a Forțelor de Apărare israeliene, Unitatea 8200, comparabilă cu Agenția Națională de Securitate a SUA sau cu GCHQ din Marea Britanie.

Mai multe surse au descris modul în care, pentru anumite categorii de ținte, FDI a aplicat cote pre-autorizate pentru numărul estimat de civili care ar putea fi uciși înainte de a fi autorizată o lovitură.

Două surse au declarat că, în primele săptămâni de război, li s-a permis să ucidă 15 sau 20 de civili în timpul atacurilor aeriene asupra militanților de rang inferior. Atacurile asupra unor astfel de ținte au fost efectuate de obicei cu ajutorul unor muniții neghidate, cunoscute sub numele de „bombe stupide”, au declarat sursele, distrugând case întregi și ucigând toți ocupanții acestora.

„Nu vrei să irosești bombe scumpe pe oameni neimportanți – este foarte costisitor pentru țară și există o penurie de aceste bombe”, a declarat un ofițer de informații. Un alt ofițer a declarat că principala întrebare cu care s-au confruntat a fost dacă „daunele colaterale” asupra civililor permiteau un atac.

„Pentru că, de obicei, am desfășurat atacurile cu bombe stupide, iar asta însemna să aruncăm literalmente întreaga casă asupra ocupanților ei. Dar chiar dacă un atac este evitat, nu-ți pasă – treci imediat la următoarea țintă. Din cauza sistemului, țintele nu se termină niciodată. Mai ai încă 36.000 care te așteaptă”.

Potrivit experților în conflicte, dacă Israelul a folosit bombe stupide pentru a turna casele a mii de palestinieni care erau legați, cu ajutorul IA, de grupurile militante din Gaza, acest lucru ar putea ajuta la explicarea numărului șocant de mare de morți în război.

Ministerul Sănătății din teritoriul condus de Hamas afirmă că 32.000 de palestinieni au fost uciși în conflict în ultimele șase luni. Datele ONU arată că, numai în prima lună de război, 1 340 de familii au suferit pierderi multiple, 312 familii pierzând mai mult de 10 membri.

Răspunzând la publicarea mărturiilor în +972 și Local Call, IDF a afirmat într-o declarație că operațiunile sale au fost efectuate în conformitate cu regulile de proporționalitate prevăzute de dreptul internațional. Acesta a precizat că bombele stupide sunt „armament standard” care sunt folosite de piloții FDI într-o manieră care asigură „un nivel ridicat de precizie”.

Comunicatul a descris Lavender ca fiind o bază de date utilizată „pentru a încrucișa sursele de informații, în scopul de a produce straturi actualizate de informații despre agenții militari ai organizațiilor teroriste”. Aceasta nu este o listă a agenților militari confirmați care pot fi atacați.

„IDF nu utilizează un sistem de inteligență artificială care identifică agenți teroriști sau încearcă să prezică dacă o persoană este teroristă”, a adăugat acesta. „Sistemele de informații sunt doar instrumente pentru analiști în procesul de identificare a țintelor”.

Lavender a creat o bază de date cu zeci de mii de persoane

În operațiunile militare anterioare desfășurate de FDI, producerea de ținte umane era adesea un proces care necesita mai multă muncă. Mai multe surse care au descris pentru The Guardian dezvoltarea de ținte în războaiele anterioare au declarat că decizia de a „incrimina” o persoană sau de a o identifica ca țintă legitimă era discutată și apoi semnată de un consilier juridic.

În săptămânile și lunile de după 7 octombrie, acest model de aprobare a loviturilor asupra țintelor umane a fost accelerat în mod dramatic, potrivit surselor. Pe măsură ce bombardamentele FDI asupra Gaza se intensificau, au spus acestea, comandanții au cerut o conductă continuă de ținte.

„Am fost presați în mod constant: „Aduceți-ne mai multe ținte”. Chiar țipau la noi”, a declarat un ofițer de informații. „Ni s-a spus: acum trebuie să dăm peste cap Hamas, indiferent de costuri. Orice puteți, bombardați”.

Pentru a satisface această cerere, IDF a ajuns să se bazeze foarte mult pe Lavender pentru a genera o bază de date cu persoanele considerate a avea caracteristicile unui militant PIJ sau Hamas.

Detaliile privind tipurile specifice de date utilizate pentru a antrena algoritmul lui Lavender sau modul în care programul a ajuns la concluziile sale nu sunt incluse în relatările publicate de +972 sau Local Call. Cu toate acestea, sursele au declarat că, în primele săptămâni de război, Unitatea 8200 a perfecționat algoritmul lui Lavender și a ajustat parametrii de căutare.

După eșantionarea aleatorie și verificarea încrucișată a predicțiilor sale, unitatea a concluzionat că Lavender a atins o rată de acuratețe de 90%, au declarat sursele, ceea ce a determinat IDF să aprobe utilizarea sa generalizată ca instrument de recomandare a țintelor.

Lavender a creat o bază de date cu zeci de mii de persoane care au fost marcate ca fiind predominant membri de rang inferior ai aripii militare a Hamas, au adăugat acestea. Aceasta a fost utilizată alături de un alt sistem de sprijin decizional bazat pe inteligență artificială, numit Gospel, care recomanda clădiri și structuri ca ținte, mai degrabă decât persoane.

Relatările includ mărturii de primă mână despre modul în care ofițerii de informații lucrau cu Lavender și despre cum putea fi ajustată raza de acțiune a rețelei sale. „La apogeu, sistemul a reușit să genereze 37.000 de persoane ca potențiale ținte umane”, a declarat una dintre surse. „Dar cifrele se schimbau tot timpul, pentru că depinde de unde stabilești ștacheta a ceea ce înseamnă un agent Hamas”.

Acestea au adăugat: „Au fost momente în care un agent Hamas era definit mai larg, iar apoi mașinăria a început să ne aducă tot felul de membri ai apărării civile, ofițeri de poliție, asupra cărora ar fi păcat să irosim bombe. Aceștia ajută guvernul Hamas, dar nu pun cu adevărat în pericol soldații.”

Înainte de război, SUA și Israelul estimau numărul membrilor aripii militare a Hamas la aproximativ 25-30.000 de persoane.

În săptămânile care au urmat atacului din 7 octombrie, condus de Hamas asupra sudului Israelului, în care militanții palestinieni au ucis aproape 1.200 de israelieni și au răpit aproximativ 240 de persoane, sursele au declarat că a existat o decizie de a trata bărbații palestinieni care au legături cu aripa militară a Hamas ca potențiale ținte, indiferent de rangul sau importanța lor.

De asemenea, au fost relaxate procesele de stabilire a țintelor de către IDF în faza cea mai intensă a bombardamentelor, au spus acestea. „A existat o politică complet permisivă în ceea ce privește victimele operațiunilor de bombardament”, a declarat o sursă. „O politică atât de permisivă încât, în opinia mea, avea un element de răzbunare”.

O altă sursă, care a justificat utilizarea lui Lavender pentru a ajuta la identificarea țintelor de rang inferior, a declarat că „atunci când este vorba de un militant de rang inferior, nu vrei să investești personal și timp în el”. Aceștia au spus că în timp de război nu există timp suficient pentru a „incrimina cu atenție fiecare țintă”.

„Așa că ești dispus să-ți asumi marja de eroare de a folosi inteligența artificială, riscând daune colaterale și moartea civililor și riscând să ataci din greșeală și să trăiești cu asta”, au adăugat ei.

Indiferent de justificarea legală sau morală a strategiei de bombardament a Israelului, unii dintre ofițerii săi de informații par să pună acum la îndoială abordarea stabilită de comandanții lor. „Nimeni nu s-a gândit la ce se va face după aceea, când războiul se va termina, sau cum va fi posibil să trăim în Gaza”, a spus unul dintre ei.

Un altul a declarat că, după atacurile din 7 octombrie ale Hamas, atmosfera în FDI a fost „dureroasă și răzbunătoare”. „A existat o disonanță: pe de o parte, oamenii de aici erau frustrați că nu atacăm suficient. Pe de altă parte, vedeți la sfârșitul zilei că încă o mie de locuitori din Gaza au murit, majoritatea civili”.

Related posts

Lavrov, despre atacul ucrainean cu rachete americane: Se dorește escaladarea conflictului

econtext

China, mobilizare maximă! Companiile înființează propriile miliții

econtext

Război în Ucraina, ziua 843. Kievul nu acceptă „oferta” de pace a Rusiei

econtext

This website uses cookies to improve your experience. We'll assume you're ok with this, but you can opt-out if you wish. Accept Read More