19 abril 2024

Software do genocídio em Gaza

Lavender: A IA que conduz os assassinatos em Gaza

Agentes do serviço de inteligência israelense revelam software usado para bombardeios. Os alvos humanos a serem eliminados são escolhidos por algoritmos que avaliam atitudes “suspeitas”. Os oficiais que apertam os botões apenas dão o OK final
Yuval Abraham, na +972 e Local Call, com tradução na IHU/OutrasPalavras


 

Em 2021, foi publicado em inglês um livro intitulado “The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World” [‘A equipe humano-máquina: como criar sinergia entre inteligência humana e artificial que revolucionará nosso mundo’], cujo autor assinava sob o pseudônimo de “Brigadeiro General Y.S”. Nele, o escritor – um homem que, conforme confirmamos, é o atual comandante da unidade de elite 8200 da inteligência israelense – defende o projeto de uma máquina especial que poderia processar rapidamente vastas quantidades de dados para gerar milhares de potenciais “alvos” para ataques militares no calor da guerra. Essa tecnologia, escreve ele, resolveria o que descreveu como um “engarrafamento humano” tanto para localizar novos alvos quanto para a tomada de decisões que aprovassem esse s alvos.

Acontece que uma máquina assim existe. Uma nova pesquisa da revista +972 e do Local Call revela que o exército israelense desenvolveu um programa baseado em inteligência artificial conhecido como “Lavender”, cuja existência foi revelada na revista +972. Segundo seis agentes do serviço de inteligência israelense, que serviram no exército durante a guerra atual na Faixa de Gaza e tiveram participação direta no uso de IA para gerar alvos para assassinato, Lavender desempenhou um papel fundamental nos bombardeios sem precedentes de palestinos, especialmente durante as primeiras etapas da guerra. De fato, de acordo com as fontes, influenciava tanto as operações militares que basicamente tratavam os resultados da máquina de IA “como se fosse uma decisão humana”. 

Formalmente, o sistema Lavender é projetado para marcar como possíveis alvos de bombardeio todos os suspeitos de pertencerem ao braço armado do Hamas e da Jihad Islâmica Palestina, incluindo os de posto inferior. As fontes revelaram para +972 e Local Call que, durante as primeiras semanas da guerra, o exército dependeu quase que inteiramente do Lavender, que marcou até 37.000 palestinos – e suas casas – como militantes suspeitos para possíveis ataques aéreos.

Nas primeiras fases da guerra, o exército autorizava os oficiais a assumirem como válidas as listas de alvos para matar geradas pelo Lavender sem a necessidade de verificar completamente por que a máquina tomava essas decisões ou de analisar as informações não processadas nas quais se baseavam. Uma fonte declarou que o pessoal humano muitas vezes servia apenas como um “selo” para aprovar automaticamente as decisões da máquina, e acrescentou que, geralmente, dedicavam pessoalmente apenas “20 segundos” a cada alvo antes de autorizar um bombardeio, apenas para garantir que o alvo marcado pelo Lavender fosse do sexo masculino. E isso apesar de saber que o sistema comete o que são considerados “erros” em cerca de 10% dos casos e de que, às vezes, marca pessoas que têm apenas uma conexão leve com grupos militantes ou nenhuma conexão de todo.

Além disso, o exército israelense atacava sistematicamente as pessoas marcadas como alvos quando estavam em suas casas – geralmente à noite, com toda a família presente – e não durante atividades militares. Segundo as fontes, isso ocorria porque, do ponto de vista dos serviços de inteligência, era mais fácil localizá-los em suas residências particulares. Outros sistemas automatizados, incluindo um chamado “Onde está papai?“, cuja existência também foi revelada na revista +972, eram usados para localizar pessoas específicas e realizar ataques com bombas quando entravam nas casas de suas famílias.

O resultado, como testemunharam as fontes, é que milhares de palestinos – a maioria mulheres e crianças ou pessoas que não estavam envolvidas em combates – foram mortos por ataques aéreos israelenses, especialmente durante as primeiras semanas da guerra, devido às decisões do programa de IA.

“Não estávamos interessados em matar os operacionais [do Hamas] apenas quando estavam em um prédio militar ou envolvidos em uma operação militar”, disse A., um agente dos serviços de inteligência, para +972 e Local Call. “Pelo contrário, as FDI os bombardeavam em suas casas sem hesitação, como primeira opção. É muito mais fácil bombardear a casa de uma família. O sistema é projetado para encontrá-los nessas situações”.

A máquina Lavender se une a outro sistema de IA, “The Gospel” [O Evangelho], sobre o qual informações foram reveladas em uma investigação anterior da +972 e do Local Call em novembro de 2023, assim como nas próprias publicações do exército israelense. Uma diferença fundamental entre os dois sistemas está na definição do alvo: enquanto The Gospel marca os prédios e estruturas dos quais, segundo o exército, os militantes operam, Lavender marca as pessoas e as coloca em uma lista negra.

Além disso, segundo as fontes, quando se tratava de atacar supostos militantes subalternos marcados por Lavender, o exército preferia usar apenas mísseis não guiados, comumente conhecidos como bombas “burras” (em contraste com as bombas de precisão “inteligentes”), que podem destruir prédios inteiros com seus ocupantes e causar um número significativo de baixas. “Não é conveniente desperdiçar bombas caras em pessoas sem importância; é muito caro para o país e há escassez [dessas bombas]”, disse C., um dos agentes dos serviços de inteligência. Outra fonte disse que tinham autorizado pessoalmente o bombardeio de “centenas” de casas particulares de supostos militantes subalternos marcados por Lavender, e que em muitos desses ataques morreram civis e famílias inteiras, que classificavam como “danos cola terais”. 

Em uma medida sem precedentes, segundo duas das fontes, durante as primeiras semanas da guerra, o exército também decidiu que, para cada militante subalterno do Hamas marcado por Lavenderera permitido matar até 15 ou 20 civis; no passado, os militares não autorizavam nenhum “dano colateral” durante os assassinatos de militantes de baixo escalão. As fontes acrescentaram que, no caso de o alvo ser um alto membro do Hamas com posto de comandante de batalhão ou brigada, o exército autorizou em várias ocasiões a morte de mais de 100 civis no assassinato de um único comandante.

A seguinte investigação está organizada em ordem cronológica de acordo com as seis etapas da produção altamente automatizada de alvos pelo exército israelense durante as primeiras semanas da guerra de GazaPrimeiro, explicamos o que é a máquina Lavender, que marcava como alvo dezenas de milhares de palestinos usando IA. Em segundo lugar, revelamos o funcionamento do sistema “Onde está papai?“, que rastreava esses alvos e avisava o exército quando entravam em suas casas familiares. Em terceiro lugar, descrevemos como as bombas “burras” foram escolhidas para atacar essas casas.

Em quarto lugar, explicamos como o exército flexibilizou o número permitido de civis que poderiam morrer durante o bombardeio de um alvo. Em quinto lugar, apontamos como o software automatizado calculava de forma imprecisa a quantidade de não combatentes em cada lar. E em sexto lugar, mostramos como, em várias ocasiões, quando uma casa era atacada, geralmente à noite, o alvo individual às vezes não estava presente porque o pessoal militar não verificava as informações em tempo real.

Passo 1: geração de objetivos

“Assim que é automatizada, a geração de alvos enlouquece”

No passado, no exército israelense, o termo “alvo humano” se referia a um agente militar de alto escalão que, de acordo com as regras do Departamento de Direito Internacional do exército, poderia ser morto em sua residência privada mesmo se houvesse civis por perto. Fontes dos serviços de inteligência disseram à +972 e ao Local Call que, durante guerras anteriores de Israel, dado que era uma forma “especialmente brutal” de matar alguém – na qual muitas vezes toda uma família era morta junto com o alvo – tais alvos humanos eram marcados com muito cuidado e apenas altos comandantes militares em suas casas eram bombardeados para manter o princípio de proporcionalidade previsto no direito internacional.

Mas após 7 de outubro – quando militantes liderados pelo Hamas lançaram um ataque mortal contra as comunidades do sul de Israel, matando cerca de 1.200 pessoas e sequestrando 240 – o exército, segundo as fontes, adotou uma abordagem radicalmente diferente. No âmbito da “Operação Espadas de Ferro“, o exército decidiu marcar todos os agentes do braço militar do Hamas como alvos humanos, independentemente de seu escalão ou importância militar. E isso mudou tudo.

A nova política também apresentou um problema técnico para os serviços de inteligência israelenses. Em guerras anteriores, para autorizar o assassinato de um único alvo humano, um oficial precisava passar por um processo complexo e demorado de “incriminação”: verificar se a pessoa era de fato um membro de alto escalão do braço militar do Hamas, descobrir onde morava, suas informações de contato e, finalmente, saber quando estava em casa em tempo real. Quando a lista de alvos tinha apenas algumas dezenas de altos comandantes, o pessoal dos serviços de inteligência poderia lidar individualmente com o trabalho dedicado a incriminá-los e localizá-los.

No entanto, uma vez que a lista foi ampliada e incluiu dezenas de milhares de agentes de escalão inferior, o exército israelense achou que precisava confiar em software automatizado e inteligência artificial. O resultado, testemunham as fontes, foi que o papel do pessoal humano na incriminação de combatentes palestinos foi descartado e, em seu lugar, a IA fez a maior parte do trabalho. Segundo quatro das fontes que falaram com a +972 e o Local Call, Lavender – que foi desenvolvido para criar alvos humanos na guerra atual – marcou cerca de 37.000 palestinos como supostos “militantes do Hamas”, a maioria deles de escalão inferior, para serem assassinados (o porta-voz das FDI negou a existência de tal lista de alvos em uma declaração enviada à +972 e ao Local Call).

“Não sabíamos quem eram os agentes de escalão inferior porque Israel não os rastreava rotineiramente [antes da guerra]”, explicou o oficial superior B. à +972 e ao Local Call para esclarecer o motivo do desenvolvimento dessa máquina geradora de alvos específica para a guerra atual. “Eles queriam nos permitir atacar [os agentes de escalão inferior] automaticamente. Isso é o Santo Graal. Assim que é automatizada, a geração de alvos fica louca”.

As fontes disseram que a aprovação para assumir automaticamente as listas negras do Lavender, que anteriormente eram usadas apenas como ferramenta auxiliar, ocorreu aproximadamente duas semanas após o início da guerra, depois que o pessoal dos serviços de inteligência “manualmente” verificou a precisão de uma amostra aleatória de várias centenas de alvos selecionados pelo sistema de IA. Quando essa amostra descobriu que os resultados do Lavender haviam alcançado 90% de precisão na identificação de pessoas que pertenciam ao Hamas, o exército autorizou o uso generalizado do sistema. A partir desse momento, as fontes disseram que se o Lavender decidisse que um indivíduo era um militante do Hamas, essencialmente era solicitado a eles que o tratassem como uma ordem, sem a necessidade de verificar independentemente por que a máquina tomava essa decisão ou de examinar as informações não processadas em que se baseava.

“Às 5 da manhã, [as forças aéreas] chegavam e bombardeavam todas as casas que tínhamos marcado”, disse B. “Eliminamos milhares de pessoas. Não os revisávamos um por um: colocamos tudo em sistemas automatizados, e assim que um [dos indivíduos marcados] estava em casa, imediatamente se tornava um alvo. Bombardeávamos ele e sua casa”.

“Fiquei muito surpreso quando nos pediram para bombardear uma casa para matar um soldado terrestre, cuja importância no combate era tão baixa”, disse uma fonte sobre o uso de IA para marcar supostos militantes de escalão inferior. “A esses alvos eu chamei de ‘alvos lixo’. Ainda assim, me parecia mais ético do que os alvos que bombardeamos apenas por ‘dissuasão’: arranha-céus evacuados e derrubados apenas para causar destruição”.

Os resultados mortais dessa flexibilização das restrições na primeira fase da guerra foram impressionantes. De acordo com dados do Ministério da Saúde palestino em Gaza, do qual o exército israelense dependeu quase exclusivamente desde o início da guerra, Israel matou cerca de 15.000 palestinos – quase metade do número de mortos até o momento – nas primeiras seis semanas da guerra, até que um cessar-fogo de uma semana foi acordado em 24 de novembro. 

“Quanto mais informação e variedade, melhor”

O software Lavender analisa as informações coletadas sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza através de um sistema de vigilância em massa e, em seguida, avalia e classifica a probabilidade de cada pessoa em particular pertencer ao braço armado do Hamas ou à Jihad Islâmica Palestina. Segundo as fontes, a máquina atribui a quase todas as pessoas de Gaza uma pontuação de 1 a 100 para expressar a probabilidade de serem militantes.

As fontes explicaram que o Lavender aprende a identificar as características dos agentes conhecidos do Hamas e da Jihad Islâmica Palestina, cujas informações foram introduzidas na máquina como dados de treinamento, e então localiza essas mesmas características – também chamadas de “traços” – entre a população em geral. Um indivíduo que tenha várias características incriminatórias diferentes alcançará uma pontuação alta e, portanto, automaticamente se tornará um possível alvo de assassinato.

Em The Human-Machine Team, o livro referenciado no início deste artigo, o atual comandante da Unidade 8200 defende um sistema desse tipo sem se referir ao Lavender pelo nome. (O próprio comandante também não é nomeado, mas cinco fontes da 8200 confirmaram que o comandante é o autor, como também foi relatado pelo Haaretz). Ao descrever o pessoal humano como um “obstáculo” que limita a capacidade do exército durante uma operação militar, o comandante lamenta: “Nós [humanos] não podemos processar tanta informação. Não importa quantas pessoas tenham sido designadas para gerar alvos durante a guerra: você ainda não gerará alvos suficientes por dia”.

A solução para esse problema, afirma ele, é a inteligência artificial. O livro oferece um breve guia para construir uma “máquina de alvos”, semelhante em descrição ao Lavender, baseada em IA e algoritmos de aprendizado de máquina. Este guia inclui vários exemplos das “centenas e milhares” de características que podem aumentar a pontuação de um indivíduo, como fazer parte de um grupo de Whatsapp com um militante conhecido, trocar de celular a cada poucos meses e mudar de endereço com frequência.

“Quanto mais informação e variedade, melhor”, escreve o comandante. “Informação visual, informações do celular, conexões em redes sociais, informações do campo de batalha, contatos telefônicos, fotografias”. Embora inicialmente sejam os humanos que selecionam essas características, continua o comandante, com o tempo a máquina aprenderá a identificar as características por si mesma. Isso, diz ele, pode permitir que os militares criem “dezenas de milhares de alvos”, enquanto a decisão real de atacá-los ou não continuará sendo uma decisão humana.

O livro não é a única ocasião em que um alto escalão israelense sugere a existência de máquinas geradoras de alvos humanos como o Lavender. +972 e o Local Call obtiveram imagens de uma conferência privada ministrada em 2023 pelo comandante do discreto Centro de Ciência de Dados e Inteligência Artificial da Unidade 8200, o “coronel Yoav”, na Semana de IA da Universidade de Tel Aviv, conforme relatado na época pela mídia israelense.

Na conferência, o comandante fala sobre uma nova e sofisticada máquina geradora de alvos usada pelo exército israelense que detecta “pessoas perigosas” com base em sua semelhança com as listas existentes de militantes conhecidos sobre as quais foi treinada. “Usando o sistema, conseguimos identificar os comandantes dos esquadrões de mísseis do Hamas”, disse o “coronel Yoav” na conferência, referindo-se à operação militar israelense de maio de 2021 em Gaza, quando a máquina foi usada pela primeira vez.

Os slides apresentados na conferência, também obtidos por +972 e Local Call, contêm ilustrações do funcionamento da máquina: dados sobre os agentes existentes do Hamas são fornecidos, ela aprende a observar seus traços e depois classifica outros palestinos com base em sua semelhança com os militantes.

“Classificamos os resultados e determinamos o limite [a partir do qual atacar um alvo]”, afirmou o “coronel Yoav” na conferência, enfatizando que “no final, as decisões são tomadas por pessoas de carne e osso. No campo da defesa, eticamente falando, colocamos muito ênfase nisso. Essas ferramentas destinam-se a ajudar [os agentes dos serviços de inteligência] a superar suas barreiras”.

No entanto, na prática, as fontes que utilizaram o Lavender nos últimos meses afirmam que a mediação humana e a precisão foram substituídas pela criação massiva de alvos e letalidade.

“Não havia uma política de ‘erro zero’”

B., um oficial de alto escalão que usou o Lavender, reiterou ao +972 e ao Local Call que, na guerra atual, os oficiais não eram obrigados a revisar independentemente as avaliações do sistema de IA para economizar tempo e permitir a produção em massa e sem obstáculos de alvos humanos.

“Tudo era estatístico, tudo estava ordenado, era muito seco”, disse B. Ele apontou que essa falta de supervisão era permitida apesar dos controles internos mostrarem que os cálculos do Lavender eram considerados precisos apenas 90% das vezes; em outras palavras, sabia-se de antemão que 10% dos alvos humanos programados para serem assassinados não eram membros do braço armado do Hamas.

Por exemplo, as fontes explicaram que o Lavender às vezes marcava erroneamente pessoas que tinham padrões de comunicação semelhantes aos de agentes conhecidos do Hamas ou da Jihad Islâmica na Palestina, incluindo pessoal da polícia e defesa civil, familiares de militantes, residentes que casualmente tinham um nome e apelido idênticos aos de um agente, e habitantes de Gaza que usavam um dispositivo que tinha pertencido a um agente do Hamas.

“Até que ponto uma pessoa precisa estar associada ao Hamas para que uma máquina de serviços de inteligência artificial a considere membro da organização?”, questionou uma fonte crítica à imprecisão do Lavender. “É uma fronteira imprecisa. Uma pessoa que não recebe salário do Hamas, mas os ajuda em várias coisas, é um agente do Hamas? Alguém que já esteve no Hamas no passado, mas não está mais hoje, é um agente do Hamas? Cada uma dessas especificações – características que uma máquina consideraria suspeitas – é imprecisa”.

Existem problemas semelhantes com a capacidade das máquinas geradoras de alvos de avaliar o telefone usado por uma pessoa marcada para ser assassinada. “Durante a guerra, os palestinos mudam de telefone continuamente”, disse a fonte. “As pessoas perdem contato com suas famílias, passam o telefone para um amigo ou para a esposa e talvez o percam. Não há como confiar 100% no mecanismo automático que determina a quem pertence um número [de telefone]”.

Segundo as fontes, o exército sabia que a mínima supervisão humana estabelecida não descobriria essas falhas. “Não havia uma política de ‘zero erros’. Os erros eram tratados estatisticamente”, disse uma fonte que usou o Lavender. “Devido ao alcance e magnitude da situação, o protocolo era que mesmo que não estivesse claro se a máquina estava certa, sabia-se que estatisticamente estava. Então, era feito”.

“Isso provou sua eficácia”, afirma B., a fonte principal. “Há algo no enfoque estatístico que te prende a uma determinada norma e padrão. Houve uma quantidade ilógica [de bombardeios] nesta operação. Não me lembro de algo semelhante em toda a minha vida. E confio muito mais em um mecanismo estatístico do que em um soldado que perdeu um amigo dois dias atrás. Todos nós, inclusive eu, perdemos pessoas em 7 de outubro. A máquina funcionava friamente. E isso facilitou”.

Outra fonte dos serviços de inteligência, que defendeu a confiança nas listas de assassinatos de suspeitos palestinos geradas pelo Lavender, argumentou que só valia a pena investir o tempo de um agente dos serviços de inteligência para verificar as informações se o alvo fosse um alto escalão do Hamas. “Mas quando se trata de um militante de baixo escalão, não vale a pena investir tempo nem pessoal nisso”, disse. “Na guerra, não há tempo para incriminar todos os alvos. Então você está disposto a assumir a margem de erro ao usar inteligência artificial, correr o risco de haver danos colaterais e civis mortos, e atacar por engano e viver com isso”.

B. disse que a razão para essa automação era o impulso constante de gerar mais alvos para assassinar. “Em um dia sem alvos [com uma pontuação de qualificação suficiente para autorizar um ataque], atacávamos com um critério mais baixo. Éramos pressionados constantemente: ‘Traga mais alvos’. Éramos muito cobrados. Acabávamos com [a vida dos] nossos alvos muito rapidamente”.

Ele explicou que ao reduzir o critério de qualificação do Lavender, mais pessoas eram marcadas como alvos dos ataques. “No auge, o sistema conseguiu gerar 37.000 pessoas como potenciais alvos humanos”, disse B. “Mas os números mudavam o tempo todo, porque depende de onde você coloca a barra para o que é um agente do Hamas. Houve momentos em que a definição de um agente do Hamas era mais ampla, e assim, a máquina começava a nos trazer todo tipo de pessoal da defesa civil, policiais, com os quais seria uma pena desperdiçar bombas. Eles ajudam o governo do Hamas, mas na verdade não representam perigo para os soldados”.

Uma fonte que trabalhou com a equipe científica de dados militares que treinou o Lavender disse que os dados coletados dos funcionários do Ministério de Segurança Interna liderado pelo Hamas foram introduzidos na máquina, embora não sejam considerados militantes. “Fiquei incomodado pelo fato de, ao treinar o Lavender, usarem o termo ‘agente do Hamas‘ de maneira imprecisa e incluírem pessoas que eram trabalhadoras da defesa civil no conjunto de dados de treinamento”, disse.

A fonte acrescentou que, mesmo que alguém acredite que essas pessoas mereçam ser assassinadas, treinar o sistema com base em seus perfis de comunicação tornou mais provável que o Lavender selecionasse civis por engano quando seus algoritmos fossem aplicados à população em geral. “Por ser um sistema automático não operado manualmente por humanos, o significado dessa decisão é dramático: significa que muitas pessoas com um perfil de comunicação civil são incluídas como potenciais alvos”.

“Nós só verificamos se o alvo é um homem”

O exército israelense rejeita veementemente essas afirmações. Em uma declaração ao +972 e ao Local Call, o porta-voz das Forças de Defesa de Israel negou o uso de serviços de inteligência artificial com o propósito de incriminar alvos, dizendo que são apenas “ferramentas auxiliares que ajudam os oficiais no processo de incriminação”. A declaração continuava: “Em qualquer caso, é necessária uma avaliação independente por parte de um analista [do serviço de inteligência], que verifique a legitimidade de atacar os alvos identificados de acordo com as condições estabelecidas nas diretrizes das FDI e no direito internacional”.

No entanto, as fontes afirmaram que o único protocolo de supervisão humana aplicado antes de bombardear as casas dos supostos militantes “subalternos” marcados pela Lavender consistia em fazer uma única verificação: garantir que o alvo selecionado pela IA fosse um homem e não uma mulher. No exército, partia-se do pressuposto de que, se o alvo fosse uma mulher, provavelmente a máquina havia cometido um erro, porque não há mulheres entre as fileiras do braço militar do Hamas e da Jihad Islâmica.

“Um ser humano tinha que fazer isso [verificar o alvo] em apenas alguns segundos”, disse B., explicando que isso se tornou o protocolo depois de perceberem que o sistema Lavender “acertava” a maioria das vezes. “No início, fazíamos verificações para garantir que a máquina não se confundisse. Mas, em certo ponto, confiamos no sistema automático e só verificamos se [o alvo] era um homem, isso bastava. Não demora muito para saber se alguém tem voz de homem ou de mulher”.

Para realizar a verificação homem/mulher, B. afirmou que, na guerra atual, “nessa fase, gastava 20 segundos para cada alvo e fazia dezenas por dia. Não contribuía em nada como humano, além de ser um selo de aprovação. Isso economizava muito tempo. Se [o alvo] aparecesse no mecanismo automatizado e eu verificasse que era um homem, havia permissão para bombardeá-lo, após a avaliação dos danos colaterais”.

Na prática, de acordo com as fontes, isso significava que para os homens civis marcados por engano pela Lavender, não havia nenhum mecanismo de supervisão para detectar esse erro. Segundo B., um erro comum ocorria “se o alvo [do Hamas] desse [seu telefone] ao filho, ao irmão mais velho ou simplesmente a um homem aleatório. Essa pessoa seria bombardeada em sua casa com sua família. Isso aconteceu com frequência. Esses foram a maioria dos erros causados pela Lavender”, disse B.

Passo 2: Vinculação de objetivos com lares familiares

“A maioria das pessoas que você matou eram mulheres e crianças”

A próxima etapa no procedimento de assassinato do exército israelense consiste em identificar onde atacar os alvos gerados pelo Lavender.

Em uma declaração ao +972 e ao Local Call, o porta-voz das FDI afirmou em resposta a este artigo que “o Hamas coloca seus agentes e ativos militares no coração da população civil, usa sistematicamente a população civil como escudos humanos e conduz combates de dentro de edifícios civis, incluindo locais vulneráveis como hospitais, mesquitas, escolas e instalações da ONU. As FDI estão sujeitas ao direito internacional e agem de acordo com ele, dirigindo seus ataques apenas contra alvos militares e operacionais militares”.

As seis fontes com as quais conversamos, até certo ponto, repetiram isso ao dizer que o extenso sistema de túneis do Hamas passa deliberadamente por baixo de hospitais e escolas; que os militantes do Hamas usam ambulâncias para se deslocar; e que inúmeros ativos militares foram posicionados perto de edifícios civis. As fontes argumentaram que muitos ataques israelenses matam civis como resultado dessas táticas do Hamas, uma caracterização que, de acordo com os grupos de direitos humanos, evita a responsabilidade de Israel pelas baixas.

No entanto, em contraste com as declarações oficiais do exército israelense, as fontes explicaram que uma das principais razões para o número sem precedentes de vítimas mortais causadas pelos bombardeios atuais de Israel é o fato de o exército ter atacado sistematicamente alvos em seus lares junto com suas famílias – em parte porque, do ponto de vista dos serviços de inteligência, era mais fácil marcar as casas familiares usando sistemas automatizados -.

Na verdade, várias fontes enfatizaram que, ao contrário dos inúmeros casos de operações do Hamas que participavam de atividades militares em áreas civis, no caso dos ataques letais sistemáticos, o exército rotineiramente tomava a decisão ativa de bombardear suspeitos militantes quando estavam dentro de lares civis onde não ocorria nenhuma atividade militar. Esta escolha, disseram, refletia a maneira como o sistema israelense de vigilância em massa em Gaza estava projetado.

As fontes disseram ao +972 e ao Local Call que, como todos em Gaza tinham uma casa particular com a qual podiam ser associados, os sistemas de vigilância do exército podiam “vincular” facilmente e automaticamente as pessoas com as casas familiares. Para identificar em tempo real quando os agentes entravam em suas casas, vários softwares automáticos adicionais foram desenvolvidos. Esses programas rastreiam milhares de pessoas simultaneamente, identificam quando estão em casa e enviam um alerta automático ao oficial encarregado de marcar os alvos, que então marca a casa para ser bombardeada. Um dos vários desses softwares de rastreamento, cuja existência foi revelada pela revista +972, é chamado de “Onde está papai?“. 

“Você coloca centenas [de alvos] no sistema e espera para ver quem pode matar”, disse uma fonte que conhecia o sistema. “Isso é chamado de busca ampla: você copia e cola as listas geradas pelo sistema de alvos”.

Os dados também mostram claramente essa política: durante o primeiro mês da guerra, mais da metade das vítimas fatais – 6.120 pessoas – pertenciam a 1.340 famílias, muitas das quais foram totalmente exterminadas quando estavam dentro de suas casas, de acordo com números da ONU. A proporção de famílias inteiras bombardeadas em suas casas na guerra atual é muito maior do que na operação israelense de 2014 em Gaza (que anteriormente foi a guerra mais mortal de Israel na Faixa), o que sugere ainda mais a proeminência dessa política.

Outra fonte disse que toda vez que o ritmo dos assassinatos diminuía, mais alvos eram adicionados a sistemas como “Onde está papai?” para localizar pessoas que entravam em suas casas e, portanto, poderiam ser bombardeadas. Ele afirmou que a decisão de quem incluir nos sistemas de rastreamento poderia ser tomada por oficiais de baixo escalão na hierarquia militar.

“Um dia, totalmente por minha conta, adicionei cerca de 1.200 novos alvos ao sistema [de rastreamento], porque o número de ataques [que estávamos realizando] diminuiu”, disse a fonte. “Para mim, isso fez sentido. Em retrospectiva, acho que tomei uma decisão muito importante. E essas decisões não eram tomadas em níveis elevados”.

As fontes disseram que nas duas primeiras semanas da guerra, inicialmente “vários milhares” de alvos foram introduzidos em programas de localização como “Onde está papai?“. Entre eles estavam todos os membros da unidade de elite das forças especiais do Hamas, a Nukhba, todos os operadores anti-tanque do Hamas e qualquer pessoa que tivesse entrado em Israel em 7 de outubro. Mas logo a lista de mortos se expandiu drasticamente.

“No final, eram todos [marcados pelo Lavender]”, explicou uma fonte. “Dezenas de milhares. Isso aconteceu algumas semanas depois, quando as brigadas [israelenses] entraram em Gaza e já havia menos pessoas não envolvidas [ou seja, civis] nas áreas do norte”. Segundo esta fonte, o Lavender até marcou alguns menores como alvos dos bombardeios. “Normalmente, os combatentes têm mais de 17 anos, mas isso não era uma condição”.

Assim, o Lavender e sistemas como “Onde está papai?” se combinavam com consequências letais que matavam famílias inteiras, segundo as fontes. Ao adicionar ao sistema de rastreamento domiciliar “Onde está papai?” um nome das listas geradas pelo Lavender, explicou A., a pessoa marcada ficava sob vigilância constante e poderia ser atacada assim que entrasse em sua casa, e a casa era destruída com todos que estivessem dentro.

“Digamos que se calcula [que há um agente militar do] Hamas mais 10 [civis na casa]”, explicou A.. “Geralmente, esses 10 serão mulheres e crianças. Assim, absurdamente, a maioria das pessoas que você matou eram mulheres e crianças”.

Passo 3: Escolha da arma

“Normalmente realizávamos os ataques com ‘bombas burras’”

No momento em que o Lavender marcava um alvo para assassinato, o pessoal do exército verificava que se tratava de homens e o software de rastreamento localizava o alvo em casa, a próxima fase era escolher a munição com a qual bombardeá-los.

Em dezembro de 2023, a CNN informou que, segundo estimativas dos serviços de inteligência dos Estados Unidos, cerca de 45% das munições utilizadas pelas forças aéreas israelenses em Gaza eram bombas “burras”, conhecidas por causarem mais danos colaterais do que as bombas guiadas. Em resposta ao relatório da CNN, um porta-voz do exército citado no artigo disse: “Como militares comprometidos com o direito internacional e com um código moral de conduta, estamos dedicando recursos consideráveis para minimizar os danos aos civis aos quais o Hamas obrigou a assumir o papel de escudos humanos. Nossa guerra é contra o Hamas, não contra o povo de Gaza”.

No entanto, três fontes dos serviços de inteligência disseram ao +972 e ao Local Call que os combatentes de menor patente marcados pelo Lavender eram mortos apenas com bombas burras para economizar munição mais cara. A conclusão, explicou uma fonte, era que o exército não atacaria um alvo de menor importância se ele morasse em um prédio alto porque o exército não queria gastar uma “bomba para destruir um andar” (com um efeito colateral mais limitado), mais precisa e cara, para matá-lo. No entanto, se um alvo de menor importância morasse em um prédio de poucos andares, o exército estava autorizado a matá-lo e a todos no prédio com uma bomba burra.

Isso aconteceu com todos os alvos de menor importância”, testemunhou C., que usou vários programas automatizados na guerra atual. “A única pergunta era: é possível atacar o prédio levando em conta os danos colaterais? Porque normalmente realizávamos os ataques com bombas burras, o que significava literalmente destruir toda a casa sobre os ocupantes. Mas mesmo se evitássemos um ataque, tanto faz: imediatamente passávamos para o próximo alvo. Graças ao sistema, os alvos nunca acabavam. Você tem outros 36.000 esperando”.

Passo 4: Autorização de baixas civis

“Atacamos sem quase levar em conta os danos colaterais”

Uma fonte afirmou que ao atacar agentes de patente inferior, incluindo aqueles marcados por sistemas de inteligência artificial como o Lavender, o número de civis que lhes era permitido matar junto com cada alvo foi estabelecido, durante as primeiras semanas da guerra, em 20. Outra fonte afirmou que o número fixado era de 15. Esses “limites de danos colaterais”, como os chamam os militares, eram aplicados de forma generalizada a todos os supostos militantes subalternos, disseram as fontes, independentemente de sua patente, importância militar e idade, e sem qualquer análise específica de cada caso para ponderar a vantagem militar de matá-los em relação ao dano que poderia causar à população civil.

Segundo A., que foi oficial em uma sala de operações de alvos na guerra atual, o departamento de direito internacional do exército nunca antes havia dado uma “aprovação tão ampla” a um limite tão alto de danos colaterais. “Não se trata apenas de poder matar qualquer pessoa que seja soldado do Hamas, o que está claramente permitido e é legítimo em termos de direito internacional”, disse A.. “Mas eles te dizem diretamente: ‘Você pode matá-los junto com muitos civis’”.

“Cada pessoa que vestisse uniforme do Hamas nos últimos um ou dois anos poderia ser bombardeada junto com 20 civis mortos como danos colaterais, mesmo sem uma permissão especial”, continuou A.. “Na prática, o princípio da proporcionalidade não existia”.

Segundo A., esta foi a política durante a maior parte do tempo em que esteve no cargo. Somente mais tarde, os militares reduziram o limite de danos colaterais. “Nesse cálculo, também poderiam ser 20 crianças para um agente militar de patente inferior… Não era assim no passado”, explicou A.. Quando perguntado sobre os motivos de segurança dessa política, A. respondeu: “Letalidade”.

O limite predefinido e fixo de danos colaterais ajudou a acelerar a criação massiva de alvos usando a máquina Lavender, disseram as fontes, porque economizou tempo. B. afirmou que o número de civis que lhes era permitido matar na primeira semana de guerra para cada suposto militante subalterno marcado pela IA era de quinze, mas com o tempo, esse número “subia e descia”.

“No começo, atacávamos quase sem levar em conta os danos colaterais”, disse B. sobre a primeira semana após 7 de outubro. “Na prática, realmente não se contavam as pessoas [em cada casa que foi bombardeada] porque na verdade não se podia saber se estavam em casa ou não. Após uma semana, começaram as restrições aos danos colaterais. O número caiu [de 15] para cinco, o que dificultou muito nossos ataques porque se toda a família estivesse em casa, não poderíamos bombardeá-la. Depois o número subiu novamente”. 

“Sabíamos que mataríamos a mais de 100 civis”

As fontes informaram ao +972 e ao Local Call que agora, em parte devido à pressão dos Estados Unidos, o exército israelense não gera mais em massa alvos humanos de patente inferior suscetíveis a serem bombardeados em residências civis. O fato de que a maioria das residências na Faixa de Gaza já tenha sido destruída ou danificada, e que quase toda a população tenha sido deslocada, também afetou a capacidade do exército de confiar nas bases de dados dos serviços de inteligência e nos programas automatizados de localização de residências.

E. afirmou que os bombardeios em massa de militantes de patente inferior ocorreram apenas na primeira ou segunda semana da guerra e depois pararam principalmente para não desperdiçar bombas. “Há uma economia de munições”, afirmou E. “Eles sempre temiam que houvesse [uma guerra] no norte [com o Hezbollah no Líbano]. Eles não atacam mais esse tipo de pessoas [de patente inferior]”.

No entanto, os ataques aéreos contra comandantes de alto escalão do Hamas persistem, e as fontes disseram que, para esses ataques, o exército está autorizando o assassinato de “centenas” de civis por alvo, uma política oficial para a qual não há precedente histórico em Israel e nem mesmo nas recentes operações militares dos Estados Unidos.

“No bombardeio do comandante do Batalhão Shuja’iya, sabíamos que mataríamos a mais de 100 civis”, recordou B. sobre um bombardeio que ocorreu em 2 de dezembro, que, segundo o porta-voz das FDI, visava assassinar Wisam Farhat. “Para mim, psicologicamente, foi estranho. Mais de 100 civis: cruzamos uma linha vermelha”.

Amjad Al-Sheikh, um jovem palestino de Gaza, disse que muitos de seus familiares morreram nesse bombardeio. Residente de Shuja’iya, a leste da cidade de Gaza, ele estava em um supermercado local quando ouviu cinco explosões que estilhaçaram as janelas.

“Corri para a casa da minha família, mas não havia mais prédios”, disse Al-Sheikh ao +972 e ao Local Call. “A rua ficou cheia de gritos e fumaça. Blocos residenciais inteiros se tornaram montanhas de escombros e buracos profundos. As pessoas começaram a procurar nos escombros com as mãos, e eu também, procurando sinais da casa da minha família”.

A esposa e a filha pequena de Al-Sheikh sobreviveram — protegidas dos escombros por um armário que caiu sobre elas — mas ele encontrou outros 11 membros de sua família, incluindo irmãs, irmãos e seus filhos pequenos, mortos sob os escombros. Segundo o grupo de direitos humanos B’Tselem, o bombardeio naquele dia destruiu dezenas de prédios, matou dezenas de pessoas e enterrou centenas sob os escombros de suas casas.

“Famílias inteiras assassinadas”

Fontes dos serviços de inteligência informaram ao +972 e Local Call que participaram de ataques ainda mais mortais. Para assassinar Ayman Nofal, comandante da Brigada Central de Gaza do Hamas, uma fonte declarou que o exército autorizou o assassinato de aproximadamente 300 civis e a destruição de vários prédios em ataques aéreos contra o campo de refugiados de Al-Bureij em 17 de outubro, baseando-se em uma localização imprecisa de Nofal. Imagens de satélite e vídeos do local mostram a destruição de vários grandes prédios residenciais de várias histórias.

“No ataque, entre 16 e 18 casas foram destruídas”, disse Amro Al-Khatib, residente do campo, ao +972 e Local Call. “Não conseguíamos distinguir um andar do outro; todos ficaram misturados entre os destroços e encontramos partes de corpos humanos por toda parte”.

Depois, Al-Khatib lembrou que cerca de 50 cadáveres e cerca de 200 pessoas feridas foram retiradas dos destroços, muitas delas gravemente. Mas isso foi apenas no primeiro dia. Os residentes do campo passaram cinco dias retirando os mortos e feridos, disse.

Nael Al-Bahisi, socorrista, foi um dos primeiros a chegar. Ele contou entre 50 e 70 vítimas naquele primeiro dia. “Em determinado momento, percebemos que o alvo do ataque era o comandante do Hamas Ayman Nofal”, disse ao +972 e ao Local Call. “Eles o mataram e também muitas pessoas que não sabiam que Ayman Nofal estava lá. Famílias inteiras com crianças foram mortas”.

Outra fonte dos serviços de inteligência disse ao +972 e ao Local Call que o exército destruiu um prédio alto em Rafah em meados de dezembro, no qual matou “dezenas de civis” ao tentar assassinar Mohammed Shabaneh, comandante da Brigada Rafah do Hamas (não está claro se ele morreu ou não no ataque). Muitas vezes, disse a fonte, os comandantes se escondem em túneis que passam por baixo de prédios civis, então a decisão de assassiná-los com um ataque aéreo necessariamente mata civis.

“A maioria dos feridos eram crianças”, disse Wael Al-Sir, 55 anos, que testemunhou o grande ataque que alguns moradores de Gaza consideram ser uma tentativa de assassinato. Wael Al-Sir disse ao +972 e ao Local Call que o bombardeio de 20 de dezembro destruiu um “bloco de residências inteiro” e matou pelo menos 10 crianças.

“Havia uma política absolutamente tolerante em relação às vítimas das operações [de bombardeio], tão tolerante que, na minha opinião, tinha um ponto de vingança”, afirmou D., uma fonte dos serviços de inteligência. “O objetivo era o assassinato de altos comandantes [do Hamas e da Jihad Islâmica na Palestina] pelos quais estavam dispostos a matar centenas de civis. Fizemos um cálculo: quantos por comandante de brigada, quantos por comandante de batalhão, etc.”

“Havia regras, mas eram muito tolerantes”, disse E., outra fonte dos serviços de inteligência. “Matamos pessoas com danos colaterais de dois dígitos, se não de três dígitos. Coisas que não tinham acontecido antes”.

Um índice tão alto de “danos colaterais” é excepcional não apenas em comparação com o que o exército israelense considerava aceitável anteriormente, mas também em comparação com as guerras travadas pelos Estados Unidos no Iraque, Síria e Afeganistão.

O general Peter Gersten, vice-comandante de Operações e Inteligência na operação de combate ao ISIS no Iraque e na Síria, em 2021, declarou a uma revista de defesa dos EUA que um ataque com danos colaterais de 15 civis estava fora de procedimento; para realizá-lo, ele teve que obter uma permissão especial do chefe do Comando Central dos EUA, o general Lloyd Austin, hoje secretário de Defesa.

“No caso de Osama Bin Laden, o valor das baixas de não combatentes [NCV, em inglês] era de 30, mas se fosse um comandante de baixo escalão, o NCV normalmente era zero”, explicou Gersten. “Manuseamos zero por muito tempo”.

“Nos diziam: ‘Sempre que puderem, bombardeiem’”

Todas as fontes entrevistadas para esta investigação afirmaram que os massacres do Hamas em 7 de outubro e o sequestro de reféns influenciaram muito na política de abrir fogo do exército e nos limites de danos colaterais. “No início, o ambiente era dilacerante e vingativo”, disse B., que foi recrutado pelo exército imediatamente após 7 de outubro e serviu em uma sala de operações de alvos. “As regras eram muito tolerantes. Derrubaram quatro prédios quando sabiam que o alvo estava em um deles. Era uma loucura”.

“Havia uma discordância: por um lado, as pessoas estavam frustradas porque não estávamos atacando o suficiente”, continuou B. “Por outro lado, no final do dia, você via que outros mil habitantes de Gaza haviam morrido, a maioria civis”.

“Nas fileiras profissionais, havia histeria”, disse D., que também foi recrutado imediatamente após 7 de outubro. “Eles não tinham ideia de como reagir. A única coisa que sabiam fazer era começar a bombardear como loucos para tentar desarticular o potencial do Hamas”.

D. enfatizou que não lhes foi dito explicitamente que o objetivo do exército era a “vingança”, mas expressou que “no momento em que cada alvo relacionado ao Hamas é legitimado e quase qualquer dano colateral é aprovado, fica claro que milhares de pessoas serão mortas. Mesmo que oficialmente todos os alvos estejam conectados ao Hamas, quando a política é tão tolerante, perde todo o sentido”.

A. também usou a palavra “vingança” para descrever o clima dentro do exército após 7 de outubro. “Ninguém pensou no que deveria ser feito depois, quando a guerra acabasse, nem em como seria possível viver em Gaza e o que fariam com isso”, disse A. “Nos disseram: agora temos que ferrar com o Hamas, custe o que custar. Sempre que puderem, bombardeiem”.

B., a principal fonte dos serviços de inteligência, disse que, em retrospecto, acredita que essa política “desproporcional” de matar palestinos em Gaza também coloca em perigo os israelenses, e que esta foi uma das razões pelas quais decidiu ser entrevistado.

“A curto prazo, estamos mais seguros porque prejudicamos o Hamas. Mas acredito que, a longo prazo, estamos menos seguros. Vejo que nas famílias desoladas de Gaza – que são quase todas – os motivos para se juntar ao Hamas aumentarão em 10 anos. E será muito mais fácil [para o Hamas] recrutá-los”.

Em uma declaração ao +972 e ao Local Call, o exército israelense negou grande parte do que nos disseram as fontes e afirmou que “cada alvo é examinado individualmente, ao mesmo tempo em que é feita uma avaliação individual da vantagem militar e dos danos colaterais esperados do ataque… As IDF não realizam ataques quando os danos colaterais esperados do ataque são excessivos em relação à vantagem militar”.

Passo 5: Cálculo dos danos colaterais

“O modelo não estava conectado com a realidade”

Segundo fontes dos serviços de inteligência, o cálculo pelo exército israelense do número de civis esperados para morrer em cada casa junto a um alvo — um procedimento examinado em uma investigação anterior por +972 e Local Call — foi realizado com a ajuda de ferramentas automáticas e imprecisas. Em guerras anteriores, o pessoal dos serviços de inteligência gastava muito tempo verificando quantas pessoas estavam em uma casa prestes a ser bombardeada, e o número de civis que poderiam morrer era registrado como parte de um “arquivo de alvos”. No entanto, após 7 de outubro, essa verificação minuciosa foi largamente abandonada em favor da automação.

Em outubro, o The New York Times relatou sobre um sistema operado a partir de uma base especial no sul de Israel, que coleta informações de telefones celulares na Faixa de Gaza e forneceu aos militares uma estimativa em tempo real do número de palestinos que fugiram do norte da Faixa de Gaza para o sul. O general Udi Ben Muha declarou ao The New York Times que “não é um sistema 100% perfeito, mas fornece as informações necessárias para tomar uma decisão”. O sistema funciona por cores: vermelho indica áreas com muitas pessoas, e verde e amarelo indicam áreas que ficaram relativamente desocupadas pelos moradores.

As fontes que falaram com +972 e Local Call descreveram um sistema semelhante para calcular os danos colaterais, que foi usado para decidir se bombardear um prédio em Gaza. Disseram que o software calculava o número de civis que residiam em cada casa antes da guerra – através da avaliação do tamanho do edifício e da revisão de sua lista de moradores – e depois reduzia esses números na proporção dos moradores que supostamente evacuaram o bairro.

Por exemplo, se o exército calculasse que metade dos moradores de um bairro tivesse partido, o programa consideraria uma casa que normalmente tinha 10 moradores como uma casa que continha cinco pessoas. Para economizar tempo, disseram as fontes, o exército não monitorava as casas para verificar quantas pessoas realmente viviam lá, como fez em operações anteriores, para verificar se as estimativas do programa eram verdadeiramente precisas.

“Esse modelo não correspondia à realidade”, afirmou uma fonte. “Não havia nenhuma conexão entre quem estava na casa agora, durante a guerra, e quem estava registrado como vivendo lá antes da guerra. [Em uma ocasião], bombardeamos uma casa sem saber que várias famílias estavam escondidas lá dentro”.

A fonte disse que, embora o exército soubesse que tais erros poderiam ocorrer, ainda assim esse modelo impreciso foi adotado porque era mais rápido. Portanto, disse a fonte, “o cálculo dos danos colaterais era totalmente automático e estatístico”, e até gerava números que não eram inteiros. 

Passo 6: bombardeio de uma residência familiar

“Você matou uma família sem motivo algum”

As fontes que falaram com +972 e Local Call explicaram que às vezes havia uma lacuna substancial entre o momento em que sistemas de rastreamento como Onde está papai? alertavam um oficial de que um alvo havia entrado em sua casa e o próprio bombardeio, o que resultou na morte de famílias inteiras mesmo sem atingir o objetivo do exército. “Muitas vezes atacamos uma casa, mas a pessoa nem sequer estava lá”, disse uma fonte. “O resultado é que você matou uma família sem motivo algum”.

Três fontes dos serviços de inteligência disseram a +972 e Local Call que testemunharam um incidente em que o exército israelense bombardeou a residência particular de uma família, e mais tarde descobriu-se que o alvo do assassinato nem sequer estava dentro da casa, pois não havia sido realizada nenhuma verificação adicional em tempo real.

“Às vezes [o alvo] estava em casa antes, e depois à noite ia dormir em outro lugar, por exemplo, debaixo da terra, e nós não sabíamos”, disse uma das fontes. “Havia ocasiões em que você verificava a localização novamente e outras em que simplesmente dizia: ‘Muito bem, como ele estava em casa nas últimas horas, você pode bombardear’”.

Outra fonte descreveu um incidente similar que a afetou e a levou a participar desta investigação. “Entendemos que o alvo estava em casa às oito da noite. No final, a Força Aérea bombardeou a casa às três da madrugada. Depois descobrimos [neste intervalo de tempo] que ele tinha se mudado para outra casa com sua família. No prédio que bombardeamos, havia outras duas famílias com crianças”.

Em guerras anteriores em Gaza, após o assassinato de alvos humanos, os serviços de inteligência israelenses realizavam procedimentos de Avaliação de Danos por Bombas (BDA), uma verificação rotineira após o ataque para ver se o comando superior havia sido morto e quantos civis haviam morrido com ele. Como revelado em uma investigação anterior de +972 e Local Call, isso envolvia ouvir telefonemas de parentes que perderam seus entes queridos. No entanto, na guerra atual, pelo menos em relação aos militantes de baixo escalão marcados pela IA, as fontes afirmam que esse procedimento foi suprimido para economizar tempo. As fontes disseram que não sabiam quantos civis morreram em cada ataque e, no caso dos supostos operativos de baixo escalão do Hamas e da Jihad Islâmica marcados pela IA, nem mesmo sabiam se o próprio alvo havia morrido.

“Você não sabe exatamente quantos matou nem quem matou”, disse uma fonte dos serviços de inteligência em uma investigação anterior publicada em janeiro. “O procedimento de BDA é seguido apenas quando se trata de altos comandantes do Hamas. Nos demais casos, não importa. Você recebe um relatório das forças aéreas sobre se o prédio foi bombardeado e é isso. Você não tem ideia do número de danos colaterais; imediatamente após isso, passa para o próximo alvo. O foco estava em criar tantos alvos quanto possível, o mais rápido possível”.

No entanto, enquanto o exército israelense pode seguir em frente após cada ataque sem se deter no número de vítimas, Amjad Al-Sheikh, o residente de Shuja’iya que perdeu onze de seus familiares no bombardeio de 2 de dezembro, disse que ele e seus vizinhos ainda estão procurando por cadáveres.

“Ainda há corpos sob os escombros”, afirmou. “Catorze prédios residenciais foram bombardeados com seus moradores dentro. Alguns dos meus parentes e vizinhos ainda estão enterrados sob os escombros”.

Um mundo em transe https://bit.ly/3Ye45TD

Nenhum comentário:

Postar um comentário