Em meio à guerra entre o grupo Hamas e Israel, um recurso de inteligência artificial do WhatsApp, pertencente à empresa Meta, tem causado polêmica por mostrar imagens de meninos palestinos empunhando armas.
Em testes feitos pelo The Guardian, foi solicitado que o sistema gerasse desenhos a partir dos termos “Palestino” e “Menino muçulmano palestino”. E os resultados foram, dentre outros, um garoto segurando uma arma de fogo tipo AK-47. Outra pesquisa por “Palestina” gerou a imagem de uma mão segurando uma arma.
Por outro lado, quando as instruções foram para “menino israelense”, as imagens que apareceram foram de garotos jogando futebol e lendo. Até mesmo para termos explicitamente militarizados, como “exército de Israel” e “forças de defesa israelita”, a IA criou adesivos de soldados sorrindo e orando, sem armas envolvidas.
Quando solicitado por “Israel”, o recurso retornou a bandeira do país e um homem dançando, e, com o prompt “Hamas”, a resposta foi: “Não foi possível gerar adesivos de IA. Por favor, tente novamente”.
A descoberta, destaca o The Guardian, ocorre em um momento em que a Meta é criticada por muitos usuários do Instagram e do Facebook que postam conteúdo de apoio aos palestinos.
Eles acusam a big tech de aplicar suas políticas de moderação de uma forma tendenciosa, uma prática que, segundo eles, equivale a censura. Há relatos de que os conteúdos não aparecem mais no topo dos feeds e, também, de contas que foram bloqueadas sem explicação.

Usuários ainda documentaram vários casos em que o Instagram traduziu “palestino” seguido da frase “Louvado seja Alá” em texto árabe para “terrorista palestino”. A empresa pediu desculpas pelo que descreveu como uma “falha”.
Anteriormente, a Meta emitiu um comunicado no qual dizia que nunca foi sua intenção suprimir uma determinada comunidade ou ponto de vista, mas que, devido a “maiores volumes de conteúdo sendo relatados” em torno do conflito em curso, “conteúdo que não viola nossas políticas pode ser removido por engano”.
Com informações da Época Negócios.