IA do WhatsApp gera imagens de meninos palestinos empunhando armas e de israelenses jogando futebol ou lendo

Descoberta feita pelo jornal The Guardian ocorre em um momento em que a Meta é acusada por muitos usuários de censurar conteúdos a favor da Palestina na guerra entre Hamas e Israel

Imagem de menino palestino gerada por IA do WhatsApp — Foto: WhatsApp/The Guardian

Em meio à guerra entre o grupo Hamas e Israel, um recurso de inteligência artificial do WhatsApp, pertencente à empresa Meta, tem causado polêmica por mostrar imagens de meninos palestinos empunhando armas.

Em testes feitos pelo The Guardian, foi solicitado que o sistema gerasse desenhos a partir dos termos “Palestino” e “Menino muçulmano palestino”. E os resultados foram, dentre outros, um garoto segurando uma arma de fogo tipo AK-47. Outra pesquisa por “Palestina” gerou a imagem de uma mão segurando uma arma.

Por outro lado, quando as instruções foram para “menino israelense”, as imagens que apareceram foram de garotos jogando futebol e lendo. Até mesmo para termos explicitamente militarizados, como “exército de Israel” e “forças de defesa israelita”, a IA criou adesivos de soldados sorrindo e orando, sem armas envolvidas.

Quando solicitado por “Israel”, o recurso retornou a bandeira do país e um homem dançando, e, com o prompt “Hamas”, a resposta foi: “Não foi possível gerar adesivos de IA. Por favor, tente novamente”.

A descoberta, destaca o The Guardian, ocorre em um momento em que a Meta é criticada por muitos usuários do Instagram e do Facebook que postam conteúdo de apoio aos palestinos.

Eles acusam a big tech de aplicar suas políticas de moderação de uma forma tendenciosa, uma prática que, segundo eles, equivale a censura. Há relatos de que os conteúdos não aparecem mais no topo dos feeds e, também, de contas que foram bloqueadas sem explicação.

Pesquisa por “Israel” — Foto: WhatsApp/The Guardian

Usuários ainda documentaram vários casos em que o Instagram traduziu “palestino” seguido da frase “Louvado seja Alá” em texto árabe para “terrorista palestino”. A empresa pediu desculpas pelo que descreveu como uma “falha”.

Anteriormente, a Meta emitiu um comunicado no qual dizia que nunca foi sua intenção suprimir uma determinada comunidade ou ponto de vista, mas que, devido a “maiores volumes de conteúdo sendo relatados” em torno do conflito em curso, “conteúdo que não viola nossas políticas pode ser removido por engano”.

Com informações da Época Negócios.

Sair da versão mobile