Defesa do Consumidor

Algoritmos enviesados do Facebook mantêm diferenças de gênero

Uma auditoria feita recentemente no Facebook sugere que a rede social ainda opera com algoritmos enviesados. De acordo com uma investigação para serviços de anúncio conduzida por pesquisadores independentes da Universidade do Sul da Califórnia (USC), o Facebook direciona mais ou menos impressões de oportunidades de emprego ora para mulheres e ora a homens, aparentemente dependendo da função da vaga.

A auditoria aponta que o sistema de entrega de anúncios do Facebook mostra diferentes anúncios de emprego a depender do gênero mesmo quando as qualificações independem de tais características. Pela lei norte-americana, isso é considerado discriminação de gênero.

As descobertas da auditoria vêm mesmo depois de outras auditorias anteriores, longos processos judiciais e promessas do Facebook referentes a reparos na sua forma de imprimir anúncios. O primeiro caso de anúncios distribuídos de maneira preconceituosa foi em 2016, quando uma auditoria mostrou que a rede social permitia que anunciantes de emprego e moradia selecionassem públicos a partir de gênero e raça.

Foi apenas em 2018 que o Facebook removeu o recurso.

Dessa vez, a auditoria fez testes com anúncios de empregos da seguinte forma: compraram anúncios de empregos com qualificações idênticas – de entregador ou entregadora da rede de pizza Domino’s e outro de entregador ou entregadora de delivery de alimentos Instacart. Atualmente, há mais homens dirigindo para a Domino’s e mais mulheres para a Instacart.

Embora nenhum público tenha sido especificado com base em informações demográficas, no caso, gênero, os algoritmos exibiram os anúncios de maneira desproporcional. O anúncio da Domino’s foi mostrado mais para homens do que mulheres e o anúncio da Instacart foi mostrado para mais mulheres do que homens.

Para não ficar em um exemplo isolado, a auditoria repetiu o teste para engenheiras e engenheiros de software para empresa de tecnologia Nvidia (viés para homens), empregos na Netflix (viés para mulheres) e oportunidades para vendedores de carros (viés para homens) e joias (viés para mulheres).

Assim, o recurso supostamente desativado para anúncios de habitação, crédito e emprego, de alguma maneira, ainda funciona. A causa dos preconceitos não foram encontradas pela auditoria da universidade e o Facebook não revela detalhes de seu sistema de impressão de anúncios.

Muitos questionamentos

Depois de 2016, quando a auditoria norte-americana ProPublica descobriu os algoritmos enviesados do Facebook para ofertas de emprego e moradia, a rede social disse, em 2018, que não usava mais o recurso de distinção demográfica. Contudo, ela foi processada novamente pelo Departamento de Habitação e Desenvolvimento Urbano dos Estados Unidos porque, segundo o órgão, ela ainda excluía o público de anúncios imobiliários sem que o anunciante especificasse a exclusão. Na época, o processo era baseado em uma auditoria de pesquisadores independentes que descobriram que casas à venda estavam sendo mostradas com mais frequência para usuários brancos, enquanto casas para alugar estavam sendo exibidas com mais frequência para usuários minoritários, como latinos, indígenas, negros e outros.

Na auditoria da universidade californiana, segundo os pesquisadores envolvidos nela e na auditoria dos anúncios de vendas de casas, o ônus da prova é ainda maior. Contudo, a legislação trabalhista norte-americana considera justificável eventuais distorções nos anúncios por causa das diferenças de qualificação.

Por outro lado, parece questionável a diferença de qualificação entre quem entrega pizza e quem entrega alimentos.

Questionamentos sobre a inteligência artificial (IA) do Facebook voltaram à tona neste ano em março, quando o MIT Technology Review publicou uma investigação jornalística de nove meses sobre a equipe de IA da empresa. Conforme mostrou o site, a equipe responsável tem negligenciado questões como disseminação de desinformação e fake news desde quando foi formada, em 2018.

A repercussão da publicação fez com que a rede social publicasse um texto em seu blog falando sobre seus esforços. “Tomamos medidas significativas para resolver os problemas de discriminação em anúncios e temos equipes trabalhando em anúncios justos hoje.”

Apesar dessas afirmações, como mostram a auditoria, nenhuma mudança perceptível é vista na forma como funcionam os algoritmos de entrega de anúncios.


+ Notícias

Senacon notifica Facebook sobre o vazamento de dados de 533 milhões de pessoas

Vazamento de dados do Facebook: uma história oficial mal contada?

Instagram, Facebook e LinkedIn compartilham mais de 50% dos dados dos usuários

Felippe Constancio

Postagens recentes

O que o setor de moda e beleza está preparando para o metaverso?

Iniciativas de grandes players do mercado já estão em estágio avançado

15 horas ago

Na Via, o varejo se transforma em ponto de experiências

Na Via, tecnologias, omnicanalidade e novos serviços impulsionam experiências e satisfação dos clientes; confira os…

15 horas ago

Tendências da Inteligência Artificial nos negócios e na sociedade

Vinte anos atrás a Inteligência Artificial (IA) era coisa de filme. Agora, ela não só…

16 horas ago

Sala Ágil: conheça uma das apostas do Bradesco para a solução de demandas com o consumidor

Durante A Era do Diálogo deste ano, Nairo Vidal, diretor e ouvidor do banco, falou…

17 horas ago

Milhares de sites olham os seus dados antes de você clicar em “enviar”

Um levantamento mostra que milhares de sites olham as informações dos usuários durante o preenchimento…

21 horas ago

Experiência do colaborador: dados aproximam gestores de liderados e aumentam produtividade

Olhar para a experiência do funcionário é essencial para entregar um produto ou serviço diferenciado…

1 dia ago

Esse website utiliza cookies.

Mais informação