• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O sistema de entrega de anúncios do Facebook ainda discrimina por raça, Gênero sexual, era

    Crédito:Hannah Moore / Northeastern University

    Ao resolver cinco processos diferentes de uma vez, O Facebook prometeu no início deste ano mudar a forma como gerencia os anúncios de habitação, emprego, e crédito que roda em sua plataforma. Os anunciantes não seriam mais capazes de segmentar um público por gênero, raça, ou idade, a fim de prevenir a discriminação de grupos legalmente protegidos.

    Mas, nova pesquisa por uma equipe de cientistas da computação, incluindo o professor nordestino Alan Mislove, mostra que o algoritmo que o Facebook usa para entregar anúncios ainda pode se inclinar em direção a grupos demográficos específicos - apesar das mudanças que a empresa fez.

    "Para ser claro, não estamos acusando o Facebook de violar o acordo, "diz Mislove, quem é professor de informática na Northeastern. "Em vez, o que nossa pesquisa mostra é um algoritmo complexo em funcionamento. "

    Isso porque algoritmos, Mislove diz, agem de maneira muito diferente na prática do que na teoria.

    Em teoria, removendo a capacidade dos anunciantes de segmentar especificamente as pessoas por raça, Gênero sexual, e a idade deve resultar em públicos-alvo de publicidade que incluam uma mistura diversificada de pessoas. Na prática, O algoritmo do Facebook se baseia em uma miríade de outras características sobre seus usuários que, em última análise, servem como proxies para corrida, Gênero sexual, e idade, Mislove diz.

    Este Verão, O Facebook introduziu seu recurso Special Ad Audience - uma ferramenta de marketing para pessoas que promovem anúncios que oferecem crédito, emprego, ou oportunidades de habitação. Considerando que uma empresa de roupas pode querer anunciar diretamente para homens ou mulheres, os domínios do crédito, emprego, e a habitação tem proteção legal especial nos Estados Unidos para prevenir a discriminação.

    Mislove trabalhou com uma equipe de pesquisadores que também incluiu os candidatos a doutorado do Nordeste Piotr Sapiezynski e Avijit Ghosh, estudante de graduação Levi Kaplan, e um pesquisador da organização de tecnologia sem fins lucrativos Upturn para testar o novo recurso em relação ao seu antecessor, chamado de público semelhante> .

    Os pesquisadores usaram dados de eleitores disponíveis publicamente para criar públicos que eram intencionalmente influenciados pela raça, Gênero sexual, era, e visões políticas, e os alimentou com as ferramentas de publicidade novas e existentes para testar se o algoritmo correspondente reproduziria cada tendência.

    Os resultados foram surpreendentes:tanto o público semelhante quanto o de anúncios especiais replicaram as distorções demográficas.

    Em declaração à ProPublica, O porta-voz do Facebook Joe Osborne disse:"Fomos acima e além de outros para ajudar a prevenir a discriminação em anúncios, restringindo a segmentação e adicionando transparência. Um anunciante determinado a discriminar pessoas pode fazê-lo em qualquer meio online ou offline hoje, É por isso que existem leis ... Somos a única plataforma de mídia digital a fazer mudanças tão significativas em anúncios e estamos orgulhosos de nosso progresso. "

    Mislove diz que os resultados ilustram a difícil tarefa de garantir justiça nos algoritmos.

    "Na prática, um algoritmo recebe milhões de entradas, cada um dos quais está correlacionado de outras maneiras a esses recursos protegidos, "Mislove diz.

    Informações como onde você estudou, onde você mora, de quais páginas você 'curtiu' no Facebook, e muito mais podem servir inadvertidamente como indicadores sobre sua raça, Gênero sexual, e idade - e os algoritmos construídos para otimizar os resultados podem depender dessas informações para determinar quem tem mais probabilidade de clicar em um anúncio.

    "Algoritmos não se importam, "Mislove diz." Eles têm um objetivo específico, e eles vão usar a combinação de recursos que resultará na conclusão desse objetivo; não importa para eles se isso significa que estão entregando anúncios de empregos de tecnologia apenas para homens brancos com idades entre 18 e 24 anos. "

    Este é um complexo, mas problema urgente, Mislove diz, pois os algoritmos sustentam cada vez mais nossas atividades diárias. Algoritmos são usados ​​para ajudar a tomar decisões sobre saúde, merecimento de crédito, emprego, condenação criminal, direções de viagem, qual música você ouve, e uma gama estonteante de outras interações diárias.

    Todos os participantes nesses domínios "desejam a eficiência dos algoritmos, mas nem todo mundo está pensando em como podem dar errado, "Mislove diz.

    Quando as coisas dão errado, a solução costuma ser muito complexa.

    "É muito difícil agora, no sentido de que as identidades protegidas [contra as quais pode ocorrer discriminação] realmente permeiam nossa sociedade, "Mislove diz." Vai ser muito mais difícil e muito mais sutil do que simplesmente remover certos recursos no início. "


    © Ciência https://pt.scienceaq.com