• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A nova divisão digital é entre pessoas que optam por não usar algoritmos e pessoas que não

    Você sabe o que acontece quando você compartilha seus dados? Crédito:mtkang / shutterstock.com

    Cada aspecto da vida pode ser guiado por algoritmos de inteligência artificial - desde a escolha do caminho a seguir para o seu trajeto matinal, para decidir quem levar em um encontro, a questões jurídicas e jurídicas complexas, como o policiamento preventivo.

    Grandes empresas de tecnologia como Google e Facebook usam IA para obter insights sobre seu gigantesco tesouro de dados detalhados de clientes. Isso permite que eles monetizem as preferências coletivas dos usuários por meio de práticas como micro-segmentação, uma estratégia usada por anunciantes para segmentar grupos específicos de usuários de forma restrita.

    Em paralelo, muitas pessoas agora confiam em plataformas e algoritmos mais do que em seus próprios governos e na sociedade civil. Um estudo de outubro de 2018 sugeriu que as pessoas demonstram "apreciação do algoritmo, "na medida em que confiariam mais em conselhos quando pensam que vem de um algoritmo do que de um ser humano.

    No passado, especialistas em tecnologia se preocupam com uma "divisão digital" entre aqueles que podem acessar computadores e a Internet e aqueles que não podem. As famílias com menos acesso às tecnologias digitais estão em desvantagem em sua capacidade de ganhar dinheiro e acumular habilidades.

    Mas, conforme os dispositivos digitais proliferam, a divisão não é mais apenas sobre o acesso. Como as pessoas lidam com a sobrecarga de informações e a abundância de decisões algorítmicas que permeiam todos os aspectos de suas vidas?

    Os usuários mais experientes estão se afastando dos dispositivos e se conscientizando de como os algoritmos afetam suas vidas. Enquanto isso, os consumidores que possuem menos informações contam ainda mais com algoritmos para orientar suas decisões.

    O molho secreto por trás da inteligência artificial

    O principal motivo da nova exclusão digital, na minha opinião, como alguém que estuda sistemas de informação, é que tão poucas pessoas entendem como funcionam os algoritmos. Para a maioria dos usuários, algoritmos são vistos como uma caixa preta.

    Algoritmos de IA captam dados, ajustá-los a um modelo matemático e fazer uma previsão, variando de quais músicas você pode gostar até quantos anos alguém deve passar na prisão. Esses modelos são desenvolvidos e ajustados com base em dados anteriores e no sucesso de modelos anteriores. A maioria das pessoas - às vezes até os próprios projetistas de algoritmos - não sabe realmente o que está dentro do modelo.

    Os pesquisadores há muito se preocupam com a justiça algorítmica. Por exemplo, A ferramenta de recrutamento baseada em IA da Amazon acabou dispensando candidatas. O sistema da Amazon estava extraindo seletivamente palavras com gênero implícito - palavras que os homens são mais propensos a usar na fala do dia a dia, como "executado" e "capturado".

    Outros estudos têm mostrado que algoritmos judiciais são preconceituosos racialmente, sentenciando pobres réus negros por mais tempo do que outros.

    Como parte do Regulamento Geral de Proteção de Dados recentemente aprovado na União Europeia, as pessoas têm "direito à explicação" dos critérios que os algoritmos usam em suas decisões. Esta legislação trata o processo de tomada de decisão algorítmica como um livro de receitas. O pensamento é que se você entender a receita, você pode entender como o algoritmo afeta sua vida.

    Enquanto isso, alguns pesquisadores de IA têm pressionado por algoritmos que são justos, responsável e transparente, bem como interpretável, o que significa que eles devem chegar às suas decisões por meio de processos que os humanos possam compreender e confiar.

    Você deve permanecer conectado - ou desconectar? Crédito:pryzmat / shutterstock.com

    Qual será o efeito da transparência? Em um estudo, os alunos foram avaliados por um algoritmo e ofereceram diferentes níveis de explicação sobre como as pontuações de seus colegas foram ajustadas para chegar à nota final. Os alunos com explicações mais transparentes, na verdade, confiaram menos no algoritmo. Esse, novamente, sugere uma divisão digital:a consciência algorítmica não leva a mais confiança no sistema.

    Mas a transparência não é uma panacéia. Mesmo quando o processo geral de um algoritmo é esboçado, os detalhes ainda podem ser muito complexos para os usuários compreenderem. A transparência ajudará apenas os usuários sofisticados o suficiente para compreender as complexidades dos algoritmos.

    Por exemplo, em 2014, Ben Bernanke, o ex-presidente do Federal Reserve, foi inicialmente negado um refinanciamento da hipoteca por um sistema automatizado. A maioria das pessoas que estão se inscrevendo para esse refinanciamento de hipotecas não entenderia como os algoritmos podem determinar sua qualidade de crédito.

    Optando por sair do novo ecossistema de informações

    Embora os algoritmos influenciem muito na vida das pessoas, apenas uma pequena fração dos participantes é sofisticada o suficiente para se envolver totalmente em como os algoritmos afetam suas vidas.

    Não existem muitas estatísticas sobre o número de pessoas que conhecem o algoritmo. Estudos encontraram evidências de ansiedade algorítmica, levando a um profundo desequilíbrio de poder entre as plataformas que implantam algoritmos e os usuários que dependem deles.

    Um estudo de uso do Facebook descobriu que quando os participantes foram informados sobre o algoritmo do Facebook para a curadoria de feeds de notícias, cerca de 83% dos participantes modificaram seu comportamento para tentar tirar proveito do algoritmo, enquanto cerca de 10% diminuíram o uso do Facebook.

    Um relatório de novembro de 2018 do Pew Research Center descobriu que uma ampla maioria do público tinha preocupações significativas sobre o uso de algoritmos para usos específicos. Ele descobriu que 66% achavam que não seria justo que algoritmos calculassem pontuações de finanças pessoais, enquanto 57% disseram o mesmo sobre a triagem de currículo automatizada.

    Uma pequena fração dos indivíduos exerce algum controle sobre como os algoritmos usam seus dados pessoais. Por exemplo, a plataforma Hu-Manity oferece aos usuários a opção de controlar a quantidade de dados coletados. Enciclopédia online Everipedia oferece aos usuários a capacidade de ser uma parte interessada no processo de curadoria, o que significa que os usuários também podem controlar como as informações são agregadas e apresentadas a eles.

    Contudo, a grande maioria das plataformas não oferece tal flexibilidade para seus usuários finais ou o direito de escolher como o algoritmo usa suas preferências na curadoria de seu feed de notícias ou na recomendação de conteúdo. Se houver opções, os usuários podem não saber sobre eles. Cerca de 74% dos usuários do Facebook disseram em uma pesquisa que não sabiam como a plataforma caracteriza seus interesses pessoais.

    Na minha opinião, a nova alfabetização digital não é usar um computador ou estar na internet, mas entendendo e avaliando as consequências de um estilo de vida sempre conectado.

    Esse estilo de vida tem um impacto significativo em como as pessoas interagem com outras; em sua capacidade de prestar atenção a novas informações; e na complexidade de seus processos de tomada de decisão.

    O aumento da ansiedade algorítmica também pode ser refletido por mudanças paralelas na economia. Um pequeno grupo de indivíduos está captando os ganhos da automação, enquanto muitos trabalhadores estão em uma posição precária.

    Optar pela curadoria algorítmica é um luxo - e pode um dia ser um símbolo de riqueza disponível apenas para alguns selecionados. A questão é quais serão os danos mensuráveis ​​para aqueles que estão do lado errado da exclusão digital.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com