Crédito:Mr Tempter / Shutterstock
O YouTube cria extremistas? Um estudo recente causou polêmica entre os cientistas, argumentando que os algoritmos que impulsionam o site não ajudam a radicalizar as pessoas ao recomendar vídeos cada vez mais radicais, como tem sido sugerido nos últimos anos.
O papel, submetido à revista de acesso aberto na primeira segunda-feira, mas ainda não foi formalmente revisado por pares, analisou recomendações de vídeo recebidas por diferentes tipos de canais. Afirmou que o algoritmo do YouTube favorece os canais de mídia convencionais em vez de conteúdo independente, concluindo que a radicalização tem mais a ver com as pessoas que criam conteúdo nocivo do que com o algoritmo do site.
Os especialistas na área responderam rapidamente ao estudo, com alguns criticando os métodos do artigo e outros argumentando que o algoritmo foi um dos vários fatores importantes e que a ciência de dados por si só não nos dará a resposta.
O problema com essa discussão é que não podemos responder à questão de qual papel o algoritmo do YouTube desempenha na radicalização das pessoas porque não entendemos como ele funciona. E isso é apenas um sintoma de um problema muito mais amplo. Esses algoritmos desempenham um papel cada vez mais importante em nossa vida diária, mas carecem de qualquer tipo de transparência.
É difícil argumentar que o YouTube não desempenha um papel na radicalização. Isso foi apontado pela primeira vez pelo sociólogo de tecnologia Zeynep Tufekci, que ilustrou como os vídeos recomendados direcionam gradualmente os usuários a conteúdos mais radicais. Nas palavras de Tufekci, vídeos sobre corrida levam a vídeos sobre corrida de ultramaratonas, vídeos sobre vacinas levam a teorias da conspiração, e vídeos sobre política levam a "negações do Holocausto e outros conteúdos perturbadores".
Isso também foi escrito em detalhes pelo ex-funcionário do YouTube, Guillaume Chaslot, que trabalhou no algoritmo de recomendação do site. Desde que saiu da empresa, A Chaslot continuou tentando tornar essas recomendações mais transparentes. Ele diz que as recomendações do YouTube são tendenciosas para teorias de conspiração e vídeos factualmente imprecisos, que, no entanto, levam as pessoas a passar mais tempo no site.
Na verdade, maximizar o tempo de exibição é o ponto principal dos algoritmos do YouTube, e isso incentiva os criadores de vídeo a lutar por atenção de todas as maneiras possíveis. A absoluta falta de transparência da empresa sobre exatamente como isso funciona torna quase impossível combater a radicalização no site. Afinal, sem transparência, é difícil saber o que pode ser mudado para melhorar a situação.
Mas o YouTube não é incomum nesse aspecto. A falta de transparência sobre como funcionam os algoritmos geralmente ocorre sempre que são usados em grandes sistemas, seja por empresas privadas ou órgãos públicos. Além de decidir qual vídeo mostrar a você, algoritmos de aprendizado de máquina agora são usados para colocar as crianças nas escolas, decidir sobre sentenças de prisão, determinar pontuação de crédito e taxas de seguro, bem como o destino dos imigrantes, candidatos a empregos e candidatos a universidades. E geralmente não entendemos como esses sistemas tomam suas decisões.
Os pesquisadores encontraram maneiras criativas de mostrar o impacto desses algoritmos na sociedade, seja examinando a ascensão da direita reacionária ou a disseminação de teorias da conspiração no YouTube, ou mostrando como os mecanismos de pesquisa refletem os preconceitos racistas das pessoas que os criaram.
Os sistemas de aprendizado de máquina geralmente são grandes, complexo, e opaco. Apropriadamente, muitas vezes são descritos como caixas pretas, onde a informação entra, e informações ou ações saem, mas ninguém pode ver o que acontece no meio. Isso significa que, como não sabemos exatamente como funcionam algoritmos como o sistema de recomendação do YouTube, tentar descobrir como o site funciona seria como tentar entender um carro sem abrir o capô.
Por sua vez, isso significa que tentar escrever leis para regular o que os algoritmos devem ou não fazer torna-se um processo cego ou tentativa e erro. Isso é o que está acontecendo com o YouTube e com tantos outros algoritmos de aprendizado de máquina. Estamos tentando ter uma palavra a dizer sobre seus resultados, sem uma compreensão real de como eles realmente funcionam. Precisamos abrir essas tecnologias patenteadas, ou pelo menos torná-los transparentes o suficiente para que possamos regulá-los.
Explicações e testes
Uma maneira de fazer isso seria os algoritmos fornecerem explicações contrafactuais junto com suas decisões. Isso significa trabalhar as condições mínimas necessárias para o algoritmo tomar uma decisão diferente, sem descrever sua lógica completa. Por exemplo, um algoritmo que toma decisões sobre empréstimos bancários pode produzir uma saída que diz que "se você tivesse mais de 18 anos e não tivesse dívidas anteriores, você teria seu empréstimo bancário aceito. "Mas isso pode ser difícil de fazer com o YouTube e outros sites que usam algoritmos de recomendação, como em teoria, qualquer vídeo na plataforma pode ser recomendado a qualquer momento.
Outra ferramenta poderosa é o teste e auditoria de algoritmos, que tem sido particularmente útil no diagnóstico de algoritmos tendenciosos. Em um caso recente, uma empresa de triagem de currículo profissional descobriu que seu algoritmo estava priorizando dois fatores como melhores preditores de desempenho no trabalho:se o nome do candidato era Jared, e se jogaram lacrosse no colégio. Isso é o que acontece quando a máquina fica sem supervisão.
Nesse caso, o algoritmo de triagem de currículo notou que homens brancos tinham uma chance maior de serem contratados, e encontraram características de proxy correlacionadas (como ser nomeado Jared ou jogar lacrosse) presentes nos candidatos contratados. Com o YouTube, a auditoria de algoritmo pode ajudar a entender quais tipos de vídeos são priorizados para recomendação - e talvez ajudar a resolver o debate sobre se as recomendações do YouTube contribuem para a radicalização ou não.
Apresentar explicações contrafactuais ou usar auditoria de algoritmo é difícil, processo caro. Mas é importante, porque a alternativa é pior. Se os algoritmos ficarem desmarcados e não regulamentados, pudemos ver um fluxo gradual de teóricos da conspiração e extremistas em nossa mídia, e nossa atenção controlada por quem pode produzir o conteúdo mais lucrativo.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.