Remover páginas ilegais não é suficiente. Crédito:Thomas Holt / Shutterstock
O YouTube tem, ainda denovo, falhou em proteger as crianças online. Investigações recentes da Wired e do blogueiro de vídeo Matt Watson alegaram que os pedófilos estavam usando a seção de comentários do site para deixar mensagens predatórias em vídeos contendo e enviados por crianças, e para compartilhar links para material de abuso sexual infantil.
Em resposta às investigações - e à ameaça de um boicote publicitário - o YouTube anunciou que desativará os comentários em vídeos contendo crianças pequenas. Mas, infelizmente, Este não é um incidente isolado. Em janeiro de 2019, foi alegado que o mecanismo de busca Bing da Microsoft estava surgindo e sugerindo material de abuso sexual infantil. E esses tipos de incidentes são repetições de problemas semelhantes que ocorreram nos últimos cinco anos.
A realidade é que a internet tem um problema sistêmico com o material de abuso sexual infantil que não se limita a sites de nicho ou à dark web, mas se esconde à vista de todos entre o conteúdo hospedado e controlado pelos gigantes da tecnologia. Devemos fazer mais para proteger as crianças online e essa ação vai além de ajustes de algoritmos ou desativação de comentários.
Em 2016, mais de 57, 000 páginas da web contendo imagens de abuso sexual infantil foram rastreadas pela Internet Watch Foundation - um órgão com sede no Reino Unido que identifica e remove esse conteúdo ilegal. Isso foi um aumento de 21% em relação ao ano anterior. O Centro Nacional para Crianças Desaparecidas e Exploradas, com sede nos EUA, recebeu mais de 10 milhões de denúncias de conteúdo de abuso sexual infantil em 2017, um aumento de 22% em relação aos 12 meses anteriores. É provável que essas iniciativas, enquanto muito necessário, estão identificando e removendo apenas uma pequena quantidade do conteúdo que é distribuído online todos os dias.
Imagens que retratam o abuso infantil que são postadas online têm um impacto severo sobre essas crianças abusadas por anos ou décadas após o fim do abuso físico primário. Crianças abusadas já foram vítimas, mas a pesquisa mostra que a disponibilidade de suas imagens online mantém o pesadelo vivo para a criança, sua família e amigos. Também pode afetar significativamente a interação da vítima com a Internet pelo resto de suas vidas.
As empresas de tecnologia estão posicionadas de forma única para atuar como guardiãs do limite, removendo e relatando conteúdo sexualmente explícito que é carregado em seus serviços. Então, por que eles não fazem mais para proteger agressivamente milhões de crianças em todo o mundo?
Mesmo nos primeiros dias da web, ficou claro que os serviços prestados por empresas de tecnologia estavam sendo usados para disseminar conteúdo de abuso sexual infantil. Já em 1995, as salas de bate-papo da AOL - uma encarnação inicial da mídia social - foram supostamente usadas para compartilhar material de abuso infantil. Em resposta, Os executivos da AOL na época alegaram que estavam fazendo o possível para controlar os abusos em seu sistema, mas que o sistema era grande demais para ser gerenciado. Esta é precisamente a mesma desculpa que ouvimos mais de duas décadas depois dos titãs da tecnologia.
Entre 2003 e 2008, apesar das repetidas promessas de ação, as principais empresas de tecnologia não conseguiram desenvolver ou usar tecnologia que pudesse encontrar e remover conteúdo ilegal ou prejudicial, mesmo que tenha violado seus termos de serviço. Então, em 2009, A Microsoft trabalhou com o Centro Nacional para Crianças Desaparecidas e Exploradas e uma equipe do Dartmouth College que incluía um de nós (Hany Farid) para desenvolver a tecnologia de fotoDNA. Este software encontra e remove rapidamente instâncias conhecidas de conteúdo sexual infantil à medida que é carregado, e foi fornecido gratuitamente às empresas de tecnologia que participam da iniciativa.
Depois de anos de pressão, photoDNA agora é usado por muitos serviços e redes da web. Mas as empresas de tecnologia não conseguiram inovar ainda mais para responder a um submundo do crime cada vez mais sofisticado. Por exemplo, apesar de prever o aumento de vídeos de abuso infantil, as empresas de tecnologia ainda não implantaram sistemas que possam identificar imagens ofensivas como o photoDNA pode fazer com as imagens.
Essas empresas precisam agir mais rapidamente para bloquear e remover imagens ilegais, bem como responder a outras atividades que possibilitem e encorajem a exploração infantil. Isso significa desenvolver continuamente novas tecnologias, mas também repensando fundamentalmente o incentivo perverso de ganhar dinheiro com o conteúdo do usuário, independentemente do que esse conteúdo realmente seja.
Ficando no caminho do controle
Contudo, uma combinação de financeiro, questões jurídicas e filosóficas impedem as empresas de tecnologia de controlar as atividades ilegais em seus serviços. Na primeira instância, remover conteúdo é, em muitos casos, simplesmente ruim para os negócios, porque reduz as oportunidades de receita de publicidade e coleta de dados do usuário (que também podem ser vendidos).
Enquanto isso, a lei muitas vezes isenta as empresas de tecnologia da responsabilidade pelo conteúdo que hospedam. Nos E.U.A, A seção 230 da Lei de Decência nas Comunicações dá às empresas de tecnologia ampla imunidade de processos por atividades ilegais de seus usuários. Essa imunidade depende da categorização de sites como YouTube ou Facebook como "plataformas" benignas, em oposição a "editores" ativos. A posição na UE é semelhante. O que mais, algumas empresas de tecnologia acreditam que a atividade ilegal é uma responsabilidade do Estado, em vez de corporativo.
Dado o tamanho, riqueza e alcance dos gigantes da tecnologia, essas desculpas não justificam a inação. Eles precisam moderar proativamente o conteúdo e remover as imagens ilegais que foram enviadas para seus sites. Eles podem e devem ajudar a informar a pesquisa nesta área vital da segurança infantil, trabalhando com a polícia e pesquisadores para investigar e expor o flagelo do abuso infantil online.
Os anunciantes podem exercer pressão financeira para encorajar os sites a moderar e bloquear conteúdo ilegal e abusivo de terceiros (como várias empresas fizeram após as últimas falhas no YouTube). Mas esses boicotes raramente duram. Portanto, se a pressão pública não for suficiente, pode ser necessária uma regulamentação governamental que force as empresas a cumprir seus próprios termos de serviço e as leis locais.
Isso pode ser difícil de policiar. Pode ter consequências indesejadas, como tornar mais difícil para as pequenas empresas competir com os atuais gigantes da tecnologia. Ou pode encorajar as empresas a reagir de forma exagerada e se tornar excessivamente restritivas sobre o conteúdo permitido. Nesse caso, preferiríamos que as empresas de tecnologia aproveitassem sua enorme riqueza e recursos e simplesmente fizessem a coisa certa.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.