• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • É possível regular o Facebook de forma eficaz? Várias tentativas levaram ao mesmo resultado

    Crédito:Unsplash/CC0 Public Domain

    O recente aviso do governo australiano ao Facebook sobre desinformação é apenas a mais recente salva na batalha aparentemente constante para responsabilizar o gigante da mídia social pelo conteúdo postado em sua plataforma.
    Ele veio na mesma semana em que o Senado dos EUA ouviu um depoimento de denúncia em que a ex-executiva do Facebook Frances Haugen alegou que a empresa sabia das consequências prejudiciais para seus usuários, mas optou por não agir.

    Governos de todo o mundo vêm pressionando há anos para tornar os gigantes da mídia social mais responsáveis, tanto em termos da qualidade das informações que hospedam quanto no uso dos dados dos usuários como parte de seus modelos de negócios.

    A Lei de Segurança Online do governo australiano entrará em vigor em janeiro de 2022, dando ao eSafety Commissioner poderes sem precedentes para reprimir conteúdo abusivo ou violento ou imagens sexuais postadas sem consentimento.

    Mas, mesmo que seja bem-sucedida, essa legislação tratará apenas de uma pequena proporção das questões que exigem regulamentação. Em muitas dessas questões, as plataformas de mídia social tentaram se regular em vez de se submeter à legislação. Mas, quer estejamos falando de legislação ou autorregulação, as experiências passadas não geram muita confiança de que as plataformas tecnológicas podem ser regulamentadas com sucesso e a regulamentação colocada em ação facilmente.

    Nossa pesquisa examinou tentativas anteriores de regular gigantes da tecnologia na Austrália. Analisamos 269 artigos de mídia e 282 documentos de políticas e relatórios do setor publicados de 2015 a 2021. Vamos discutir alguns estudos de caso relevantes.

    1. Anúncios e notícias

    Em 2019, a investigação da Australian Competition and Consumer Commission (ACCC) sobre plataformas digitais descreveu os algoritmos do Facebook, particularmente aqueles que determinam o posicionamento da publicidade nas páginas do Facebook, como “opacos”. Concluiu que as empresas de mídia precisavam de mais garantias sobre o uso de seu conteúdo.

    O Facebook inicialmente acolheu o inquérito, mas depois se opôs publicamente (junto com o Google) quando o governo argumentou que os problemas relacionados ao poder de mercado substancial do Facebook na publicidade de exibição e o domínio do Facebook e do Google sobre o conteúdo de notícias gerado por empresas de mídia eram importantes demais para serem deixado para as próprias empresas.

    O Facebook argumentou que não havia evidências de um desequilíbrio de poder de barganha entre ele e as empresas de mídia de notícias, acrescentando que não teria escolha a não ser retirar os serviços de notícias na Austrália se forçado a pagar aos editores para hospedar seu conteúdo. O impasse resultou no infame embargo de uma semana do Facebook às notícias australianas.

    O Código de Negociação de Mídia de Notícias revisado e alterado foi aprovado pelo parlamento em fevereiro. Tanto o governo quanto o Facebook declararam vitória, o primeiro tendo conseguido aprovar sua legislação e o último acabando por fazer suas próprias barganhas com os editores de notícias sem ter que ser legalmente obrigado a cumprir o código.

    2. Discurso de ódio e terrorismo

    Em 2015, para lidar com o extremismo violento nas mídias sociais, o governo australiano trabalhou inicialmente com a gigante da tecnologia para desenvolver soluções conjuntas de IA para melhorar os processos técnicos de identificação de conteúdo para lidar com o combate ao extremismo violento.

    Esta solução voluntária funcionou brilhantemente, até que não funcionou. Em março de 2019, tiroteios em massa em mesquitas em Christchurch foram transmitidos ao vivo no Facebook por um terrorista supremacista branco nascido na Austrália, e as gravações posteriormente circularam na internet.

    Isso trouxe à tona a incapacidade dos algoritmos de inteligência artificial do Facebook de detectar e remover as imagens ao vivo do tiroteio e a rapidez com que foram compartilhadas na plataforma.

    O governo australiano respondeu em 2019 alterando o Código Penal para exigir que as plataformas de mídia social removam material abominável ou violento "em tempo razoável" e, quando relevante, o encaminhe à Polícia Federal Australiana.

    O que aprendemos?

    Esses dois exemplos, embora notavelmente diferentes, ambos se desenrolaram de maneira semelhante:um diálogo inicial em que o Facebook propõe uma solução interna envolvendo seus próprios algoritmos, antes de uma mudança subsequente para a regulamentação governamental obrigatória, que encontra resistência ou barganha (ou ambos) do Facebook, e o resultado final, que é uma legislação fragmentada que é diluída ou cobre apenas um subconjunto de tipos específicos de danos.

    Existem vários problemas óbvios com isso. A primeira é que apenas os próprios gigantes da tecnologia sabem como seus algoritmos funcionam, por isso é difícil para os reguladores supervisioná-los adequadamente.

    Depois, há o fato de que a legislação normalmente se aplica em nível nacional, mas o Facebook é uma empresa global com bilhões de usuários em todo o mundo e uma plataforma que é incorporada em nossas vidas diárias de várias maneiras.

    Como resolvemos o impasse? Uma opção é que os regulamentos sejam elaborados por órgãos independentes nomeados por governos e gigantes da tecnologia para conduzir a agenda de co-regulamentação globalmente. Mas confiar apenas na regulamentação para orientar o comportamento dos gigantes da tecnologia contra possíveis abusos pode não ser suficiente. Há também a necessidade de autodisciplina e governança corporativa apropriada – potencialmente imposta por esses órgãos independentes.
    © Ciência https://pt.scienceaq.com