• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Existe algo como um algoritmo seguro? A discussão sobre regulamentação ganha força

    Crédito:Matthew Modoono/Northeastern University

    Desde que Frances Haugen, ex-funcionária do Facebook, apresentou informações preocupantes sobre os danos de longo alcance causados ​​pelos algoritmos da empresa, as conversas sobre possíveis reformas regulatórias só se intensificaram.
    Agora há um amplo consenso entre especialistas e políticos de que são necessárias mudanças regulatórias para proteger os usuários, principalmente crianças e meninas, que são vulneráveis ​​a problemas de saúde mental e problemas de imagem corporal vinculados aos algoritmos da plataforma de mídia social. Várias mudanças foram cogitadas, desde emendas à Seção 230 da Lei federal de Decência nas Comunicações – a lei que rege a responsabilidade entre provedores de serviços, incluindo a Internet – até mandatos de transparência que dariam a especialistas externos acesso ao funcionamento interno de empresas de tecnologia como o Facebook. .

    Mas, dada a expectativa de liberdade de expressão online, os legisladores terão que ser criativos. Uma possível solução é criar uma nova agência federal encarregada de regular as empresas de mídia social, como foi feito com o Consumer Financial Protection Bureau após a crise financeira de 2008, mas levanta questões sobre como o processo político e os partidos idéias diferentes sobre privacidade e liberdade de expressão, viriam a influenciar tal esforço, dizem vários especialistas do Nordeste.

    "Eu me pergunto se as partes concordariam em criar uma agência especial ou aumentar a [Federal Communications Commission] de forma a fornecer mais poder regulatório ao governo federal", diz David Lazer, professor universitário de ciência política e ciências da computação. no Nordeste.

    Uma nova agência poderia ajudar a descarregar alguns dos encargos regulatórios enfrentados pela Comissão Federal de Comércio, mas também pode revelar-se uma arma política perigosa que nenhuma das partes gostaria que a outra tivesse, diz Lazer.

    De qualquer forma, é preciso haver "mais mecanismos para tornar o Facebook mais transparente", diz ele.

    "O problema é que, uma vez que você tem transparência, todo mundo vê algo diferente", diz Lazer.

    Testemunhando perante o Congresso na semana passada, Haugen ajudou a esclarecer como o Facebook, que também é dono do Instagram e do WhatsApp, desenvolveu algoritmos que promoviam conteúdo odioso, prejudicial e problemático às custas de seus usuários. Documentos que Haugen compartilhou com o Wall Street Journal no mês passado mostraram que a gigante da tecnologia sabia que seus algoritmos eram prejudiciais a partir de pesquisas internas, mas optou por manter as informações em segredo.

    No fim de semana, um alto executivo do Facebook disse que a empresa apóia permitir que os reguladores acessem seus algoritmos – e maior transparência de forma mais ampla.

    É importante "desmistificar" como essas tecnologias, que foram escondidas atrás de um véu de sigilo por anos, realmente funcionam, diz Woodrow Hartzog, professor de direito e ciência da computação especializado em proteção de dados e privacidade.

    Sabe-se há anos, por exemplo, que os algoritmos do Facebook amplificam ou otimizam conteúdo que gera indignação. Revelações no Wall Street Journal mostraram que a própria pesquisa do Facebook mostrou que seus algoritmos do Instagram alimentam a insegurança e contribuem para problemas de saúde mental, promovendo conteúdo que glorifica os transtornos alimentares, por exemplo, para jovens usuárias.

    Em vez de proibir a amplificação algorítmica, Hartzog diz que deve haver salvaguardas obrigatórias que monitorem os efeitos deletérios dos algoritmos sugados, acrescentando que "existem coisas como algoritmos seguros". A verdadeira questão, diz ele, é que podemos ter uma amplificação algorítmica segura?

    "Eles devem ser obrigados a agir de maneira que não entre em conflito com nossa segurança e bem-estar", diz Hartzog. "Essa é uma maneira de abordar esse problema que não proíbe totalmente a amplificação algorítmica".

    Hartzog também sugeriu que os reguladores poderiam se basear no conceito de responsabilidade fiduciária e impor "deveres de cuidado, confidencialidade e lealdade" às ​​empresas de tecnologia, semelhantes aos deveres que médicos, advogados e contadores estão vinculados a seus clientes e pacientes – só aqui seria em relação aos usuários finais.

    O problema está nos incentivos financeiros, argumenta Hartzog, e é por isso que a ideia de transformar as empresas de tecnologia em "fiduciárias da informação" ganhou força. Legisladores estaduais e federais estão analisando o modelo fiduciário da informação na legislação em análise.

    "O que eu gostaria de ver sair disso... é uma conversa mais profunda e ampla sobre como mudar fundamentalmente os incentivos que estão gerando todo tipo de comportamento prejudicial relacionado à coleta e uso de informações privadas", diz Hartzog.
    © Ciência https://pt.scienceaq.com