Existe algo como um algoritmo seguro? A discussão sobre regulamentação ganha força
Crédito:Matthew Modoono/Northeastern University
Desde que Frances Haugen, ex-funcionária do Facebook, apresentou informações preocupantes sobre os danos de longo alcance causados pelos algoritmos da empresa, as conversas sobre possíveis reformas regulatórias só se intensificaram.
Agora há um amplo consenso entre especialistas e políticos de que são necessárias mudanças regulatórias para proteger os usuários, principalmente crianças e meninas, que são vulneráveis a problemas de saúde mental e problemas de imagem corporal vinculados aos algoritmos da plataforma de mídia social. Várias mudanças foram cogitadas, desde emendas à Seção 230 da Lei federal de Decência nas Comunicações – a lei que rege a responsabilidade entre provedores de serviços, incluindo a Internet – até mandatos de transparência que dariam a especialistas externos acesso ao funcionamento interno de empresas de tecnologia como o Facebook. .
Mas, dada a expectativa de liberdade de expressão online, os legisladores terão que ser criativos. Uma possível solução é criar uma nova agência federal encarregada de regular as empresas de mídia social, como foi feito com o Consumer Financial Protection Bureau após a crise financeira de 2008, mas levanta questões sobre como o processo político e os partidos idéias diferentes sobre privacidade e liberdade de expressão, viriam a influenciar tal esforço, dizem vários especialistas do Nordeste.
"Eu me pergunto se as partes concordariam em criar uma agência especial ou aumentar a [Federal Communications Commission] de forma a fornecer mais poder regulatório ao governo federal", diz David Lazer, professor universitário de ciência política e ciências da computação. no Nordeste.
Uma nova agência poderia ajudar a descarregar alguns dos encargos regulatórios enfrentados pela Comissão Federal de Comércio, mas também pode revelar-se uma arma política perigosa que nenhuma das partes gostaria que a outra tivesse, diz Lazer.
De qualquer forma, é preciso haver "mais mecanismos para tornar o Facebook mais transparente", diz ele.
"O problema é que, uma vez que você tem transparência, todo mundo vê algo diferente", diz Lazer.
Testemunhando perante o Congresso na semana passada, Haugen ajudou a esclarecer como o Facebook, que também é dono do Instagram e do WhatsApp, desenvolveu algoritmos que promoviam conteúdo odioso, prejudicial e problemático às custas de seus usuários. Documentos que Haugen compartilhou com o Wall Street Journal no mês passado mostraram que a gigante da tecnologia sabia que seus algoritmos eram prejudiciais a partir de pesquisas internas, mas optou por manter as informações em segredo.
No fim de semana, um alto executivo do Facebook disse que a empresa apóia permitir que os reguladores acessem seus algoritmos – e maior transparência de forma mais ampla.
É importante "desmistificar" como essas tecnologias, que foram escondidas atrás de um véu de sigilo por anos, realmente funcionam, diz Woodrow Hartzog, professor de direito e ciência da computação especializado em proteção de dados e privacidade.
Sabe-se há anos, por exemplo, que os algoritmos do Facebook amplificam ou otimizam conteúdo que gera indignação. Revelações no Wall Street Journal mostraram que a própria pesquisa do Facebook mostrou que seus algoritmos do Instagram alimentam a insegurança e contribuem para problemas de saúde mental, promovendo conteúdo que glorifica os transtornos alimentares, por exemplo, para jovens usuárias.
Em vez de proibir a amplificação algorítmica, Hartzog diz que deve haver salvaguardas obrigatórias que monitorem os efeitos deletérios dos algoritmos sugados, acrescentando que "existem coisas como algoritmos seguros". A verdadeira questão, diz ele, é que podemos ter uma amplificação algorítmica segura?
"Eles devem ser obrigados a agir de maneira que não entre em conflito com nossa segurança e bem-estar", diz Hartzog. "Essa é uma maneira de abordar esse problema que não proíbe totalmente a amplificação algorítmica".
Hartzog também sugeriu que os reguladores poderiam se basear no conceito de responsabilidade fiduciária e impor "deveres de cuidado, confidencialidade e lealdade" às empresas de tecnologia, semelhantes aos deveres que médicos, advogados e contadores estão vinculados a seus clientes e pacientes – só aqui seria em relação aos usuários finais.
O problema está nos incentivos financeiros, argumenta Hartzog, e é por isso que a ideia de transformar as empresas de tecnologia em "fiduciárias da informação" ganhou força. Legisladores estaduais e federais estão analisando o modelo fiduciário da informação na legislação em análise.
"O que eu gostaria de ver sair disso... é uma conversa mais profunda e ampla sobre como mudar fundamentalmente os incentivos que estão gerando todo tipo de comportamento prejudicial relacionado à coleta e uso de informações privadas", diz Hartzog.