Por que a busca por um mecanismo de compartilhamento de dados que preserva a privacidade está falhando
Crédito:Pixabay/CC0 Public Domain
Do setor bancário à comunicação, nossa vida moderna e diária é impulsionada por dados com preocupações contínuas com a privacidade. Agora, um novo artigo da EPFL publicado na
Nature Computational Science argumenta que muitas promessas feitas em torno de mecanismos de preservação de privacidade nunca serão cumpridas e que precisamos aceitar esses limites inerentes e não perseguir o impossível.
A inovação baseada em dados na forma de medicina personalizada, melhores serviços públicos ou, por exemplo, produção industrial mais verde e eficiente promete trazer enormes benefícios para as pessoas e nosso planeta e o acesso generalizado aos dados é considerado essencial para impulsionar esse futuro. No entanto, práticas agressivas de coleta e análise de dados levantam o alarme sobre os valores sociais e os direitos fundamentais.
Como resultado, como ampliar o acesso aos dados enquanto protege a confidencialidade de informações pessoais confidenciais tornou-se um dos desafios mais prevalentes para liberar o potencial das tecnologias orientadas a dados e um novo artigo do Laboratório de Engenharia de Segurança e Privacidade da EPFL (SPRING) na School of Comupter and Communication Sciences argumenta que a promessa de que qualquer uso de dados é solucionável sob boa utilidade e privacidade é semelhante a perseguir arco-íris.
A chefe do SPRING Lab e coautora do artigo, a professora assistente Carmela Troncoso, diz que existem duas abordagens tradicionais para preservar a privacidade:"Existe o caminho de usar criptografia de preservação de privacidade, processar os dados em um domínio descriptografado e obter uma Mas a limitação é a necessidade de projetar algoritmos muito direcionados e não apenas realizar cálculos genéricos."
O problema com esse tipo de tecnologia de preservação de privacidade, argumenta o artigo, é que eles não resolvem um dos principais problemas mais relevantes para os profissionais:como compartilhar dados de nível individual de alta qualidade de uma maneira que preserve a privacidade, mas permita analistas para extrair o valor total de um conjunto de dados de uma maneira altamente flexível.
A segunda via que tenta resolver esse desafio é a anonimização dos dados – ou seja, a remoção de nomes, locais e códigos postais, mas, argumenta Troncoso, muitas vezes o problema são os próprios dados. "Há um exemplo famoso da Netflix em que a empresa decidiu lançar conjuntos de dados e realizar uma competição pública para produzir melhores algoritmos de 'recomendação'. Ele removeu os nomes dos clientes, mas quando os pesquisadores compararam as classificações de filmes com outras plataformas onde as pessoas classificam filmes, eles conseguiram para desanonimizar as pessoas."
Mais recentemente, os dados sintéticos surgiram como uma nova técnica de anonimização, no entanto, o artigo sugere que, em contraste com as promessas feitas por seus proponentes, está sujeito às mesmas trocas de privacidade/utilidade que a anonimização tradicional de dados. "Como dizemos em nosso artigo, pesquisadores e profissionais devem aceitar a troca inerente entre alta flexibilidade na utilidade de dados e fortes garantias de privacidade", disse Theresa Stadler, assistente de doutorado no SPRING Lab e coautora do artigo.
"Isso pode significar que o escopo dos aplicativos orientados a dados precisa ser reduzido e os detentores de dados precisarão fazer escolhas explícitas sobre a abordagem de compartilhamento de dados mais adequada ao seu caso de uso", continuou Stadler.
Outra mensagem importante do artigo é a ideia de uma liberação de tecnologia mais lenta e controlada. Hoje, a implantação ultrarrápida é a norma com uma mentalidade "vamos consertar depois" se as coisas derem errado, uma abordagem que Troncoso acredita ser muito perigosa:"Precisamos começar a aceitar que há limites. continuar esses dados liberados para todos onde não há privacidade e com grandes impactos na democracia? É como o Dia da Marmota, estamos falando sobre isso há 20 anos e a mesma coisa está acontecendo agora com o aprendizado de máquina. Colocamos algoritmos por aí , eles são tendenciosos e a esperança é que mais tarde eles sejam corrigidos. Mas e se eles não puderem ser corrigidos?"
No entanto, funcionalidade restrita e alta privacidade não são o modelo de negócios dos gigantes da tecnologia e Troncoso pede que todos nós pensemos com mais cuidado sobre como eles abordam esse problema crítico.
"Muitas das coisas que o Google e a Apple fazem são essencialmente branquear suas práticas nocivas e fechar o mercado. Por exemplo, a Apple não permite que os aplicativos coletem informações, mas coleta os próprios dados de uma maneira chamada 'preservação da privacidade' e depois vende O que estamos dizendo é que não há maneira de preservar a privacidade. A questão é "a tecnologia evitou danos ao sistema ou apenas tornou o sistema igualmente prejudicial"? A privacidade em si não é um objetivo, a privacidade é um meios para nos protegermos", conclui Troncoso.