O avanço da inteligência artificial abre a privacidade dos dados de saúde para ataques
p Crédito CC0:domínio público
p Os avanços na inteligência artificial criaram novas ameaças à privacidade dos dados de saúde, mostra um novo estudo da UC Berkeley. p O estudo, liderado pelo professor Anil Aswani do Departamento de Engenharia Industrial e Pesquisa Operacional (IEOR) na Faculdade de Engenharia e sua equipe, sugere que as leis e regulamentações atuais não são nem de longe suficientes para manter o estado de saúde de um indivíduo privado em face do desenvolvimento de IA. A pesquisa foi lançada hoje em
Rede JAMA aberta .
p No trabalho, que foi financiado em parte pelo Centro de Segurança Cibernética de Longo Prazo da UC Berkeley, Aswani mostra que, usando inteligência artificial, é possível identificar indivíduos aprendendo padrões diários em dados de etapas (como aqueles coletados por rastreadores de atividades, smartwatches e smartphones) e correlacionando-os com dados demográficos. A extração de dados de dois anos cobrindo mais de 15, 000 americanos chegaram à conclusão de que os padrões de privacidade associados à legislação HIPAA (Lei de Responsabilidade e Portabilidade de Seguros de Saúde) de 1996 precisam ser revisados e retrabalhados.
p "Queríamos usar o NHANES (National Health and Nutrition Examination Survey) para analisar questões de privacidade porque esses dados são representativos da população diversificada dos EUA, "Aswani diz." Os resultados apontam para um grande problema. Se você retirar todas as informações de identificação, não o protege tanto quanto você pensa. Outra pessoa pode voltar e colocar tudo de volta no lugar, se tiver o tipo certo de informação. "
p "Em princípio, você pode imaginar o Facebook coletando dados de etapas do aplicativo em seu smartphone, em seguida, comprar dados de saúde de outra empresa e combinar os dois, "ele explica." Agora eles teriam dados de saúde que combinam com nomes, e eles poderiam começar a vender publicidade com base nisso ou vender os dados para outras pessoas. "
p Aswani deixa claro que o problema não é com os dispositivos, mas com a forma como as informações que os dispositivos capturam podem ser mal utilizadas e potencialmente vendidas no mercado aberto.
p "Não estou dizendo que devemos abandonar esses dispositivos, "ele diz." Mas precisamos ser muito cuidadosos sobre como estamos usando esses dados. Precisamos proteger as informações. Se pudermos fazer isso, é um resultado líquido positivo. "
p Embora o estudo tenha olhado especificamente para os dados da etapa, Aswani afirma que os resultados sugerem uma ameaça mais ampla à privacidade dos dados de saúde. "Os regulamentos da HIPAA tornam o seu sistema de saúde privado, mas eles não cobrem tanto quanto você pensa, "diz ele." Muitos grupos, como empresas de tecnologia, não são cobertos pela HIPAA, e apenas informações muito específicas não podem ser compartilhadas pelas regras atuais da HIPAA. Existem empresas comprando dados de saúde. Devem ser dados anônimos, mas todo o seu modelo de negócios é encontrar uma maneira de atribuir nomes a esses dados e vendê-los. "
p Aswani diz que está preocupado com o fato de que, à medida que os avanços na IA tornam mais fácil para as empresas obter acesso aos dados de saúde, a tentação de as empresas usá-lo de maneiras ilegais ou antiéticas aumentará. Empregadores, credores hipotecários, empresas de cartão de crédito e outros podem usar IA para discriminar com base na gravidez ou estado de deficiência, por exemplo.
p "Idealmente, o que eu gostaria de ver com isso são novos regulamentos ou regras que protegem os dados de saúde, ", diz ele." Mas há realmente um grande empurrão para enfraquecer os regulamentos agora. Por exemplo, o grupo de criação de regras para HIPAA solicitou comentários sobre o aumento do compartilhamento de dados. O risco é que, se as pessoas não estão cientes do que está acontecendo, as regras que temos serão enfraquecidas. E o fato é que os riscos de perdermos o controle de nossa privacidade quando se trata de assistência médica estão aumentando, e não diminuindo. "