Há preocupações crescentes sobre os riscos potenciais da IA - e críticas crescentes aos gigantes da tecnologia. Na esteira do que foi chamado de reação negativa de IA ou "techlash", estados e empresas estão acordando para o fato de que o design e o desenvolvimento da IA devem ser éticos, beneficiam a sociedade e protegem os direitos humanos.
Nos últimos meses, O Google enfrentou protestos de sua própria equipe contra o trabalho de IA da empresa com os militares dos EUA. O Departamento de Defesa dos Estados Unidos contratou o Google para desenvolver IA para analisar imagens de drones no que é conhecido como "Projeto Maven".
Um porta-voz do Google teria dito:"a reação foi terrível para a empresa" e "cabe a nós mostrar liderança". Ela se referiu a "planos para revelar novos princípios éticos". Esses princípios já foram divulgados.
Executivo-chefe do Google, Sundar Pichar, reconheceu que "esta área é dinâmica e está em evolução" e disse que o Google estaria disposto a "adaptar nossa abordagem à medida que aprendemos com o tempo". Isso é importante porque, enquanto os princípios são um começo, mais trabalho e compromissos mais concretos são necessários para que o Google se torne eficaz na proteção dos direitos humanos.
Princípios do Google sobre IA
O Google também se compromete a não buscar:
Mas há poucos detalhes sobre como isso realmente acontecerá.
As aplicações de IA podem causar uma ampla gama de danos
Os princípios do Google reconhecem o risco de parcialidade da IA e sua ameaça à privacidade. Isso é importante à luz das descobertas de que os algoritmos de pesquisa do Google podem reproduzir estereótipos raciais e de gênero. Mas os princípios não reconhecem os riscos mais amplos para todos os direitos humanos e a necessidade de protegê-los. Por exemplo, algoritmos tendenciosos não apenas resultam em discriminação, mas também podem afetar o acesso a oportunidades de emprego.
Além do mecanismo de pesquisa, Os outros negócios do Google também podem levantar questões de direitos humanos. O Google criou a empresa Jigsaw, que usa IA para fazer a curadoria de conteúdo online em uma tentativa de lidar com linguagem abusiva, ameaças, e assédio online. Mas a moderação de conteúdo também pode representar ameaças ao direito à liberdade de expressão.
O Google Brain está usando o aprendizado de máquina para prever resultados de saúde a partir de registros médicos, e o Google Cloud colaborará com o Fitbit. Ambos os exemplos levantam questões de privacidade e proteção de dados. Nossos colegas também questionaram se parcerias como o Google DeepMind e o NHS beneficiam ou minam as obrigações dos estados de implementar um sistema de saúde que "ofereça igualdade de oportunidades para que as pessoas desfrutem do mais alto nível de saúde possível".
O que o Google deve fazer?
A abordagem geral do Google deve se basear em encontrar maneiras de a IA ser benéfica para a sociedade sem violar os direitos humanos. Explicando seu primeiro princípio como "socialmente benéfico, "O Google diz que só" prosseguirá quando acreditarmos que os benefícios gerais prováveis excedem substancialmente os riscos e desvantagens previsíveis. "Mas uma abordagem que equilibra os riscos e os benefícios não é compatível com os direitos humanos. como o Google, não pode desenvolver uma IA que promete beneficiar algumas pessoas às custas dos direitos humanos de alguns ou de uma comunidade em particular. Em vez, tem que encontrar uma maneira de garantir que a IA não prejudique os direitos humanos.
Então, O Google precisa considerar totalmente os efeitos da IA sobre os direitos humanos ao longo de seu desenvolvimento e implantação. Especialmente assim, porque os riscos podem surgir mesmo se a tecnologia não for projetada para fins prejudiciais. Os padrões e normas internacionais de direitos humanos - incluindo os Princípios Orientadores das Nações Unidas sobre Empresas e Direitos Humanos - cobrem o propósito e o efeito das ações das empresas, incluindo o Google, sobre direitos humanos. Essas responsabilidades existentes precisam ser refletidas com muito mais clareza nos princípios do Google, principalmente sobre a ação positiva que o Google tomará para proteger os direitos humanos, mesmo que não seja intencional.
Ser responsável sobre como desenvolve e implanta IA, O Google precisa ir além da linguagem provisória atual sobre encorajar arquiteturas de privacidade e garantir "direção e controle humanos apropriados", sem explicar quem decide o que é apropriado e em que base. Ele precisa incorporar os direitos humanos ao projeto da IA e incorporar aos princípios salvaguardas, como avaliações de impacto sobre os direitos humanos e supervisão independente e processos de revisão.
Os princípios também devem detalhar como os danos aos direitos humanos serão reparados e como os indivíduos e grupos afetados podem apresentar uma reclamação, que atualmente está ausente.
O caminho a seguir?
Lançando os princípios, O CEO do Google, Sundar Pichar, reconheceu que a maneira como a IA é desenvolvida e usada terá "um impacto significativo na sociedade por muitos anos". O papel pioneiro do Google em IA significa que a empresa, de acordo com Sundar, "sinto uma profunda responsabilidade em acertar."
Embora os princípios sejam um começo importante, eles precisam de muito mais desenvolvimento se quisermos ter certeza de que nossos direitos humanos serão protegidos. A próxima etapa é o Google incorporar os direitos humanos, processos de proteção e responsabilidade em todo o desenvolvimento de IA. Isso é o que é necessário para "acertar".
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.