Neste 5 de janeiro, 2019, Arquivo de fotos de pessoas em frente à tenda do Google durante os preparativos para a CES International em Las Vegas. Os funcionários do Google tiveram mais sucesso do que outros profissionais de tecnologia em exigir mudanças na empresa. O Google cancelou um contrato com o Pentágono depois que os funcionários recusaram as implicações éticas de usar a tecnologia da empresa para analisar vídeos drones. (AP Photo / John Locher, Arquivo)
As maiores empresas de tecnologia querem que você saiba que estão tomando cuidado especial para garantir que o uso de inteligência artificial para filtrar montanhas de dados, analisar rostos ou criar assistentes virtuais não transborda para o lado negro.
Mas seus esforços para amenizar as preocupações de que suas máquinas possam ser usadas para fins nefastos não foram universalmente aceitos. Alguns céticos a veem como mera fachada de corporações mais interessadas no lucro do que no melhor interesse da sociedade.
"IA ética" tornou-se uma nova frase da moda corporativa, batido em comitês de revisão internos, cargos extravagantes, projetos de pesquisa e iniciativas filantrópicas. As mudanças têm como objetivo abordar as preocupações sobre o preconceito racial e de gênero emergente no reconhecimento facial e outros sistemas de IA, bem como abordar preocupações sobre perdas de empregos para a tecnologia e seu uso por policiais e militares.
Mas quanta substância está por trás das campanhas cada vez mais públicas de ética? E quem decide quais atividades tecnológicas não causam danos?
O Google foi atingido com as duas perguntas quando formou um novo conselho de consultores externos no final de março para ajudar a orientar como usa a IA em produtos. Mas, em vez de conquistar potenciais críticos, isso provocou rancor interno. Um pouco mais de uma semana depois, O Google cedeu à pressão da reação e dissolveu o conselho.
O quadro externo se desfez em estágios. Um dos oito membros empossados do conselho se demitiu em poucos dias e outro rapidamente se tornou alvo de protestos dos funcionários do Google, que disseram que suas opiniões conservadoras não se alinham com os valores professados pela empresa.
Enquanto milhares de funcionários pediam a demissão do presidente da Heritage Foundation Kay Coles James, O Google dissolveu o conselho na semana passada.
"Ficou claro que no ambiente atual, (o conselho) não pode funcionar como queríamos, ", disse a empresa em um comunicado.
Esse ambiente é de crescente preocupação, pois as campanhas de ética corporativa de IA carecem de força.
"Eu acho (a decisão do Google) reflete um entendimento público mais amplo de que a ética envolve mais do que apenas criar um conselho de ética sem uma estrutura institucional para fornecer responsabilidade, "O pesquisador de IA Ben Wagner disse.
A iniciativa original do Google caiu em uma tendência da indústria de tecnologia que Wagner chama de "lavagem ética, "que ele descreve como um esforço superficial que é principalmente um show para o público ou legisladores.
"É basicamente uma tentativa de fingir que você está fazendo coisas éticas e usando a ética como uma ferramenta para chegar a um fim, como evitar regulamentação, "disse Wagner, professor assistente na Universidade de Economia e Negócios de Viena. "É uma nova forma de autorregulação sem chamá-la pelo nome."
As grandes empresas têm feito um esforço cada vez mais visível para discutir seus esforços de IA nos últimos anos.
Microsoft, que muitas vezes tenta se posicionar como líder do setor em questões de ética e privacidade, publicou seus princípios sobre o desenvolvimento de IA, lançou um pequeno livro que discutiu as implicações sociais da tecnologia e pediu alguma regulamentação governamental de tecnologias de IA.
O presidente da empresa até se reuniu com o Papa Francisco no início deste ano para discutir a ética da indústria. A Amazon anunciou recentemente que está ajudando a financiar pesquisas federais sobre "justiça algorítmica, "e a Salesforce emprega um" arquiteto "para a prática ética de IA, bem como um "diretor de ética e uso humano". É difícil encontrar uma empresa de tecnologia de marca sem iniciativas semelhantes.
Neste 21 de maio, 2018, arquivo de foto do Secretário de Estado Mike Pompeo, deixou, juntou-se ao presidente da Heritage Foundation Kay Coles James, fala na Fundação Heritage, um think tank conservador de políticas públicas, em Washington. Os funcionários do Google tiveram mais sucesso do que outros profissionais de tecnologia em exigir mudanças na empresa. O Google cancelou um contrato com o Pentágono depois que os funcionários recusaram as implicações éticas de usar a tecnologia da empresa para analisar vídeos drones. E depois de mais de 2, 400 funcionários do Google assinaram uma petição pedindo que James fosse retirado do conselho, O Google descartou completamente o tabuleiro. (AP Photo / J. Scott Applewhite, Arquivo)
É bom que as empresas estejam estudando o assunto e buscando perspectivas sobre a ética do setor, disse Oren Etzioni, CEO do Allen Institute for Artificial Intelligence, uma organização de pesquisa. Mas no final das contas, ele disse, O CEO de uma empresa tem a tarefa de decidir quais sugestões sobre ética de IA incorporar nas decisões de negócios.
"Acho que no geral é um passo positivo, e não uma folha de figueira, "disse ele." Dito isso, a prova está na implementação bem-sucedida. Acho que o júri ainda está decidido sobre isso. "
O impacto que a inteligência artificial pode ter na sociedade nunca foi tão claro, Etzioni disse, e as empresas estão reagindo a estudos sobre o poder dos algoritmos de recomendação e o preconceito de gênero na IA.
Mas, como mostra a tentativa do Google, discutir as questões aos olhos do público também convida ao escrutínio público.
Os funcionários do Google tiveram mais sucesso do que outros profissionais de tecnologia em exigir mudanças em suas empresas. O gigante das buscas na Internet cancelou um contrato com o Pentágono depois que os funcionários recusaram as implicações éticas do uso da tecnologia de IA da empresa para analisar vídeos de drones.
E depois de mais de 2, 400 funcionários do Google assinaram uma petição pedindo que James fosse retirado do conselho, O Google descartou completamente o tabuleiro. Funcionários disseram que James fez comentários anteriores que eram anti-trans e anti-imigrantes e não deveriam estar em um painel de ética. A Heritage Foundation não respondeu a um pedido de comentário.
O Google também enfrentou dissidência de seus conselheiros escolhidos. Alessandro Acquisti, um professor da Carnegie Mellon University, anunciando no Twitter que estava recusando o convite. Ele escreveu que se dedica a lutar pela justiça e pela inclusão na IA, mas este não era o "fórum certo para eu me envolver neste importante trabalho". Ele se recusou a comentar mais.
Uma especialista que se comprometeu a permanecer no conselho é Joanna Bryson, professor associado de computação na University of Bath. Um liberal que se autodenomina, ela disse antes da dissolução que faz sentido ter diversidade política no painel, e ela não concordou com aqueles que pensam que é só para mostrar.
"Só não acho que o Google seja tão estúpido, "Bryson disse." Eu não acho que eles estão lá apenas para ter um pôster na parede. "
Ela disse, Contudo, que empresas como o Google e a Microsoft têm uma preocupação real com a responsabilidade, o que significa que querem ter certeza de que se mostram, e o público, que eles tentaram o seu melhor para criar produtos da maneira certa antes de lançá-los.
"Não é apenas a coisa certa a fazer, é o que eles precisam fazer, "ela disse. Bryson disse que ela estava esperançosa de que o Google realmente quisesse fazer um brainstorm de problemas difíceis e deveria encontrar outra maneira de fazê-lo após a dissolução do conselho.
Não está claro o que o Google fará a seguir. A empresa disse que está "voltando à prancheta" e que encontrará outras maneiras de obter opiniões externas.
Wagner disse que agora é a hora de o Google estabelecer princípios éticos que incluam compromissos que eles devem cumprir, supervisão externa e outros pontos de verificação para responsabilizá-los.
Mesmo que as empresas continuem criando conselhos externos para supervisionar a responsabilidade da IA, regulamentação governamental ainda será necessária, disse Liz O'Sullivan, um trabalhador de tecnologia que deixou a empresa Clarifai de IA por causa do trabalho da empresa no Projeto Maven do Pentágono - o mesmo projeto que o Google abandonou depois que seus funcionários protestaram.
O'Sullivan desconfia dos conselhos que podem fazer sugestões que as empresas não têm nenhuma obrigação legal de seguir.
"Toda empresa desse porte que declara estar interessada em ter algum tipo de supervisão que não tem capacidade ou autoridade para restringir ou restringir o comportamento da empresa parece que está fazendo isso pela imprensa de tudo, " ela disse.
© 2019 Associated Press. Todos os direitos reservados.