O Google confirmou que encerrou seu painel de ética de inteligência artificial
O Google confirmou na quinta-feira que encerrou um painel consultivo de ética em inteligência artificial recentemente reunido em face da controvérsia sobre sua associação.
O fim do Conselho Consultivo Externo de Tecnologia Avançada (ATEAC) veio poucos dias depois que um grupo de funcionários do Google lançou uma campanha pública contra a presença do presidente do conservador think-tank Heritage Foundation entre seus membros.
Outro membro do conselho já havia renunciado, e a inclusão de um executivo da empresa de drones reacendeu as preocupações sobre os potenciais usos militares da inteligência artificial, de acordo com o site de notícias Vox, que primeiro relatou sobre o conselho sendo dissolvido.
"Ficou claro que no ambiente atual, ATEAC não pode funcionar como queríamos, "O Google disse à AFP.
"Então, estamos encerrando o conselho e voltando à prancheta."
O Google acrescentou que buscaria maneiras alternativas de reunir informações externas sobre o uso responsável de inteligência artificial.
Manter a IA imparcial
Uma petição publicada online convocou o Google a retirar Kay Coles James, da Heritage Foundation, do conselho formado há uma semana, devido à sua história de ser "vocalmente anti-trans, anti-LGBTQ e anti-imigrante. "
"Ao selecionar James, O Google está deixando claro que sua versão de 'ética' valoriza a proximidade do poder sobre o bem-estar das pessoas trans, outras pessoas LGBTQ e imigrantes, "leia uma declaração postada no Medium por um grupo que se identifica como Googlers Against Transphobia.
As posições expressas por James contradizem os valores declarados do Google e, se infundido em inteligência artificial, poderia criar discriminação em máquinas superinteligentes, de acordo com o post.
O grupo disse que o raciocínio para James ser adicionado ao painel foi dado como um esforço para ter uma diversidade de pensamentos.
No final da quinta-feira, a petição online mostrou mais de 2, 300 assinaturas de acadêmicos, Funcionários do Google e outros, incluindo pares da indústria de tecnologia.
A polêmica surge enquanto o mundo luta para equilibrar os benefícios potenciais da inteligência artificial com os riscos que ela poderia ser usada contra pessoas ou até mesmo, se tiver vontade própria, ligue seus criadores.
O chefe do Google, Sundar Pichai, disse em uma entrevista publicada no ano passado que as empresas de tecnologia que desenvolvem IA devem levar em consideração a ética no início do processo para fazer com que a inteligência artificial com "agência própria" não prejudique as pessoas.
O gigante da Internet com sede na Califórnia é líder no desenvolvimento de IA, competindo na corrida do software inteligente com empresas como a Amazon, Maçã, Facebook, IBM e Microsoft.
Ano passado, O Google publicou um conjunto de princípios internos de IA, o primeiro é que a IA deve ser socialmente benéfica.
O Google prometeu não projetar ou implantar IA para uso em armas, vigilância fora das normas internacionais ou em tecnologia destinada a violar os direitos humanos.
A empresa observou que continuaria a trabalhar com os militares ou governos em áreas como segurança cibernética, Treinamento, recrutamento, cuidados de saúde e busca e salvamento.
A IA já é usada para reconhecer pessoas em fotos, filtrar conteúdo indesejado de plataformas online e permitir que os carros dirijam.
© 2019 AFP