Cerca de uma dúzia de funcionários do Google estão saindo da empresa por causa de sua colaboração com os militares dos EUA em drones
Uma petição interna pedindo que o Google fique fora do "negócio da guerra" estava ganhando apoio na terça-feira, com alguns trabalhadores supostamente desistindo para protestar contra uma colaboração com os militares dos EUA.
Cerca de 4, 000 funcionários do Google teriam assinado uma petição que começou a circular há cerca de três meses pedindo ao gigante da Internet que se abstenha de usar inteligência artificial para tornar os drones militares dos EUA melhores no reconhecimento do que estão monitorando.
O site de notícias de tecnologia Gizmodo relatou esta semana que cerca de uma dúzia de funcionários do Google estão pedindo demissão por uma postura ética.
A empresa sediada na Califórnia não respondeu imediatamente a perguntas sobre o que foi referido como Projeto Maven, que supostamente usa aprendizado de máquina e talento de engenharia para distinguir pessoas e objetos em vídeos de drones para o Departamento de Defesa.
"Acreditamos que o Google não deve estar no ramo da guerra, "diz a petição, de acordo com cópias postadas online.
"Portanto, pedimos que o Projeto Maven seja cancelado, e aquele rascunho do Google, divulgar e fazer cumprir uma política clara afirmando que nem o Google nem seus contratados jamais construirão tecnologia de guerra. "
'Afaste-se' dos drones assassinos
The Electronic Frontier Foundation, um grupo de direitos de internet, e o Comitê Internacional para o Controle de Armas de Robôs (ICRAC) estavam entre aqueles que deram seu apoio.
Embora os relatórios indicassem que as descobertas de inteligência artificial seriam revisadas por analistas humanos, a tecnologia pode abrir caminho para sistemas de direcionamento automatizados em drones armados, O ICRAC fundamentou em uma carta aberta de apoio aos funcionários do Google contra o projeto.
"À medida que os comandantes militares passam a ver os algoritmos de reconhecimento de objetos como confiáveis, será tentador atenuar ou mesmo remover a revisão humana e a supervisão desses sistemas, "ICRAC disse na carta.
"Estamos a apenas um passo de autorizar drones autônomos a matar automaticamente, sem supervisão humana ou controle humano significativo. "
O Google declarou oficialmente que seu trabalho para melhorar a capacidade das máquinas de reconhecer objetos não é para usos ofensivos, mas os documentos publicados mostram uma imagem "mais sombria", Cindy Cohn e Peter Eckersley, da EFF, disseram em um post online no mês passado.
"Se a nossa leitura do registro público estiver correta, sistemas que o Google está apoiando ou construindo sinalizam pessoas ou objetos vistos por drones para análise humana, e, em alguns casos, isso levaria a ataques de mísseis subsequentes sobre essas pessoas ou objetos, "disseram Cohn e Eckersley.
"Essas são apostas éticas pesadas, mesmo com humanos no loop mais adiante na 'cadeia de morte'. "
A EFF e outros deram as boas-vindas ao debate interno do Google, enfatizando a necessidade de marcos morais e éticos quanto ao uso de inteligência artificial em armamentos.
"O uso de IA em sistemas de armas é um tópico crucialmente importante e que merece uma discussão pública internacional e provavelmente alguns acordos internacionais para garantir a segurança global, "Cohn e Eckersley disseram.
"Empresas como o Google, bem como suas contrapartes em todo o mundo, deve considerar as consequências e exigir responsabilidade real e padrões de comportamento das agências militares que buscam sua especialização - e de si mesmas. "
© 2018 AFP