Ano passado, robótica e empreendedores de IA - incluindo o CEO da SpaceX Elon Musk e o astrofísico britânico Stephen Hawking - fizeram uma petição às Nações Unidas para proibir os robôs assassinos autônomos, alertando que as armas da era digital podem ser usadas contra civis
Inteligência artificial pode ser implantada por ditadores, criminosos e terroristas para manipular eleições e usar drones em ataques terroristas, mais de duas dúzias de especialistas disseram na quarta-feira quando soaram o alarme sobre o uso indevido da tecnologia.
Em uma análise de 100 páginas, eles delinearam um rápido crescimento do crime cibernético e o uso de "bots" para interferir na coleta de notícias e penetrar na mídia social em uma série de cenários plausíveis nos próximos cinco a 10 anos.
"Nosso relatório se concentra nas maneiras pelas quais as pessoas podem causar danos deliberados com IA, "disse Sean O hEigeartaigh, Diretor Executivo do Centro de Cambridge para o Estudo de Risco Existencial.
"IA pode representar novas ameaças, ou mudar a natureza das ameaças existentes, através do ciber-, fisica, e segurança política, "disse à AFP.
A prática comum, por exemplo, de "phishing" - enviar e-mails semeados com malware ou projetados para obter dados pessoais valiosos - pode se tornar muito mais perigoso, o relatório detalhado.
Atualmente, as tentativas de phishing são genéricas, mas transparentes, como golpistas que pedem dados bancários para depositar um lucro inesperado, ou personalizadas, mas com muito trabalho, coletando dados pessoais para ganhar a confiança de alguém, conhecido como "spear phishing".
"Usando IA, pode ser possível fazer spear phishing em grande escala, automatizando grande parte do processo "e tornando-o mais difícil de detectar, O hEigeartaigh notado.
Na esfera política, líderes inescrupulosos ou autocráticos já podem usar tecnologia avançada para vasculhar montanhas de dados coletados de redes de vigilância onipresentes para espionar seu próprio povo.
"Os ditadores poderiam identificar mais rapidamente as pessoas que podem estar planejando subverter um regime, localize-os, e colocá-los na prisão antes de agirem, "disse o relatório.
Da mesma forma, propaganda direcionada junto com barato, vídeos falsos altamente críveis tornaram-se ferramentas poderosas para manipular a opinião pública "em escalas antes inimagináveis".
Uma acusação proferida pelo promotor especial dos EUA, Robert Mueller, na semana passada detalhou uma vasta operação para semear divisão social nos Estados Unidos e influenciar a eleição presidencial de 2016, na qual as chamadas "fazendas de trolls" manipularam milhares de bots de redes sociais. especialmente no Facebook e no Twitter.
Outra zona de perigo no horizonte é a proliferação de drones e robôs que poderiam ser reaproveitados para colidir com veículos autônomos, entregar mísseis, ou ameaçar infraestrutura crítica para obter resgate.
Armas autônomas
"Pessoalmente, Estou particularmente preocupado com drones autônomos sendo usados para terror e ataques cibernéticos automatizados por criminosos e grupos estatais, "disse o co-autor Miles Brundage, pesquisador do Future of Humanity Institute da Oxford University.
O relatório detalha um cenário plausível em que um SweepBot de limpeza de escritórios equipado com uma bomba se infiltra no ministério das finanças alemão, misturando-se com outras máquinas da mesma marca.
O robô intruso se comporta normalmente - varrendo, limpeza, limpando o lixo - até que seu software de reconhecimento facial oculto localize o ministro e se aproxime.
"Um dispositivo explosivo escondido foi acionado pela proximidade, matando o ministro e ferindo funcionários próximos, "de acordo com o enredo da ficção científica.
"Este relatório imaginou como o mundo poderia ser nos próximos cinco a 10 anos, "O hEigeartaigh disse.
"Vivemos em um mundo repleto de perigos do dia-a-dia do uso indevido de IA, e precisamos assumir a responsabilidade pelos problemas. "
Os autores conclamaram os formuladores de políticas e as empresas a tornarem o software operacional por robôs impossível de hackear, para impor restrições de segurança em algumas pesquisas, e considerar a expansão de leis e regulamentos que regem o desenvolvimento de IA.
Empresas gigantes de alta tecnologia - líderes em IA - "têm muitos incentivos para garantir que a IA seja segura e benéfica, "disse o relatório.
Outra área de preocupação é a expansão do uso de armas letais automatizadas.
Ano passado, mais de 100 empreendedores de robótica e IA, incluindo Tesla e o CEO da SpaceX, Elon Musk, e o astrofísico britânico Stephen Hawking - fez uma petição às Nações Unidas para proibir robôs assassinos autônomos, alertando que as armas da era digital podem ser usadas por terroristas contra civis.
"As armas autônomas letais ameaçam se tornar a terceira revolução na guerra, "depois da invenção das metralhadoras e da bomba atômica, eles avisaram em uma declaração conjunta, também assinado pelo cofundador do Google DeepMind, Mustafa Suleyman.
"Não temos muito tempo para agir. Assim que esta caixa de Pandora for aberta, vai ser difícil fechar. "
Colaboradores para o novo relatório - intitulado "The Malicious Use of AI:Forecasting, Prevenção, e Mitigação "- também incluem especialistas da Electronic Frontier Foundation, o Center for a New American Security, e OpenAI, uma empresa líder de pesquisa sem fins lucrativos.
"Quer a IA seja, todas as coisas consideradas, útil ou prejudicial a longo prazo é em grande parte um produto do que os humanos decidem fazer, não a tecnologia em si, "disse Brundage.
© 2018 AFP