Crédito:Pixabay / CC0 Public Domain
O conteúdo falso de áudio ou vídeo foi classificado por especialistas como o uso mais preocupante de inteligência artificial em termos de suas aplicações potenciais para crime ou terrorismo. de acordo com um novo relatório UCL.
O estudo, publicado em Ciência do Crime e financiado pelo Dawes Center for Future Crime da UCL (e disponível como um briefing de política), identificou 20 maneiras pelas quais a IA poderia ser usada para facilitar o crime nos próximos 15 anos. Eles foram classificados em ordem de preocupação - com base no dano que poderiam causar, o potencial de lucro ou ganho criminoso, como seriam fáceis de realizar e como seriam difíceis de parar.
Os autores disseram que o conteúdo falso seria difícil de detectar e parar, e que poderia ter uma variedade de objetivos - desde desacreditar uma figura pública até extrair fundos personificando o filho ou a filha de um casal em uma videochamada. Tal conteúdo, eles disseram, pode levar a uma desconfiança generalizada de evidências de áudio e visuais, o que por si só seria um dano à sociedade.
Além de conteúdo falso, cinco outros crimes habilitados para IA foram considerados de grande preocupação. Eles estavam usando veículos sem motorista como armas, ajudando a criar mensagens de phishing mais personalizadas (spear phishing), interrompendo sistemas controlados por IA, coleta de informações online para fins de chantagem em grande escala, e notícias falsas de autoria de IA.
O autor sênior, Professor Lewis Griffin (UCL Computer Science), disse:"À medida que as capacidades das tecnologias baseadas em IA se expandem, o mesmo ocorre com seu potencial para exploração criminosa. Para se preparar adequadamente para possíveis ameaças de IA, precisamos identificar quais podem ser essas ameaças, e como eles podem impactar nossas vidas. "
Os pesquisadores compilaram os 20 crimes habilitados para IA a partir de trabalhos acadêmicos, notícias e relatórios de assuntos atuais, e ficção e cultura popular. Em seguida, eles reuniram 31 pessoas com experiência em IA para dois dias de discussões para classificar a gravidade dos crimes em potencial. Os participantes foram retirados da academia, O setor privado, a polícia, o governo e as agências de segurança do estado.
Os crimes de média preocupação incluíam a venda de itens e serviços marcados de forma fraudulenta como "IA", como triagem de segurança e publicidade direcionada. Isso seria fácil de alcançar, com lucros potencialmente grandes.
Crimes de pouca preocupação incluíam robôs de ladrão - pequenos robôs usados para entrar em propriedades por meio de pontos de acesso, como caixas de correio ou flaps de gato - que foram considerados fáceis de derrotar, por exemplo, por meio de caixas de correio, e perseguição assistida por IA, que, embora extremamente prejudicial para os indivíduos, não poderia operar em escala.
O primeiro autor, Dr. Matthew Caldwell (UCL Computer Science) disse:"As pessoas agora conduzem grande parte de suas vidas online e sua atividade online pode fazer e quebrar reputações. Tal ambiente online, onde os dados são propriedade e poder de informação, é ideal para exploração por atividades criminosas baseadas em IA.
"Ao contrário de muitos crimes tradicionais, crimes no mundo digital podem ser facilmente compartilhados, repetido, e até vendeu, permitir que técnicas criminais sejam comercializadas e que o crime seja fornecido como um serviço. Isso significa que os criminosos podem terceirizar os aspectos mais desafiadores de seus crimes baseados em IA. "
Professor Shane Johnson, Diretor do Centro Dawes para Crimes Futuros da UCL, que financiou o estudo, disse:"Vivemos em um mundo em constante mudança, que cria novas oportunidades - boas e ruins. Como tal, É imperativo anteciparmos as ameaças futuras de crimes para que os formuladores de políticas e outras partes interessadas com competência para agir possam fazê-lo antes que ocorram novas 'colheitas de crimes'. Este relatório é o primeiro de uma série que identificará as futuras ameaças de crime associadas a tecnologias novas e emergentes e o que podemos fazer a respeito. "