Crédito CC0:domínio público
Quando seu chefe liga e diz para você transferir US $ 100, 000 para um fornecedor, esteja na ponta dos pés. Pode ser uma chamada falsa.
Como se e-mails falsos de "phishing" não bastassem, em ascensão agora estão os áudios "deep fake" que podem ser clonados com quase perfeição para soar quase perfeito, e são fáceis de criar para hackers.
"Está em alta, e algo a ter em atenção, "diz Vijay Balasubramaniyan, o CEO da Pindrop, uma empresa que oferece autenticação biométrica para empresas.
Balasubramaniyan demonstrou durante uma conferência de segurança como é fácil pegar áudio da internet e usar o aprendizado de máquina para criar frases gravadas em sentenças que o ser humano provavelmente nunca disse.
"Tudo que você precisa é de cinco minutos de áudio, e você pode criar áudio falso, "disse Balasubramaniyan.
Por exemplo, ele mostrou um banco de dados de vozes, digitou "Esta manhã, as forças americanas deram à Coreia do Norte o nariz sangrento que eles merecem, "e o conectou ao nome do presidente Donald Trump na lista. Alguns segundos depois, ele clicou em play, e parecia assustadoramente real.
Ele também apresentou um exemplo de CEO do Facebook, Mark Zuckerberg, supostamente respondendo à multa de US $ 5 bilhões de 2019 da rede social por violação de privacidade feita por ele supostamente dizendo:“A FTC acha que uma multa de US $ 5 bilhões vai nos impedir de violar a privacidade das pessoas?
Recentemente, A voz da presidente da Câmara, Nancy Pelosi, foi alterada em um clipe de mídia social, mas esse não foi um exemplo de áudio falso, Balasubramaniyan disse, apenas diminuindo a velocidade do áudio para fazer parecer que sua voz estava arrastada.
Mais caros são os exemplos de chamadas telefônicas falsas, onde os fraudadores conseguiram falsificar o número de telefone de contatos reais e fazer ligações que resultaram no envio de muito dinheiro por parte dos funcionários.
Ele citou o exemplo de uma empresa de energia do Reino Unido em 2019 que foi invadida por um áudio muito falso, em uma ligação que exigia a transferência do valor de US $ 243, 000 para um fornecedor. De acordo com o Wall Street Journal, o executivo foi instruído a pagar dentro de uma hora.
Então o que fazer?
Balasubramaniyan diz que se você receber esse tipo de ligação supostamente de um "chefe, "seja cético e peça para ligar de volta imediatamente para confirmar a autenticidade.
Faça a ligação, e se o verdadeiro chefe responder, "você sabe que é real."
Além de estar alerta, as empresas precisam empregar várias medidas de segurança para também acompanhar chamadas telefônicas profundamente falsas geradas por inteligência artificial, ele adiciona, software para detectar chamadas autênticas versus chamadas falsas.
"Esta é uma ameaça que está esperando para acontecer, "ele diz." É um número muito pequeno agora, mas é muito real. "
(c) 2020, EUA Hoje
Visite o EUA hoje em www.usatoday.com