• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A inteligência artificial agora pode emular o comportamento humano - em breve será perigosamente bom

    Este rosto é apenas um conjunto de bits de computador? Crédito:Michal Bednarek / Shutterstock.com

    Quando os sistemas de inteligência artificial começam a ficar criativos, eles podem criar coisas incríveis - e assustadoras. Leva, por exemplo, um programa de IA que permite aos usuários da web compor música junto com um Johann Sebastian Bach virtual, inserindo notas em um programa que gera harmonias do tipo Bach para combiná-las.

    Administrado pelo Google, o aplicativo foi muito elogiado por ser inovador e divertido de se jogar. Também atraiu críticas, e levantou preocupações sobre os perigos da IA.

    Meu estudo de como as tecnologias emergentes afetam a vida das pessoas me ensinou que os problemas vão além da grande preocupação sobre se os algoritmos podem realmente criar música ou arte em geral. Algumas reclamações pareciam pequenas, mas realmente não eram, como observações de que a IA do Google estava quebrando as regras básicas de composição musical.

    Na verdade, esforços para que os computadores imitem o comportamento de pessoas reais podem ser confusos e potencialmente prejudiciais.

    Tecnologias de falsificação de identidade

    O programa do Google analisou as notas em 306 das obras musicais de Bach, encontrando relações entre a melodia e as notas que forneceram a harmonia. Porque Bach seguia regras estritas de composição, o programa estava aprendendo efetivamente essas regras, para que pudesse aplicá-los quando os usuários fornecerem suas próprias notas.

    O próprio aplicativo Bach é novo, mas a tecnologia subjacente não. Algoritmos treinados para reconhecer padrões e tomar decisões probabilísticas existem há muito tempo. Alguns desses algoritmos são tão complexos que as pessoas nem sempre entendem como tomam decisões ou produzem um determinado resultado.

    A equipe do Google Doodle explica o programa Bach.

    Os sistemas de IA não são perfeitos - muitos deles dependem de dados que não são representativos de toda a população, ou que são influenciados por preconceitos humanos. Não está totalmente claro quem pode ser legalmente responsável quando um sistema de IA comete um erro ou causa um problema.

    Agora, no entanto, tecnologias de inteligência artificial estão ficando avançadas o suficiente para ser capaz de aproximar o estilo de escrita ou fala dos indivíduos, e até mesmo expressões faciais. Isso nem sempre é ruim:uma IA bastante simples deu a Stephen Hawking a capacidade de se comunicar de maneira mais eficiente com os outros, prevendo as palavras que ele mais usaria.

    Programas mais complexos que imitam vozes humanas ajudam pessoas com deficiência - mas também podem ser usados ​​para enganar os ouvintes. Por exemplo, os criadores do Lyrebird, um programa de imitação de voz, lançaram uma conversa simulada entre Barack Obama, Donald Trump e Hillary Clinton. Pode parecer real, mas essa troca nunca aconteceu.

    De bom para ruim

    Em fevereiro de 2019, a empresa sem fins lucrativos OpenAI criou um programa que gera texto virtualmente indistinguível de texto escrito por pessoas. Pode "escrever" um discurso no estilo de John F. Kennedy, J.R.R. Tolkien em "O Senhor dos Anéis" ou um aluno escrevendo um trabalho escolar sobre a Guerra Civil dos Estados Unidos.

    O texto gerado pelo software OpenAI é tão verossímil que a empresa optou por não lançar o programa em si.

    Tecnologias semelhantes podem simular fotos e vídeos. No início de 2018, por exemplo, O ator e cineasta Jordan Peele criou um vídeo que parecia mostrar o ex-presidente dos Estados Unidos, Barack Obama, dizendo coisas que Obama nunca disse para alertar o público sobre os perigos representados por essas tecnologias.

    Cuidado com os vídeos em que você acredita.

    No início de 2019, uma foto falsa de nudez do representante dos EUA Alexandria Ocasio-Cortez circulou online. Vídeos fabricados, frequentemente chamado de "deepfakes, "devem ser cada vez mais usados ​​em campanhas eleitorais.

    Os membros do Congresso começaram a examinar essa questão antes das eleições de 2020. O Departamento de Defesa dos EUA está ensinando o público a localizar vídeos e áudio adulterados. Organizações de notícias como a Reuters estão começando a treinar jornalistas para detectar falsificações.

    Mas, na minha opinião, uma preocupação ainda maior permanece:os usuários podem não ser capazes de aprender rápido o suficiente para distinguir conteúdo falso conforme a tecnologia de IA se torna mais sofisticada. Por exemplo, à medida que o público está começando a se dar conta dos deepfakes, A IA já está sendo usada para enganos ainda mais avançados. Agora existem programas que podem gerar rostos e impressões digitais falsas, criando efetivamente as informações necessárias para fabricar uma pessoa inteira - pelo menos em registros corporativos ou governamentais.

    As máquinas continuam aprendendo

    No momento, existem erros potenciais suficientes nessas tecnologias para dar às pessoas a chance de detectar fabricações digitais. O compositor de Bach do Google cometeu alguns erros que um especialista poderia detectar. Por exemplo, quando eu tentei, o programa me permitiu entrar quintas paralelas, um intervalo musical que Bach evitou cuidadosamente. O aplicativo também quebrou as regras musicais do contraponto ao harmonizar melodias na tonalidade errada. De forma similar, O programa de geração de texto da OpenAI ocasionalmente escrevia frases como "incêndios acontecendo debaixo d'água" que não faziam sentido em seus contextos.

    Enquanto os desenvolvedores trabalham em suas criações, esses erros se tornarão mais raros. Efetivamente, As tecnologias de IA evoluirão e aprenderão. O melhor desempenho tem o potencial de trazer muitos benefícios sociais - incluindo melhores cuidados de saúde, já que os programas de IA ajudam a democratizar a prática da medicina.

    Dando aos pesquisadores e empresas liberdade para explorar, a fim de buscar essas conquistas positivas de sistemas de IA, significa abrir o risco de desenvolver maneiras mais avançadas de criar engano e outros problemas sociais. Limitar severamente a pesquisa de IA poderia conter esse progresso. Mas dar espaço para o crescimento de tecnologias benéficas tem um custo não pequeno - e o potencial para uso indevido, seja para fazer música "semelhante a Bach" imprecisa ou para enganar milhões, tende a crescer de maneiras que as pessoas ainda não podem prever.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com