• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Usando aprendizagem multitarefa para tradução de fala de baixa latência

    Crédito:Suan Moo, Unsplash.com

    Pesquisadores do Karlsruhe Institute of Technology (KIT), Na Alemanha, aplicaram recentemente o aprendizado de máquina multitarefa à tradução de fala neural de baixa latência. Seu estudo, que foi pré-publicado em ArXiv , aborda algumas das limitações das técnicas existentes de tradução automática neural (NMT).

    Os avanços no campo da aprendizagem profunda levaram a melhorias significativas na fala humana e na tradução de textos. NMT, uma abordagem amplamente usada para tradução automática, treina uma grande rede neural para ler uma frase e fornecer uma tradução precisa, geralmente modelando frases inteiras em um modelo integrado.

    Quando comparado com as abordagens tradicionais, como tradução automática baseada em regras ou estatística, NMT normalmente consegue traduções mais fluentes, tanto para fala quanto para texto escrito. Embora possa capturar com eficácia dependências mais complexas entre os idiomas de origem e de destino, para ter um bom desempenho de forma consistente, esta abordagem requer quantidades substanciais de dados de treinamento.

    "Ao aplicar a tradução parcial de frases a sistemas neurais de tradução automática, encontramos o problema de que o sistema MT só foi treinado em frases completas, e, assim, o decodificador é tendencioso para gerar sentenças-alvo completas, "os pesquisadores escreveram em seu artigo." Ao receber entradas que são sentenças parciais, as saídas da tradução não têm a garantia de corresponder exatamente ao conteúdo de entrada. Observamos que a tradução é muitas vezes "fantasiada" pelo modelo como uma frase completa, como teria ocorrido nos dados de treinamento. "

    Em outros casos, o decodificador pode cair em um estado de sobre-geração, repetindo a última palavra que lhe foi fornecida várias vezes em sua tradução. Para resolver esses problemas, os pesquisadores do KIT se concentraram na tradução de fala nos casos em que um NMT precisa fornecer uma tradução inicial em tempo real, antes que o falante termine sua frase.

    "Nesse trabalho, pretendemos remediar o problema da tradução parcial de frases em NMT, "escreveram os pesquisadores." Idealmente, queremos um modelo que seja capaz de gerar traduções adequadas para frases incompletas, sem qualquer compromisso durante outros casos de uso de tradução. "

    Como conjuntos de dados com sentenças parciais não estão prontamente disponíveis, os pesquisadores criaram dados artificiais que poderiam ser usados ​​no processo de treinamento. Eles treinaram a rede usando aprendizado multitarefa, uma estratégia de aprendizagem profunda que tem sido frequentemente usada no processamento de linguagem natural (PNL) para treinar um único modelo para diferentes tarefas, reduzindo despesas e melhorando seu desempenho.

    Seu estudo alcançou resultados promissores, sugerindo que os sistemas NMT podem ser adaptados para um bom desempenho, mesmo nos casos em que os dados específicos da tarefa não estão disponíveis, sem perder o desempenho na tarefa original para a qual foram treinados. "Primeiro mostramos que técnicas simples para gerar dados artificiais são eficazes para obter uma saída mais fluente com menos correção, "os pesquisadores concluíram em seu artigo." Também ilustramos que o aprendizado multitarefa pode ajudar a adaptar o modelo à nova condição de inferência, sem perder a capacidade original de traduzir frases completas. "

    Sua adaptação de NMT alcançou traduções de alta qualidade em baixa latência, minimizando o número de palavras corrigidas em 45 por cento. No futuro, seu estudo pode ter implicações práticas significativas, ajudando a desenvolver ferramentas melhores para tradução de fala em tempo real.

    © 2018 Tech Xplore




    © Ciência https://pt.scienceaq.com