• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Modelo de notícias falsas em lançamento encenado, mas dois pesquisadores iniciam a replicação

    Crédito CC0:domínio público

    Não é a notícia mais reconfortante do mundo da tecnologia:o laboratório de inteligência artificial (OpenAI) cofundado por Elon Musk disse que seu software poderia ser facilmente adaptado para produzir notícias falsas. "Dois graduados o recriaram de qualquer maneira." Aquilo foi Com fio A cobertura de 26 de agosto de uma história sobre dois mestres recém-formados em ciência da computação que lançaram o que eles disseram ser "uma recriação do software retido da OpenAI" para qualquer um baixar e usar.

    Retido? Porque? Ele foi negado devido a preocupações com o impacto social.

    Em fevereiro, OpenAI anunciou seu modelo, GPT-2, e disse que foi treinado para prever a próxima palavra em 40 GB de texto da Internet.

    Eles explicaram sua estratégia de lançamento:"Devido a preocupações com os grandes modelos de linguagem usados ​​para gerar mensagens enganosas, enviesado, ou linguagem abusiva em grande escala, estamos lançando apenas uma versão muito menor do GPT-2 junto com o código de amostragem. Não estamos lançando o conjunto de dados, código de treinamento, ou pesos do modelo GPT-2. "Em maio, disse Tecnologia MIT Análise , "alguns meses após a estreia inicial do GPT-2, A OpenAI revisou sua postura em reter o código completo para o que chama de "lançamento em estágios".

    Charanjeet Singh em Fossbytes disse que o software analisava padrões de linguagem e poderia ser usado para tarefas como chatbots e gerar respostas sem precedentes, mas "a preocupação mais alarmante entre os especialistas é a criação de texto sintético".

    Nós vamos, os dois graduados no noticiário lançaram uma recriação do software OpenAI na Internet, mas os dois pesquisadores, Aaron Gokaslan e Vanya Cohen, nunca quis drenar oceanos ou fazer o céu cair.

    Tom Simonite, que escreveu o artigo muito citado em Com fio , disseram os dois pesquisadores, 23 e 24 anos, não queriam causar estragos, mas disseram que seu lançamento pretendia mostrar que você não precisa ser um laboratório de elite rico em dólares e Ph.Ds para criar este tipo de software:eles usaram cerca de US $ 50, 000 em computação em nuvem gratuita do Google.

    Sissi Cao, Observador :Semelhante ao processo OpenAI, Gokaslan e Cohen treinaram seu software de linguagem usando páginas de texto "escritas por humanos (coletando links compartilhados no Reddit) e computação em nuvem do Google.

    O que é mais, as ações dos pesquisadores sendo potencialmente perigosas podem ser debatidas.

    Simonite apontou o seguinte:"O software de aprendizado de máquina capta os padrões estatísticos da linguagem, não uma verdadeira compreensão do mundo. O texto tanto do software original quanto do aspirante a software geralmente dá saltos sem sentido. Nenhum deles pode ser direcionado para incluir fatos ou pontos de vista específicos. "

    A saída de amostra foi fornecida por Gokaslan e Cohen em Médio e, com certeza, é uma arranhadura de cabeça quando se tenta encontrar qualquer fluxo lógico de uma frase para outra.

    Esse artigo era intitulado "OpenGPT-2:Replicamos o GPT-2 porque você também pode". Eles disseram acreditar que o lançamento de seu modelo foi um primeiro passo razoável para combater o potencial abuso futuro desses tipos de modelos. Ele disse que eles modificaram sua base de código para corresponder ao objetivo de treinamento de modelagem de linguagem do GPT-2. "Uma vez que seu modelo foi treinado em um corpus igualmente grande, muito do código e dos hiperparâmetros provou ser facilmente reutilizável. "

    Como a Open-AI não havia lançado seu maior modelo até o momento [a data de sua postagem foi em 22 de agosto], ele disse que os dois pesquisadores procuraram replicar seu modelo 1.5B para permitir que outros construíssem em seu modelo pré-treinado e melhorassem ainda mais.

    Avance para 29 de agosto. Onde tudo isso deixa o GPT-2 da OpenAI? Karen Hao em MIT Technology Review disse que a equipe de política publicou um artigo, enviado em 24 de agosto, que agora está no arXiv, e "Paralelamente, o laboratório lançou uma versão do modelo, conhecido como GPT-2, que é metade do tamanho do completo, que ainda não foi lançado. "

    O artigo de Hao foi particularmente útil para entender esse drama de texto falso, pois ela relatou como a abordagem de lançamento em etapas estava sendo recebida fora da OpenAI.

    Um engenheiro de aprendizado profundo da Nvidia disse que não achava que uma versão em estágios fosse particularmente útil neste caso porque o trabalho era facilmente replicável, "Mas pode ser útil na forma como estabelece um precedente para projetos futuros. As pessoas verão o lançamento em etapas como uma opção alternativa."

    Ela também citou Oren Etzioni, o CEO do Allen Institute for Artificial Intelligence. "Eu aplaudo a intenção de criar um projeto pensativo, processo de liberação gradual para a tecnologia de IA, mas questiona se toda a fanfarra foi justificada. "

    © 2019 Science X Network




    © Ciência https://pt.scienceaq.com