• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Notícias falsas via OpenAI:Eloquentemente incoerente?

    Crédito CC0:domínio público

    Gerador de texto da OpenAI, com tecnologia de aprendizado de máquina - tão poderoso que foi considerado perigoso demais para lançar ao público, tem, adivinha, foi lançado.

    A OpenAI publicou uma postagem no blog anunciando sua decisão de liberar o algoritmo na íntegra, pois "não viu nenhuma evidência forte de uso indevido até agora".

    Nós vamos, foi uma reviravolta.

    Foi apenas em fevereiro quando a OpenAI falou sobre um modelo de linguagem chamado GPT-2, que gera parágrafos de texto.

    Engadget :"A IA, GPT-2, foi originalmente projetado para responder a perguntas, resumir histórias e traduzir textos. Mas os pesquisadores começaram a temer que pudesse ser usado para bombear grandes volumes de desinformação. "

    Tom McKay em Gizmodo observou como o gerador de texto foi "treinado em cerca de 40 gigabytes de dados arrancados de oito milhões de sites" e bom em gerar texto a partir de um determinado prompt.

    The Verge James Vincent também falou sobre isso. "O sistema foi treinado em oito milhões de documentos de texto extraídos da web e responde a trechos de texto fornecidos pelos usuários. Alimente-o com um título falso, por exemplo, e vai escrever uma notícia; dê-lhe a primeira linha de um poema e ele fornecerá um verso inteiro. "

    Então, por que seu algoritmo foi lançado na íntegra? O público não tem o suficiente para se preocupar com notícias falsas, crítica falsa, propaganda política?

    Além do mais, a postagem do blog de fevereiro tomou o que parecia ser um caminho impressionante para mostrar ao mundo que as considerações éticas eram prioridade.

    "Nosso modelo, chamado GPT-2 (um sucessor do GPT), foi treinado simplesmente para prever a próxima palavra em 40 GB de texto da Internet. Devido às nossas preocupações sobre aplicativos maliciosos da tecnologia, não estamos lançando o modelo treinado. Como um experimento de divulgação responsável, em vez disso, estamos lançando um modelo muito menor para os pesquisadores experimentarem, bem como um artigo técnico. "

    Katyanna Quach em O registro forneceu uma linha do tempo das aparições da tecnologia OpenAI em etapas. "O laboratório de pesquisa com sede em San Francisco testou provisoriamente as águas lançando modelos cada vez maiores, começando com apenas algumas centenas de milhões de parâmetros.

    "A menor versão continha 117 milhões de parâmetros, o segundo tinha 345 milhões de parâmetros, o terceiro consistia em 774 milhões de parâmetros, e o maior, lançado na terça-feira, tem os parâmetros completos de 1,5 bilhão. Quanto mais parâmetros, quanto mais poderoso e capaz o modelo, de um modo geral. "

    Então, o que os convenceu a pegar a rampa de saída da estrada principal? Que razão eles tinham para pensar que agora era uma época mais segura do que nunca? O que aconteceu com a posição que era muito perigosa para compartilhar?

    "Não vimos nenhuma evidência de uso indevido até agora, "eles declararam em sua postagem de 5 de novembro." Embora tenhamos visto alguma discussão sobre o potencial da GPT-2 para argumentar sobre operações de alto volume / baixo rendimento, como spam e phishing, não vimos evidências de escrever código, documentação, ou casos de uso indevido. "

    Enquanto isso, James Vincent em The Verge aventurou-se a expor a possibilidade de que essa noção "perigosa" fosse apenas isso, uma noção de que, no que diz respeito ao modelo de notícias falsas, pode não ter sido solicitado em primeiro lugar.

    Havia a preocupação de que o fácil acesso a tal ferramenta de IA pudesse satisfazer os planos de agentes mal-intencionados, e a maneira responsável de lidar com isso foi liberar o modelo de forma limitada. Uma boa abordagem? Ou estava atrapalhando pesquisas futuras? "

    Agora você pode experimentar em um site, que executa o modelo GPT-2 de tamanho normal, chamado 1558M. A interface da web foi construída por Adam King usando a versão GPT-2 completa da OpenAI, disse O registro .

    Este escritor tentou explorar o que isso pode fazer com uma frase inicial "Os bebês podem lavar a louça". O que se seguiu foi uma confusão boba de lógica e saltos de tópico. No entanto, as frases carregavam uma gramática respeitável, voz e estilo. Alguns trechos:

    "E entao, essa ideia de que as crianças são incapazes de usar uma máquina de lavar é ridícula.

    "No que diz respeito à ideia de que seu filho é uma torneira de pia, essa é uma ideia que eu pessoalmente não acho que posso suportar. Sou conhecido por usar uma torneira de pia quando estou cozinhando. Posso lavar pratos em uma pia.

    "Quando o seu filho está sentado no seu colo e você está segurando a toalha e usando a água para lavar a louça, você provavelmente não está fazendo nada. "

    James Vincent atingiu o alvo com uma avaliação de três palavras:"escrita assustadoramente convincente".

    Quach também fez questão de repetir. "Ocasionalmente, ele cospe frases que são surpreendentemente boas, mas como ele continua produzindo texto, torna-se incoerente. "

    Quach teve uma razão renovadora pela qual a OpenAI contribuiu para a humanidade. "Temos um pensamento final sobre esta fascinante pesquisa de IA:ela pelo menos é um marco para os escritores humanos. Se você quiser escrever notícias ou artigos de destaque, postagens no blog, e-mails de marketing, e similar, saiba que agora você tem que ser melhor do que a saída semi-coerente do GPT-2. De outra forma, as pessoas podem muito bem apenas ler a saída de um bot do que a sua. "

    © 2019 Science X Network




    © Ciência https://pt.scienceaq.com