• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O flub do YouTubes Notre Dame-9/11 destaca os pontos cegos da IA

    Nesta imagem disponibilizada na terça-feira, 16 de abril, As chamas e a fumaça de 2019 aumentam quando a torre começa a tombar na catedral de Notre Dame em Paris, Segunda-feira, 15 de abril, 2019. Um inferno que assolou a Catedral de Notre Dame por mais de 12 horas destruiu sua torre e seu telhado, mas poupou suas torres de sino medievais gêmeas, e um esforço frenético de resgate salvou os "tesouros mais preciosos do monumento, "incluindo a coroa de espinhos supostamente usada por Jesus, funcionários disseram terça-feira. (AP Photo / Thierry Mallet)

    O YouTube pode precisar de mais alguns humanos. As máquinas cujo trabalho é reprimir as teorias da conspiração ainda não estão resolvendo isso.

    Enquanto as pessoas de todo o mundo acessavam o YouTube na segunda-feira para assistir ao incêndio da Catedral de Notre Dame em Paris, um sistema automatizado anexou informações básicas sobre os ataques terroristas de 11 de setembro em Nova York à transmissão ao vivo de vídeos do incêndio.

    A causa do incêndio não foi determinada, mas as autoridades disseram que parecia ser acidental, não incêndio criminoso ou terrorismo.

    A nota de fundo foi postada por um sistema que o YouTube implementou recentemente para combater conspirações conhecidas sobre eventos como o pouso na lua ou 11 de setembro. Nesse caso, o algoritmo pode ter tido o efeito oposto, alimentando especulações sobre a causa do incêndio e quem pode estar por trás dele.

    É o exemplo mais recente de falha de inteligência artificial - e um sinal de que temos um longo caminho a percorrer antes que a IA se torne inteligente o suficiente para entender nuances e contexto.

    Em um comunicado, O YouTube explicou que as informações básicas - uma entrada da Enciclopédia Britânica - foram colocadas por engano lá por algoritmos que visam proteger os usuários de material falso que se espalha após alguns eventos de notícias.

    Os algoritmos do YouTube têm um histórico de erros e rotulagem de vídeos de maneira inadequada. Joshua Benton, diretor do Laboratório de Jornalismo Nieman da Universidade de Harvard, observou vários em um post de blog na segunda-feira.

    Último outono, por exemplo, O YouTube rotulou um vídeo da aposentadoria de um professor da Michigan State University com a entrada da Enciclopédia Britânica para "Judeu, "junto com uma estrela de David colocada sob a imagem. O professor, Ken Waltzer, tinha sido chefe do programa de estudos judaicos da universidade, mas Benton notou que nada no título ou na descrição do vídeo mencionava algo judeu.

    Algoritmo do YouTube, que é presumivelmente preparado para reprimir conspirações anti-semitas, de alguma forma fez isso por conta própria.

    Quando o YouTube anunciou seus esforços anti-conspiração no verão passado, disse que iria contrariar informações falsas com fontes em que as pessoas geralmente confiam, como Wikipedia e Encyclopedia Britannica. Ele disse que iria adicionar o pano de fundo dessas fontes a vídeos que apresentam temas comuns de conspiração (por exemplo, vacinas, tiroteios em escolas ou o atentado de Oklahoma City em 1995), independentemente de os vídeos apoiarem uma teoria da conspiração.

    Vídeos do incêndio de Notre Dame foram exibidos em grande escala, organizações de notícias confiáveis. A inteligência artificial do YouTube, Contudo, não fez exceções.

    Na segunda-feira, a empresa corrigiu rapidamente o erro da Notre Dame e disse que seus sistemas "às vezes fazem a ligação errada". Desligou os painéis de informações para os vídeos do incêndio, mas não disse se estava olhando para a prática de forma mais ampla.

    "Acho que eles estão indo e voltando sobre o quanto isso está fazendo bem, “Disse Benton.“ Isso atinge a questão central que vemos com o Facebook e YouTube e qualquer outra plataforma de tecnologia que aspira a uma escala global. Há muito conteúdo para monitorar e você não pode permitir que seres humanos monitorem todos os vídeos. "

    Em vez de, temos máquinas que claramente ainda estão aprendendo no trabalho.

    "Uma coisa é errar quando as apostas são baixas, "Disse Benton." Quando é a maior notícia do mundo, parece que eles poderiam ter mais pessoas olhando para ele. "

    © 2019 Associated Press. Todos os direitos reservados.




    © Ciência https://pt.scienceaq.com