p Para novos editores, isso pode ser desanimador. Se as edições que você fizer forem consistentemente eliminadas, você pode concluir que está perdendo seu tempo. Pior, você pode sentir que está sendo tratado como alguém que está intencionalmente vandalizando entradas da Wikipedia. Para a Wikipedia sobreviver, isso não pode continuar. De acordo com a revisão de tecnologia do MIT, o site perdeu 40% de sua comunidade editorial nos últimos oito anos. p É aí que entra a IA. É chamado de Serviço de Avaliação de Revisão de Objetivo, ou ORES. Ele pode sinalizar mudanças editoriais que não cumpram as regras da Wikipedia. Além disso, pode determinar se a pessoa que quebrou as regras o fez como parte de um erro inocente, ou se foi o ato de um troll fazendo "edições prejudiciais". p Os revisores poderão enviar uma mensagem ao editor em questão, alertando-o sobre o problema. Em outras palavras, o trabalho da IA é lembrar os editores humanos de mostrar um pouco de humanidade para com os outros. Talvez isso evite que novos editores se sintam rejeitados pela velha guarda e ajude a Wikipedia a construir sua comunidade editorial novamente. p Não é obrigatório que a comunidade da Wikipedia use ORES ao revisar artigos. O software não acalma magicamente os sentimentos feridos dos editores cujo trabalho foi excluído. Mas para a Wikipedia sobreviver, a comunidade terá que encontrar maneiras de encorajar novos membros e reter seu número. De outra forma, a enciclopédia crowdsourced encontrará problemas com erros, informações desatualizadas e obsolescência.