• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A inteligência artificial deve saber quando pedir ajuda humana
    p Às vezes, as perguntas tornam-se demais para os sistemas de inteligência artificial. Crédito:sdecoret / Shutterstock.com

    p Os sistemas de inteligência artificial são ferramentas poderosas para empresas e governos processar dados e responder a situações de mudança, seja no mercado de ações ou em um campo de batalha. Mas ainda existem algumas coisas para as quais a IA não está pronta. p Somos estudiosos da ciência da computação trabalhando para compreender e melhorar as maneiras como os algoritmos interagem com a sociedade. Os sistemas de IA funcionam melhor quando o objetivo é claro e há dados de alta qualidade, como quando eles são solicitados a distinguir entre rostos diferentes depois de aprender a partir de muitas fotos de pessoas corretamente identificadas.

    p Às vezes, os sistemas de IA têm um desempenho tão bom que usuários e observadores ficam surpresos com a percepção da tecnologia. Contudo, às vezes o sucesso é difícil de medir ou definido incorretamente, ou os dados de treinamento não correspondem à tarefa em questão. Nesses casos, Algoritmos de IA tendem a falhar de maneiras imprevisíveis e espetaculares, embora nem sempre seja imediatamente óbvio que algo deu errado. Como resultado, é importante ter cuidado com o exagero e o entusiasmo sobre o que a IA pode fazer, e não assumir que a solução que encontra está sempre correta.

    p Quando os algoritmos estão funcionando, deve haver uma rede de segurança humana para evitar ferir pessoas. Nossa pesquisa demonstrou que, em algumas situações, os algoritmos podem reconhecer problemas em como estão operando, e peça ajuda humana. Especificamente, nós mostramos, pedir ajuda humana pode ajudar a aliviar o preconceito algorítmico em alguns ambientes.

    p Quão certo é o algoritmo?

    p Sistemas de inteligência artificial estão sendo usados ​​em sentenças criminais, perfil de personalidade com base no rosto, retomar a triagem, inscrição em cuidados de saúde e outras tarefas difíceis em que a vida e o bem-estar das pessoas estão em jogo. As agências governamentais dos EUA estão começando a aumentar sua exploração e uso de sistemas de IA, em resposta a uma recente ordem executiva do presidente Donald Trump.

    p É importante lembrar, no entanto, que a IA pode cimentar equívocos sobre como uma tarefa é abordada, ou ampliar as desigualdades existentes. Isso pode acontecer mesmo quando ninguém disse ao algoritmo explicitamente para tratar alguém de forma diferente.

    p Por exemplo, muitas empresas têm algoritmos que tentam determinar as características de uma pessoa pelo rosto - digamos, para adivinhar seu gênero. Os sistemas desenvolvidos por empresas americanas tendem a se sair significativamente melhor na categorização de homens brancos do que mulheres e pessoas de pele mais escura; eles se saem pior com mulheres de pele escura. Sistemas desenvolvidos na China, Contudo, tendem a piorar em rostos brancos.

    p A diferença não é porque um grupo tem rostos que são mais fáceis de classificar do que outros. Em vez, Ambos os algoritmos são normalmente treinados em uma grande coleção de dados que não são tão diversos quanto a população humana em geral. Se o conjunto de dados for dominado por um tipo específico de rosto - homens brancos nos EUA, e rostos chineses na China - então o algoritmo provavelmente se sairá melhor na análise desses rostos do que outros.

    p Dados de treinamento tendenciosos podem tornar os sistemas melhores, ou pior, em reconhecer certos tipos de rostos. Crédito:Andrey_Popov / Shutterstock.com

    p Não importa como a diferença surge, o resultado é que os algoritmos podem ser tendenciosos por serem mais precisos em um grupo do que em outro.

    p De olho humano na IA

    p Para situações de alto risco, a confiança do algoritmo em seu próprio resultado - sua estimativa de quão provável é que o sistema tenha encontrado a resposta certa - é tão importante quanto o próprio resultado. As pessoas que recebem a saída dos algoritmos precisam saber até que ponto levar os resultados a sério, em vez de presumir que está correto porque envolveu um computador.

    p Apenas recentemente os pesquisadores começaram a desenvolver maneiras de identificar, muito menos tentar consertar, desigualdades em algoritmos e dados. Algoritmos podem ser programados para reconhecer suas próprias deficiências - e seguir esse reconhecimento com um pedido de uma pessoa para ajudar na tarefa.

    p Muitos tipos de algoritmos de IA já calculam um nível de confiança interno - uma previsão de quão bem ele se saiu na análise de um dado dado de entrada. Na análise facial, muitos algoritmos de IA têm menos confiança em rostos mais escuros e rostos femininos do que em rostos masculinos brancos. Não está claro o quanto isso foi levado em consideração pelas autoridades policiais para o uso de alto risco desses algoritmos.

    p O objetivo é que a própria IA localize as áreas onde não está atingindo a mesma precisão para grupos diferentes. Nessas entradas, a IA pode adiar sua decisão para um moderador humano. Essa técnica é especialmente adequada para tarefas de contexto pesado, como moderação de conteúdo.

    p Moderadores de conteúdo humano não conseguem acompanhar a enxurrada de imagens postadas em sites de mídia social. Mas a moderação de conteúdo de IA é famosa por não levar em consideração o contexto por trás de uma pós - identificar erroneamente as discussões sobre orientação sexual como conteúdo explícito, ou identificar a Declaração de Independência como discurso de ódio. Isso pode acabar censurando incorretamente um grupo demográfico ou político em detrimento de outro.

    p Para obter o melhor dos dois mundos, nossa pesquisa sugere classificar todo o conteúdo de maneira automatizada, usando os mesmos métodos de IA já comuns hoje. Em seguida, nossa abordagem usa técnicas recentemente propostas para localizar automaticamente as potenciais desigualdades na precisão do algoritmo em diferentes grupos protegidos de pessoas, e entregar as decisões sobre certos indivíduos a um humano. Como resultado, o algoritmo pode ser completamente imparcial sobre as pessoas sobre as quais ele realmente decide. E os humanos decidem sobre aqueles indivíduos em que a decisão algorítmica teria inevitavelmente criado preconceito.

    p Esta abordagem não elimina o preconceito:ela apenas "concentra" o potencial de parcialidade em um conjunto menor de decisões, que são manipulados por pessoas, usando o bom senso humano. A IA ainda pode realizar a maior parte do trabalho de tomada de decisão.

    p Esta é uma demonstração de uma situação em que um algoritmo de IA trabalhando junto com um ser humano pode colher os benefícios e a eficiência das boas decisões da IA, sem ficar preso em seus maus. Os humanos terão então mais tempo para trabalhar no fuzzy, decisões difíceis que são críticas para garantir justiça e equidade. p Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com