Crédito CC0:domínio público
OK, entendemos. O sentimento fantástico da inteligência artificial, mostrado em sua glória de desenvolvimento, está conosco e pegamos a onda de boa vontade.
Uma fase de moderação, entretanto, está definitivamente nos bastidores. Agora que temos IA, o que estamos fazendo com isso, e estamos gerenciando, mesmo avaliando, está bem?
"Como os jogadores de videogame que procuram o próximo hack, os funcionários precisarão monitorar, Compreendo, questionar e explorar as vulnerabilidades de suas ferramentas e responsabilizá-las, "disse John Sumser, analista principal em Examinador de RH .
"Os funcionários digitais são fundamentais para o nosso futuro, mas gerenciá-los é muito diferente de gerenciar pessoas ou software mais antigo. "Citado em Executivo de Recursos Humanos :"... entenda que estamos no início da construção e do uso de ferramentas inteligentes, há muito trabalho pela frente e teremos que pensar sobre nossas máquinas de forma diferente a partir de agora. "
Os apoiadores da AI para decisões usadas por governos e grandes organizações, Afinal, impactam nossas vidas.
A grande questão é, quem e o que estão treinando IA para tomar decisões? Existe preconceito embutido na fase de treinamento? Se então, como ter certeza de que o resultado é a decisão mais justa?
Longo e curto, Os pesquisadores da IBM estiveram ocupados criando maneiras de reduzir o preconceito nos conjuntos de dados usados para treinar IA. O que eles estão fazendo? Devemos apenas olhar para mais um white paper? Eles estão fazendo mais do que isso.
Eles estão entregando um sistema de classificação que pode classificar a justiça relativa de um sistema de IA.
Justiça não é apenas algo que chamou a atenção da IBM. Zoe Kleinman, repórter de tecnologia, BBC Notícias, escreveu, "Há uma preocupação crescente de que algoritmos usados por gigantes da tecnologia e outras empresas nem sempre sejam justos em suas tomadas de decisão."
O arsenal de ferramentas de tecnologia de inteligência artificial da IBM agora inclui uma maneira de desentocar o preconceito inconsciente na tomada de decisões. Bias nem sempre vem com luzes de néon e rótulos com marcadores mágicos. Metade do tempo, estamos até mesmo examinando nossa própria capacidade de julgar, sentindo-se desconfortável com a outra metade de nós que suspeita que a decisão foi fraudada. Não cometa erros, no entanto, nossos farejadores costumam estar corretos.
"Qualquer número de predisposições pode ser incorporado em um algoritmo, escondido em um conjunto de dados ou de alguma forma concebido durante a execução de um projeto, "disse Jack Murtha na quarta-feira em Healthcare Analytics News .
A IBM está fazendo as notícias relacionadas à IA desta semana.
A IBM anunciou um serviço de software em execução na nuvem IBM que pode detectar tendências e explicar como a IA toma decisões - à medida que as decisões estão sendo feitas, Disse Murtha.
"Estamos dando nova transparência e controle às empresas que usam IA e enfrentam o maior risco potencial de qualquer tomada de decisão falha, "o gerente geral de Watson AI na IBM, Beth Smith, declarado.
"Os clientes poderão ver, por meio de um painel visual, como seus algoritmos estão tomando decisões e quais fatores estão sendo usados para fazer as recomendações finais, "disse Kleinman.
O software baseado em nuvem da IBM será de código aberto, e funcionará com alguns frameworks comumente usados para construir algoritmos. Então, o que realmente fará?
Murtha deu mais detalhes. (1) Ele exibe "resultados injustos" em tempo real e (2) recomenda dados que poderiam mitigar o viés; (3) A IBM também está oferecendo serviços de consultoria para limpar a tomada de decisão por meio de processos de negócios mais fortes e interfaces de IA humana.
A nova contribuição da IBM pode adicionar mais uma camada para entender e lidar com o preconceito.
A injustiça pode ser refletida na falta de diversidade nos volumes de dados nos quais os algoritmos são treinados.
Um relatório da CNBC observou que "a composição da indústria de tecnologia que está criando esses algoritmos não era perfeita." O Vale do Silício tem uma longa história de críticas por sua falta de diversidade ".
Kay Firth-Butterfield, chefe de IA e aprendizado de máquina no Fórum Econômico Mundial, foi citado pela CNBC.
"Quando falamos de preconceito, estamos nos preocupando em primeiro lugar com o foco das pessoas que estão criando os algoritmos, "Firth-Butterfield disse." Precisamos tornar a indústria muito mais diversificada no Ocidente. "
Um estudante de pós-graduação no Instituto de Tecnologia de Massachusetts em 2016 descobriu que "o reconhecimento facial apenas manchava seu rosto se ela usasse uma máscara branca, "disse Kleinman.
Qual é o próximo? "A IBM Services trabalhará com as empresas para ajudá-las a utilizar o novo serviço. A IBM Research lançará um kit de ferramentas para a comunidade de código aberto, " disse Buscando Alpha . ZDNet tinha mais detalhes para compartilhar sobre este kit de ferramentas. A IBM abrirá o código-fonte das "ferramentas de detecção de viés" da IBM Research por meio de um "kit de ferramentas AI Fairness 360". Espere ver uma biblioteca de algoritmos, código e tutoriais.
ZDNet de Larry Dignan:"A esperança é que os acadêmicos, pesquisadores e cientistas de dados irão integrar a detecção de viés em seus modelos. "
Aqueles que desejam se aprofundar mais nesse kit de ferramentas podem verificar as ferramentas da IBM no Github.
© 2018 Tech Xplore