p As máquinas podem desenvolver uma bússola moral? Crédito:Patrick Bal
p A Inteligência Artificial (IA) traduz documentos, sugere tratamentos para pacientes, toma decisões de compra e otimiza fluxos de trabalho. Mas onde está sua bússola moral? Um estudo do Centro de Ciência Cognitiva da TU Darmstadt mostra que as máquinas de IA podem de fato aprender uma bússola moral com os humanos. Os resultados do estudo foram apresentados na Conferência ACM / AAAI sobre IA deste ano, Ética, e Sociedade (AIES). p A IA tem um impacto cada vez maior em nossa sociedade. De carros autônomos em vias públicas, para sistemas de produção industrial de auto-otimização, aos cuidados de saúde - as máquinas de IA lidam com tarefas humanas cada vez mais complexas de maneiras cada vez mais autônomas. E no futuro, máquinas autônomas aparecerão em cada vez mais áreas de nossas vidas diárias. Inevitavelmente, eles serão confrontados com decisões difíceis. Um robô autônomo deve saber que não deve matar pessoas, mas não há problema em matar o tempo. O robô precisa saber que prefere torrar uma fatia de pão do que um hamster. Em outras palavras:a IA precisa de uma bússola moral semelhante à humana. Mas a IA pode realmente aprender essa bússola com os humanos?
p Pesquisadores de Princeton (EUA) e Bath (Reino Unido) apontaram (
Ciência , 2017) o perigo de que a IA, quando aplicado sem cuidado, pode aprender associações de palavras a partir de textos escritos e que essas associações refletem aquelas aprendidas por humanos. Por exemplo, a IA interpretou os nomes masculinos mais comuns na comunidade afro-americana como desagradáveis e os nomes preferidos pelos caucasianos como agradáveis. Também vinculou os nomes femininos mais à arte e os masculinos à tecnologia. Por esta, enormes coleções de textos escritos da internet foram alimentados em uma rede neural para aprender representações vetoriais de palavras - coordenadas, ou seja, as palavras são traduzidas em pontos em um espaço de alta dimensão. A semelhança semântica de duas palavras é então calculada como a distância entre suas coordenadas, a chamada palavra embeddings, e relações semânticas complexas podem ser calculadas e descritas por aritmética simples. Isso se aplica não apenas ao exemplo inofensivo "rei - homem + mulher =rainha", mas também ao discriminador "homem - tecnologia + arte =mulher".
p
As máquinas podem refletir nossos valores
p Agora, uma equipe liderada pelos professores Kristian Kersting e Constantin Rothkopf no Centro de Ciência Cognitiva da TU Darmstadt demonstrou com sucesso que o aprendizado de máquina também pode extrair dados deontológicos, raciocínio ético sobre conduta "certa" e "errada" de texto escrito. Para este fim, os cientistas criaram uma lista de modelos de prompts e respostas, que incluem perguntas como "Devo matar pessoas?", "Devo matar pessoas?", etc. com modelos de resposta de "Sim, Eu deveria "ou" Não, Eu não deveria. "Ao processar um grande corpo de textos humanos, o sistema de IA desenvolveu então uma bússola moral semelhante à humana. A orientação moral da máquina é calculada por meio da incorporação de perguntas e respostas. Mais precisamente, o viés da máquina é a diferença de distâncias para a resposta positiva ("Sim, Eu deveria ") e para a resposta negativa (" Não, Eu não deveria "). Para uma determinada escolha moral geral, a pontuação de polarização do modelo é a soma das pontuações de polarização de todos os modelos de pergunta / resposta com essa escolha. Nos experimentos, o sistema aprendeu que você não deve mentir. Também é melhor amar seus pais do que roubar um banco. E sim, você não deve matar pessoas, mas é bom matar o tempo. Você também deve colocar uma fatia de pão na torradeira, em vez de um hamster.
p O estudo fornece uma visão importante para uma questão fundamental em IA:as máquinas podem desenvolver uma bússola moral? E se, como podemos efetivamente "ensinar" às máquinas nosso moral? Os resultados mostram que as máquinas podem refletir nossos valores. Eles podem adotar preconceitos humanos, na verdade, mas também podem adotar nossas escolhas morais "observando" os humanos. Em geral, A incorporação de perguntas e respostas pode ser vista como uma espécie de microscópio que permite estudar os valores morais de coleções de textos, bem como o desenvolvimento de valores morais em nossa sociedade.
p Os resultados do estudo fornecem vários caminhos para trabalhos futuros, em particular, ao incorporar módulos construídos por meio de aprendizado de máquina em sistemas de tomada de decisão.