• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Construindo IA eticamente alinhada

    Crédito CC0:domínio público

    Quanto mais agentes de IA são implantados em cenários com situações possivelmente inesperadas, quanto mais eles precisam ser flexíveis, adaptativo, e criativos para atingir seus objetivos. Assim, um certo nível de liberdade para escolher o melhor caminho para um objetivo específico é necessário para tornar a IA robusta e flexível o suficiente para ser implantada com sucesso em cenários da vida real.

    Isso é especialmente verdadeiro quando os sistemas de IA lidam com problemas difíceis cuja solução não pode ser definida com precisão por uma abordagem tradicional baseada em regras, mas exige que as abordagens orientadas por dados e / ou de aprendizagem sejam cada vez mais usadas na IA. De fato, sistemas de IA baseados em dados, como aqueles que usam aprendizado de máquina, são muito bem-sucedidos em termos de precisão e flexibilidade, e eles podem ser muito "criativos" na resolução de um problema, encontrar soluções que possam surpreender positivamente os humanos e ensiná-los maneiras inovadoras de resolver um desafio.

    Contudo, criatividade e liberdade sem limites às vezes podem levar a ações indesejadas:o sistema de IA pode atingir seu objetivo de maneiras que não são consideradas aceitáveis ​​de acordo com os valores e normas da comunidade afetada. Assim, há uma necessidade crescente de entender como restringir as ações de um sistema de IA, fornecendo limites dentro dos quais o sistema deve operar. Isso geralmente é conhecido como o problema de "alinhamento de valor", uma vez que tais limites devem modelar valores e princípios necessários para o cenário de aplicação de IA específico.

    Na IBM Research, estudamos e avaliamos duas maneiras de alinhar os sistemas de IA aos princípios éticos:

    • O primeiro usa o mesmo formalismo para modelar e combinar preferências subjetivas (para alcançar a personalização do serviço) e prioridades éticas (para alcançar o alinhamento de valor). Uma noção de distância entre preferências e prioridades éticas é usada para decidir se as ações podem ser determinadas apenas pelas preferências ou se precisamos considerar outras prioridades éticas, quando as preferências são muito divergentes dessas prioridades.
    • O segundo emprega uma abordagem de aprendizado por reforço (dentro do cenário do problema do bandido) para maximizar a recompensa e aprende as diretrizes éticas a partir de exemplos positivos e negativos. Testamos essa abordagem em recomendações de filmes com orientação dos pais, bem como a seleção da dosagem do medicamento com considerações de qualidade de vida.

    O documento que descreve nossa abordagem geral e as duas maneiras possíveis de resolver o problema de alinhamento de valor será apresentado na próxima conferência AAAI 2019 e receberá o prêmio AAAI 2019 Blue Sky Idea. Pode ser encontrado aqui.

    Este trabalho é parte de um esforço de longo prazo para entender como incorporar princípios éticos em sistemas de IA em colaboração com o MIT. Embora a pesquisa seja feita e modele as prioridades éticas como restrições deontológicas, a equipe IBM-MIT está atualmente reunindo dados de preferências humanas para modelar como os humanos seguem, e alternar entre, diferentes teorias éticas (como utilitaristas, deontológico, e contratualista), a fim de, então, projetar teorias éticas e mecanismos de mudança, adequadamente adaptado, em sistemas de IA. Desta maneira, tais sistemas serão capazes de estar mais bem alinhados à maneira como as pessoas raciocinam e agem de acordo com a ética ao tomar decisões, e, portanto, estará mais bem equipado para interagir de forma natural e compacta com humanos em uma abordagem de inteligência aumentada para IA.

    Esta história foi republicada por cortesia da IBM Research. Leia a história original aqui.




    © Ciência https://pt.scienceaq.com