Crédito CC0:domínio público
Quanto mais agentes de IA são implantados em cenários com situações possivelmente inesperadas, quanto mais eles precisam ser flexíveis, adaptativo, e criativos para atingir seus objetivos. Assim, um certo nível de liberdade para escolher o melhor caminho para um objetivo específico é necessário para tornar a IA robusta e flexível o suficiente para ser implantada com sucesso em cenários da vida real.
Isso é especialmente verdadeiro quando os sistemas de IA lidam com problemas difíceis cuja solução não pode ser definida com precisão por uma abordagem tradicional baseada em regras, mas exige que as abordagens orientadas por dados e / ou de aprendizagem sejam cada vez mais usadas na IA. De fato, sistemas de IA baseados em dados, como aqueles que usam aprendizado de máquina, são muito bem-sucedidos em termos de precisão e flexibilidade, e eles podem ser muito "criativos" na resolução de um problema, encontrar soluções que possam surpreender positivamente os humanos e ensiná-los maneiras inovadoras de resolver um desafio.
Contudo, criatividade e liberdade sem limites às vezes podem levar a ações indesejadas:o sistema de IA pode atingir seu objetivo de maneiras que não são consideradas aceitáveis de acordo com os valores e normas da comunidade afetada. Assim, há uma necessidade crescente de entender como restringir as ações de um sistema de IA, fornecendo limites dentro dos quais o sistema deve operar. Isso geralmente é conhecido como o problema de "alinhamento de valor", uma vez que tais limites devem modelar valores e princípios necessários para o cenário de aplicação de IA específico.
Na IBM Research, estudamos e avaliamos duas maneiras de alinhar os sistemas de IA aos princípios éticos:
O documento que descreve nossa abordagem geral e as duas maneiras possíveis de resolver o problema de alinhamento de valor será apresentado na próxima conferência AAAI 2019 e receberá o prêmio AAAI 2019 Blue Sky Idea. Pode ser encontrado aqui.
Este trabalho é parte de um esforço de longo prazo para entender como incorporar princípios éticos em sistemas de IA em colaboração com o MIT. Embora a pesquisa seja feita e modele as prioridades éticas como restrições deontológicas, a equipe IBM-MIT está atualmente reunindo dados de preferências humanas para modelar como os humanos seguem, e alternar entre, diferentes teorias éticas (como utilitaristas, deontológico, e contratualista), a fim de, então, projetar teorias éticas e mecanismos de mudança, adequadamente adaptado, em sistemas de IA. Desta maneira, tais sistemas serão capazes de estar mais bem alinhados à maneira como as pessoas raciocinam e agem de acordo com a ética ao tomar decisões, e, portanto, estará mais bem equipado para interagir de forma natural e compacta com humanos em uma abordagem de inteligência aumentada para IA.
Esta história foi republicada por cortesia da IBM Research. Leia a história original aqui.