• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  •  science >> Ciência >  >> Outros
    Nova ideia matemática controla o viés da IA ​​para fazer escolhas comerciais antiéticas e caras
    p Crédito CC0:domínio público

    p Pesquisadores da Universidade de Warwick, Colégio Imperial de Londres, EPFL (Lausanne) e Sciteb Ltd encontraram um meio matemático de ajudar reguladores e empresas a gerenciar e policiar os preconceitos dos sistemas de Inteligência Artificial no sentido de tornar antiético, e escolhas comerciais potencialmente muito caras e prejudiciais - um olhar ético para a IA. p A inteligência artificial (IA) é cada vez mais implantada em situações comerciais. Considere, por exemplo, o uso de IA para definir preços de produtos de seguro a serem vendidos a um cliente específico. Existem razões legítimas para definir preços diferentes para pessoas diferentes, mas também pode ser lucrativo "brincar" com sua psicologia ou disposição para fazer compras.

    p A IA tem um grande número de estratégias potenciais para escolher, mas alguns são antiéticos e incorrerão não apenas em custo moral, mas em uma penalidade econômica potencial significativa, pois as partes interessadas aplicarão alguma penalidade se acharem que tal estratégia foi usada - os reguladores podem cobrar multas significativas de bilhões de dólares, Libras ou euros e os clientes podem boicotar você - ou ambos.

    p Portanto, em um ambiente em que as decisões são cada vez mais tomadas sem intervenção humana, há, portanto, um incentivo muito forte para saber sob quais circunstâncias os sistemas de IA podem adotar uma estratégia antiética e reduzir esse risco ou eliminar totalmente, se possível.

    p Matemáticos e estatísticos da Universidade de Warwick, Imperial, EPFL e Sciteb Ltd se uniram para ajudar empresas e reguladores a criar um novo "Princípio de Otimização Antiética" e fornecer uma fórmula simples para estimar seu impacto. Eles expuseram todos os detalhes em um artigo com o nome "Um princípio de otimização antiético", publicado em Royal Society Open Science na quarta-feira, 1 de julho de 2020.

    p Os quatro autores do artigo são Nicholas Beale da Sciteb Ltd; Heather Battey do Departamento de Matemática, Colégio Imperial de Londres; Anthony C. Davison, do Institute of Mathematics, Ecole Polytechnique Fédérale de Lausanne; e o professor Robert MacKay, do Instituto de Matemática da Universidade de Warwick.

    p O Professor Robert MacKay do Instituto de Matemática da Universidade de Warwick disse:

    p "Nosso sugerido 'Princípio de otimização antiética' pode ser usado para ajudar os reguladores, equipe de conformidade e outros para encontrar estratégias problemáticas que podem estar ocultas em um grande espaço de estratégia. Pode-se esperar que a otimização escolha desproporcionalmente muitas estratégias antiéticas, a inspeção de qual deve mostrar onde os problemas são prováveis ​​de surgir e, portanto, sugerir como o algoritmo de busca de AI deve ser modificado para evitá-los no futuro.

    p "O Princípio também sugere que pode ser necessário repensar a forma como a IA opera em espaços estratégicos muito grandes, para que os resultados antiéticos sejam rejeitados explicitamente no processo de otimização / aprendizagem. "


    © Ciência https://pt.scienceaq.com