• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Será que algum dia concordaremos com apenas um conjunto de regras sobre o desenvolvimento ético da inteligência artificial?

    Todo mundo tem sua própria ideia sobre o uso ético da IA, mas podemos obter um consenso global? Crédito:Shutterstock / EtiAmmos

    A Austrália está entre os 42 países que assinaram na semana passada um novo conjunto de diretrizes de política para o desenvolvimento de sistemas de inteligência artificial (IA).

    No entanto, a Austrália tem seu próprio esboço de diretrizes para a ética em IA para consulta pública, e vários outros países e órgãos da indústria desenvolveram suas próprias diretrizes de IA.

    Então, por que precisamos de tantas diretrizes, e algum deles é exeqüível?

    Os novos princípios

    O mais recente conjunto de diretrizes de política é a Recomendação sobre Inteligência Artificial da Organização para Cooperação e Desenvolvimento Econômico (OCDE).

    Ele promove cinco princípios para o desenvolvimento responsável de IA confiável. Também inclui cinco estratégias complementares para o desenvolvimento de políticas nacionais e cooperação internacional.

    Dado que vem da OCDE, ela pisa na linha entre a promoção da melhoria econômica e da inovação e a promoção dos valores fundamentais e da confiança no desenvolvimento da IA.

    Os cinco princípios de IA incentivam:

    1. crescimento inclusivo, desenvolvimento sustentável e bem-estar
    2. valores centrados no ser humano e justiça
    3. transparência e explicabilidade
    4. robustez, Segurança e proteção
    5. prestação de contas.

    Essas recomendações são amplas e não têm força de lei ou mesmo de regras. Em vez disso, procuram encorajar os países membros a incorporar esses valores ou ética no desenvolvimento da IA.

    Mas o que queremos dizer com IA?

    É difícil fazer recomendações específicas em relação à IA. Em parte, isso ocorre porque a IA não é uma coisa com um único aplicativo que apresenta riscos ou ameaças singulares.

    Em vez de, IA tornou-se um termo geral para se referir a um grande número de sistemas diferentes. Cada um é normalmente projetado para coletar e processar dados usando tecnologia de computação, adaptar-se à mudança, e agir racionalmente para atingir seus objetivos, em última análise, sem intervenção humana.

    Esses objetivos podem ser tão diferentes quanto traduzir a linguagem, identificando rostos, ou mesmo jogando xadrez.

    O tipo de IA excepcionalmente bom para cumprir esses objetivos costuma ser denominado IA restrita. Um bom exemplo é um AI para jogar xadrez. Este é projetado especificamente para jogar xadrez - e é extremamente bom nisso - mas completamente inútil em outras tarefas.

    Por outro lado, é a IA geral. Diz-se que esta é a IA que substituirá a inteligência humana na maioria, senão em todas as tarefas. Isso ainda está muito longe, mas continua sendo o objetivo final de alguns desenvolvedores de IA.

    No entanto, é essa ideia de IA geral que leva a muitos dos medos e equívocos que cercam a IA.

    Muitas muitas diretrizes

    Respondendo a esses medos e uma série de problemas muito reais com IA estreita, as recomendações da OCDE são os mais recentes de uma série de projetos e diretrizes de governos e outros órgãos ao redor do mundo que buscam incutir uma abordagem ética para o desenvolvimento de IA.

    Isso inclui iniciativas do Instituto de Engenheiros Elétricos e Eletrônicos, a autoridade francesa de proteção de dados, o Gabinete do Comissário da Privacidade de Hong Kong e a Comissão Europeia.

    O governo australiano financiou o Data61 da CSIRO para desenvolver uma estrutura de ética de IA, que agora está aberto para feedback público, e o Conselho Australiano de Academias Aprendidas ainda não publicou seu relatório sobre o futuro da IA ​​na Austrália.

    A Comissão Australiana de Direitos Humanos, junto com o Fórum Econômico Mundial, também está revisando e relatando o impacto da IA ​​nos direitos humanos.

    O objetivo dessas iniciativas é incentivar ou estimular o desenvolvimento ético da IA. Mas isso pressupõe um comportamento antiético. Qual é o mal em IA?

    IA antiética

    Um estudo identificou três amplos usos maliciosos potenciais da IA. Estes alvos:

    • segurança digital (por exemplo, por meio de ataques cibernéticos)
    • segurança física (por exemplo, ataques usando drones ou hacking)
    • segurança política (por exemplo, se a IA for usada para vigilância em massa, persuasão e engano).

    Uma área de preocupação está evoluindo na China, onde várias regiões estão desenvolvendo um sistema de crédito social vinculado à vigilância em massa usando tecnologias de IA.

    O sistema pode identificar uma pessoa que viola as normas sociais (como travessia em trânsito, convivendo com criminosos, ou uso indevido das mídias sociais) e debitar pontos de crédito social do indivíduo.

    Quando uma pontuação de crédito é reduzida, as liberdades dessa pessoa (como a liberdade de viajar ou pedir dinheiro emprestado) são restritas. Embora este ainda não seja um sistema nacional, relatórios indicam que este pode ser o objetivo final.

    Somados a esses usos indevidos deliberados da IA, estão vários efeitos colaterais não intencionais de IA limitada mal construída ou implementada. Isso inclui preconceito e discriminação e a erosão da confiança.

    Construindo consenso sobre IA

    As sociedades diferem no que é ético. Mesmo as pessoas dentro das sociedades diferem no que consideram comportamento ético. Então, como pode haver um consenso global sobre o desenvolvimento ético da IA?

    Dado o amplo escopo do desenvolvimento de IA, quaisquer políticas em relação à IA ética ainda não podem ser mais específicas até que possamos identificar normas compartilhadas de comportamento ético que possam formar a base de algumas regras globais acordadas.

    Ao desenvolver e expressar os valores, direitos e normas que consideramos importantes agora na forma dos relatórios e diretrizes delineadas acima, estamos trabalhando para construir confiança entre as nações.

    Temas comuns estão surgindo nas várias diretrizes, como a necessidade de IA que considere os direitos humanos, segurança, segurança, transparência, confiabilidade e responsabilidade, portanto, podemos ainda estar no caminho de algum consenso global.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com