• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • A inteligência artificial na Austrália precisa ser ética, então temos um plano

    A inteligência artificial precisa ser desenvolvida com uma estrutura ética. Crédito:Shutterstock / Alexander Supertramp

    A questão de saber se a tecnologia é boa ou ruim depende de como ela é desenvolvida e usada. Em nenhum lugar isso é mais atual do que em tecnologias que usam inteligência artificial.

    Quando desenvolvido e usado de forma adequada, inteligência artificial (IA) tem o potencial de transformar a maneira como vivemos, trabalhar, comunicar e viajar.

    Novas tecnologias médicas habilitadas para IA estão sendo desenvolvidas para melhorar o atendimento ao paciente. Há indícios persuasivos de que os veículos autônomos irão melhorar a segurança e reduzir o pedágio. O aprendizado de máquina e a automação estão simplificando os fluxos de trabalho e nos permitindo trabalhar de maneira mais inteligente.

    Ao redor do mundo, A tecnologia habilitada para IA está cada vez mais sendo adotada por indivíduos, governos, organizações e instituições. Mas junto com o vasto potencial para melhorar nossa qualidade de vida, representa um risco para os nossos direitos humanos e liberdades básicas.

    Supervisão apropriada, orientação e compreensão da maneira como a IA é usada e desenvolvida na Austrália deve ser priorizada.

    AI enlouquecida pode evocar imagens dos filmes O Exterminador do Futuro e Ex Machina, mas é muito mais simples, questões fundamentais que precisam ser abordadas no momento, tal como:

    • como os dados são usados ​​para desenvolver IA
    • se um sistema de IA está sendo usado de forma justa
    • em que situações devemos continuar a contar com a tomada de decisão humana?

    Temos um plano de ética de IA

    É por isso, em parceria com o governo e a indústria, desenvolvemos uma estrutura de ética para IA na Austrália. O objetivo é catalisar a discussão sobre como a IA deve ser usada e desenvolvida na Austrália.

    A estrutura ética analisa vários estudos de caso de todo o mundo para discutir como a IA foi usada no passado e os impactos que teve. Os estudos de caso nos ajudam a entender onde as coisas deram errado e como evitar a repetição de erros anteriores.

    Também analisamos o que estava sendo feito em todo o mundo para tratar de questões éticas sobre o desenvolvimento e uso de IA.

    Com base nos principais problemas e impactos da IA, oito princípios foram identificados para apoiar o uso ético e o desenvolvimento da IA ​​na Austrália.

    1. Gera benefícios líquidos: O sistema de IA deve gerar benefícios para as pessoas maiores do que os custos.
    2. Fazer nenhum mal: Os sistemas de IA civil não devem ser projetados para prejudicar ou enganar as pessoas e devem ser implementados de forma a minimizar quaisquer resultados negativos.
    3. Conformidade regulatória e legal: O sistema de IA deve estar em conformidade com todas as normas internacionais relevantes, Australiano local, obrigações do estado / território e do governo federal, regulamentos e leis.
    4. Proteção de privacidade: Qualquer sistema, incluindo sistemas de IA, deve garantir que os dados privados das pessoas sejam protegidos e mantidos em sigilo e evitar violações de dados que possam causar reputação, psicológico, financeiro, danos profissionais ou outros tipos de danos.
    5. Justiça: O desenvolvimento ou uso do sistema de IA não deve resultar em discriminação injusta contra indivíduos, comunidades ou grupos. Isso requer atenção especial para garantir que os "dados de treinamento" estejam livres de distorções ou características que possam fazer com que o algoritmo se comporte de maneira injusta.
    6. Transparência e explicabilidade: As pessoas devem ser informadas quando um algoritmo está sendo usado que as afeta e devem receber informações sobre quais informações o algoritmo usa para tomar decisões.
    7. Contestabilidade: Quando um algoritmo afeta uma pessoa, deve haver um processo eficiente para permitir que essa pessoa questione o uso ou a saída do algoritmo.
    8. Prestação de contas: Pessoas e organizações responsáveis ​​pela criação e implementação de algoritmos de IA devem ser identificáveis ​​e responsáveis ​​pelos impactos desse algoritmo, mesmo se os impactos não forem intencionais.

    Além dos princípios centrais, vários itens do kit de ferramentas são identificados na estrutura que podem ser usados ​​para ajudar a apoiar esses princípios. Isso inclui avaliações de impacto, monitoramento contínuo e consulta pública.

    Um plano, que tal ação?

    Mas os princípios e objetivos éticos só podem ir até certo ponto. Em algum momento, precisaremos começar a trabalhar para decidir como vamos implementá-los e alcançá-los.

    Existem várias complexidades a serem consideradas ao discutir o uso ético e o desenvolvimento da IA. O vasto alcance da tecnologia tem potencial para impactar todas as facetas de nossas vidas.

    Os aplicativos de IA já estão em uso em todos os lares, empresas e governos, a maioria dos australianos já está sendo impactada por eles.

    Há uma necessidade premente de examinar os efeitos que a IA tem sobre os vulneráveis ​​e os grupos minoritários, garantindo que protegemos esses indivíduos e comunidades de preconceitos, discriminação e exploração. (Lembre-se de Tay, o chatbot racista?)

    Há também o fato de que a IA usada na Austrália muitas vezes será desenvolvida em outros países, então, como podemos garantir que ele esteja de acordo com os padrões e expectativas australianas?

    Sua fala

    A estrutura explora essas questões e dá forma a alguns dos primeiros passos da Austrália na jornada em direção ao desenvolvimento e uso positivos da IA. Mas o verdadeiro progresso precisa de contribuições das partes interessadas em todo o governo, o negócio, academia e sociedade em geral.

    Leia mais:cuidado com a maneira como você trata a IA de hoje:ela pode se vingar no futuro

    É por isso que o documento de discussão da estrutura ética agora está aberto a comentários públicos. Você tem até 31 de maio, 2019, para dar sua opinião sobre o futuro digital da Austrália.

    Com uma abordagem proativa para o desenvolvimento ético da IA, A Austrália pode fazer mais do que apenas mitigar quaisquer riscos. Se pudermos construir IA para uma ação mais justa, podemos garantir uma vantagem competitiva, bem como salvaguardar os direitos dos australianos.

    Emma Schleiger, Pesquisa científica, CSIRO e Stefan Hajkowicz, Cientista Principal Sênior, Estratégia e prospectiva, Data 61

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com