• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • À medida que a relação da humanidade com a IA cresce, especialistas pedem estrutura de proteção

    Crédito CC0:domínio público

    Cientistas propuseram uma nova estrutura internacional para manter a ética e o bem-estar humano na vanguarda de nosso relacionamento com a tecnologia.

    De terapia genética e doenças previstas por IA a carros autônomos e impressão 3-D, avanços na tecnologia podem melhorar a saúde, tempo livre, e aumentar a eficiência.

    No entanto, apesar das melhores intenções de seus criadores, a tecnologia pode levar a consequências indesejadas para a privacidade e autonomia individuais.

    Atualmente não há regulamentação internacionalmente acordada sobre quem, por exemplo, tem acesso aos dados gravados por caixas pretas nos carros, TVs inteligentes e assistentes pessoais habilitados para voz - e descobertas recentes mostraram que a tecnologia pode ser usada para influenciar o comportamento eleitoral.

    Agora, Pesquisadores do Imperial College London sugeriram uma nova estrutura regulatória com a qual os governos podem minimizar consequências indesejadas de nosso relacionamento com a tecnologia. O comentário é publicado em Nature Machine Intelligence .

    O grupo de pesquisadores, liderado pelo Professor Rafael Calvo do Imperial, dizem que sua proposta pode ajudar a garantir interesses humanos como a ética, privacidade, e o bem-estar são priorizados à medida que nosso relacionamento com a tecnologia cresce.

    Eles sugerem usar a Avaliação de Impacto Ambiental, que avalia os prováveis ​​impactos ambientais de um projeto ou desenvolvimento proposto, como um projeto. A avaliação consideraria as relações socioeconômicas inter-relacionadas, impactos culturais e na saúde humana de uma IA e tecnologia.

    A estrutura proposta, conhecido como Avaliação de Impacto Humano para Tecnologia (HIAT), seria projetado para prever e avaliar o impacto que as novas tecnologias digitais têm na sociedade e no bem-estar individual. Esse, eles discutem, deve se concentrar em considerações éticas, como privacidade individual, bem-estar e autonomia.

    A avaliação também deve considerar quais partes são responsáveis ​​pelo gerenciamento de dados e manutenção de padrões éticos, bem como quem é o responsável quando as coisas dão errado, dizem os pesquisadores.

    Professor Calvo, da Dyson School of Design Engineering da Imperial, disse:"Estamos enfrentando uma quarta revolução industrial por meio do rápido desenvolvimento da IA ​​e da tecnologia, mas conforme nossa relação com a IA cresce, o mesmo acontece com seu potencial de perturbar nossas vidas. Leva, por exemplo, evidências de que a IA é usada por humanos para manipular emoções, atenção, e comportamentos de votação, bem como legal, educacional, e decisões de emprego.

    "Agora é a hora de criar uma estrutura para garantir que nossa relação com a IA continue a ser positiva."

    Enigmas éticos

    Uma estrutura HIAT ajudaria as indústrias emergentes a navegar pelos enigmas éticos que acompanham o uso de IA e o armazenamento de grandes quantidades de dados.

    De acordo com o comentário, As perguntas que as orientações acordadas internacionalmente podem ajudar a responder incluem:

    • Alguns assistentes de IA podem ligar para restaurantes em nome de uma pessoa e usar fala humana realista para fazer reservas. Nestes casos, que obrigações deveria haver para tornar o humano que pega o telefone ciente de que o chamador é uma máquina em vez de um humano? Qual consentimento deve ser obtido para salvar os dados coletados dessas conversas?
    • Alguns motoristas colocam caixas pretas em seus carros, que transmitem informações às seguradoras sobre a maneira como dirigem. Essas informações são usadas para calcular os prêmios de seguro. Nestes casos, como podemos evitar que os dados pessoais recolhidos e processados ​​pela AI (para onde vai e quando) sejam vendidos a terceiros?
    • Alguns serviços policiais usam o Body Worn Video (BWV) durante o serviço para gravar vídeo e áudio que podem ser usados ​​posteriormente durante as investigações. Também houve testes recentes de software de reconhecimento facial, mas quem tem acesso aos dados coletados nesses casos, e os regulamentos são robustos o suficiente para proteger a privacidade do público?

    O professor Calvo acrescentou:"Embora muitas vezes nos beneficiemos do progresso tecnológico, também podemos sofrer ético, custos psicológicos e sociais.

    "As avaliações de impacto são uma ferramenta importante para incorporar certos valores e têm sido usadas com sucesso em muitos setores, incluindo mineração, agricultura, Engenharia Civil, e engenharia industrial.

    "Outros setores também, como produtos farmacêuticos, estão acostumados a inovar em fortes ambientes regulatórios, e haveria pouca confiança em seus produtos sem essa estrutura.

    "À medida que a IA amadurece, precisamos de estruturas como o HIAT para dar aos cidadãos a confiança de que esta nova tecnologia poderosa será amplamente benéfica para todos. "


    © Ciência https://pt.scienceaq.com