Crédito CC0:domínio público
Cientistas propuseram uma nova estrutura internacional para manter a ética e o bem-estar humano na vanguarda de nosso relacionamento com a tecnologia.
De terapia genética e doenças previstas por IA a carros autônomos e impressão 3-D, avanços na tecnologia podem melhorar a saúde, tempo livre, e aumentar a eficiência.
No entanto, apesar das melhores intenções de seus criadores, a tecnologia pode levar a consequências indesejadas para a privacidade e autonomia individuais.
Atualmente não há regulamentação internacionalmente acordada sobre quem, por exemplo, tem acesso aos dados gravados por caixas pretas nos carros, TVs inteligentes e assistentes pessoais habilitados para voz - e descobertas recentes mostraram que a tecnologia pode ser usada para influenciar o comportamento eleitoral.
Agora, Pesquisadores do Imperial College London sugeriram uma nova estrutura regulatória com a qual os governos podem minimizar consequências indesejadas de nosso relacionamento com a tecnologia. O comentário é publicado em Nature Machine Intelligence .
O grupo de pesquisadores, liderado pelo Professor Rafael Calvo do Imperial, dizem que sua proposta pode ajudar a garantir interesses humanos como a ética, privacidade, e o bem-estar são priorizados à medida que nosso relacionamento com a tecnologia cresce.
Eles sugerem usar a Avaliação de Impacto Ambiental, que avalia os prováveis impactos ambientais de um projeto ou desenvolvimento proposto, como um projeto. A avaliação consideraria as relações socioeconômicas inter-relacionadas, impactos culturais e na saúde humana de uma IA e tecnologia.
A estrutura proposta, conhecido como Avaliação de Impacto Humano para Tecnologia (HIAT), seria projetado para prever e avaliar o impacto que as novas tecnologias digitais têm na sociedade e no bem-estar individual. Esse, eles discutem, deve se concentrar em considerações éticas, como privacidade individual, bem-estar e autonomia.
A avaliação também deve considerar quais partes são responsáveis pelo gerenciamento de dados e manutenção de padrões éticos, bem como quem é o responsável quando as coisas dão errado, dizem os pesquisadores.
Professor Calvo, da Dyson School of Design Engineering da Imperial, disse:"Estamos enfrentando uma quarta revolução industrial por meio do rápido desenvolvimento da IA e da tecnologia, mas conforme nossa relação com a IA cresce, o mesmo acontece com seu potencial de perturbar nossas vidas. Leva, por exemplo, evidências de que a IA é usada por humanos para manipular emoções, atenção, e comportamentos de votação, bem como legal, educacional, e decisões de emprego.
"Agora é a hora de criar uma estrutura para garantir que nossa relação com a IA continue a ser positiva."
Enigmas éticos
Uma estrutura HIAT ajudaria as indústrias emergentes a navegar pelos enigmas éticos que acompanham o uso de IA e o armazenamento de grandes quantidades de dados.
De acordo com o comentário, As perguntas que as orientações acordadas internacionalmente podem ajudar a responder incluem:
O professor Calvo acrescentou:"Embora muitas vezes nos beneficiemos do progresso tecnológico, também podemos sofrer ético, custos psicológicos e sociais.
"As avaliações de impacto são uma ferramenta importante para incorporar certos valores e têm sido usadas com sucesso em muitos setores, incluindo mineração, agricultura, Engenharia Civil, e engenharia industrial.
"Outros setores também, como produtos farmacêuticos, estão acostumados a inovar em fortes ambientes regulatórios, e haveria pouca confiança em seus produtos sem essa estrutura.
"À medida que a IA amadurece, precisamos de estruturas como o HIAT para dar aos cidadãos a confiança de que esta nova tecnologia poderosa será amplamente benéfica para todos. "