Uma das questões urgentes que surgem com a inteligência artificial é como contabilizar as ações das máquinas que tomam decisões por si mesmas. Crédito:ITU Pictures, licenciado sob CC BY 2.0
Tecnologias digitais, como inteligência artificial e robótica, 'desesperadamente' precisa de uma estrutura institucional e sistema de valores para ajudar a regular a indústria, um especialista em ética disse aos principais cientistas e formuladores de políticas.
Jeroen van den Hoven, professor de ética e tecnologia na Delft University of Technology na Holanda, estava falando em uma sessão sobre ética em ciência e tecnologia no EuroScience Open Forum (ESOF) 2018, que está sendo realizado em Toulouse, França, de 9 a 14 de julho.
"As pessoas estão se conscientizando de que esta era digital não é neutra ..., é apresentado a nós principalmente por grandes corporações que desejam obter algum lucro, " ele disse.
Ele apelou a uma rede europeia de instituições que possam fornecer um conjunto de valores, com base na Carta dos Direitos Fundamentais da UE, dentro dos quais a indústria de tecnologia poderia operar.
"Temos que configurar, como fizemos com a comida, para aviação e tráfego, … Um elaborado sistema de instituições que olhará (para) este campo da inteligência artificial.
“Precisamos pensar sobre governança, inspeção, monitoramento, testando, certificação, classificação, estandardização, Educação, todas essas coisas. Eles não estão lá. Precisamos desesperadamente, e muito rapidamente, sirva-nos disso. "
O Prof. van den Hoven é membro do Grupo Europeu de Ética na Ciência e Novas Tecnologias (EGE), um órgão consultivo independente para a Comissão Europeia, que organizou a sessão em que ele estava falando.
Em março, o EGE publicou uma declaração sobre inteligência artificial (IA), robótica e sistemas autônomos, que criticou a atual 'manta de retalhos de iniciativas díspares' na Europa que tentam enfrentar o social, questões legais e éticas que a AI gerou. Na declaração, o EGE apelou ao estabelecimento de um quadro estruturado.
A Comissão Europeia anunciou a 14 de junho que encarregou um grupo de alto nível de 52 acadêmicos, a sociedade e a indústria com o trabalho de desenvolver orientações sobre a política da UE relacionada com a IA, incluindo questões éticas, como justiça, segurança, transparência e defesa dos direitos fundamentais.
O grupo de especialistas, que inclui representantes de líderes do setor em IA, como o Google, BMW e Santander, deverão apresentar as suas orientações à Comissão Europeia no início de 2019.
Tendência
Questões éticas em torno da IA - como preconceito em algoritmos de aprendizado de máquina e como supervisionar a tomada de decisão de máquinas autônomas - também atraíram discussões generalizadas na conferência ESOF 2018.
Uma das principais preocupações que surge com o desenvolvimento acelerado do aprendizado de máquina, é a questão de como contabilizar as ações de uma máquina. Este é um problema específico ao usar IA baseada em redes neurais, um sistema complexo configurado para imitar o cérebro humano que permite que ele aprenda com grandes conjuntos de dados. Isso geralmente resulta no algoritmo se tornando o que é conhecido como uma 'caixa preta, "onde é possível ver o que entra e o que sai, mas não como o resultado foi alcançado.
Maaike Harbers, um professor pesquisador da Universidade de Ciências Aplicadas de Rotterdam, na Holanda, disse que esta era uma questão importante nas forças armadas, onde drones armados são usados para realizar ações.
"No domínio militar, um conceito muito importante é o controle humano significativo, "Ela disse." Nós só podemos controlar ou dirigir máquinas autônomas se entendermos o que está acontecendo. "
O Prof. Harbers acrescentou que um bom design da interface entre humanos e máquinas pode ajudar a garantir que os humanos exerçam controle em três estágios importantes - entrada de dados, processamento e raciocínio, e a saída ou ação.
Mesmo em tecnologias que usam IA para fins que parecem ser extremamente positivos, como robôs sociais para crianças, levantar algumas questões éticas complicadas. O público da conferência ouviu que os pesquisadores que trabalham nesta área estão lutando com o efeito que essas tecnologias podem ter nas relações familiares, por exemplo, ou se eles poderiam criar desigualdades na sociedade, ou se eles podem criar isolamento social.
No campo do transporte automatizado, os pesquisadores também estão analisando o impacto que os carros autônomos podem ter em questões mais amplas, como justiça e igualdade. Eles estão investigando questões que vão desde como garantir acesso igual a novas formas de transporte até quem deve se beneficiar das economias de custo associadas ao transporte automatizado.
Contudo, os valores que instilamos na IA podem ser um fator chave na aceitação pública de novas tecnologias.
Um dos dilemas morais mais conhecidos envolvendo carros autônomos, por exemplo, é o chamado problema do bonde. Isso levanta a questão de se um veículo autônomo que se dirige para um acidente envolvendo um grupo de pessoas deve evitá-lo desviando para um caminho que atingiria apenas uma pessoa.
Dr. Ebru Burcu Dogan do Instituto Vedecom na França, dita pesquisa mostra que embora as pessoas fossem a favor de uma solução utilitária para o dilema - por exemplo, matando o motorista em vez de cinco pedestres - eles pessoalmente não gostariam de comprar ou andar em um veículo que foi programado dessa forma.
“Todos nós queremos nos beneficiar com a implementação de uma tecnologia, mas não queremos necessariamente mudar nosso comportamento, ou adotar um comportamento necessário para chegar lá. "