Problema de ética da IA:abstrações em todos os lugares, mas onde estão as regras?
p Crédito CC0:domínio público
p Máquinas que tomam decisões sobre nós:o que pode dar errado? Ensaios, discursos, os seminários colocam essa questão ano após ano, à medida que a pesquisa em inteligência artificial faz avanços impressionantes. Conseqüentemente, os preconceitos internos nos algoritmos são apenas um dos muitos problemas. p Jonathan Shaw, editor chefe,
Harvard Magazine , escreveu no início deste ano:"A inteligência artificial pode agregar e avaliar grandes quantidades de dados que às vezes estão além da capacidade humana de analisar sem ajuda, permitindo assim que a IA faça recomendações de contratação, determinar em segundos a qualidade de crédito dos solicitantes de empréstimos, e prever as chances de os criminosos reincidirem. "
p Novamente, O que poderia dar errado?
p "O desenvolvimento da IA precisa de forte orientação moral se quisermos evitar alguns dos cenários mais catastróficos previstos pelos críticos da IA, "disse Stephen Fleischresser, conferencista, Trinity College da Universidade de Melbourne, no
Cosmos .
p Edd Gent em
SingularityHub :"Preocupações com a privacidade, a transparência e a capacidade dos algoritmos de distorcer o discurso social e político de maneiras inesperadas resultaram em uma enxurrada de pronunciamentos de empresas, governos, e até mesmo organizações supranacionais sobre como conduzir o desenvolvimento ético de IA. "
p Então, a questão torna-se, quem está cuidando da loja de IA? Se já imaginamos o que poderia dar errado com a imagem da IA, quem, qual indivíduo, quais grupos, caso existam, estão tentando canalizar toda a conversa e assumir a liderança de um conjunto de regras de trabalho?
p Uma leitura boa e oportuna sobre isso surgiu em
Nature Machine Intelligence . O jornal não oferece uma solução única, mas abala a conversa. Como diz o título, "Princípios por si só não podem garantir IA ética."
p O autor, Brent Mittelstadt, é do Oxford Internet Institute, Universidade de Oxford, Oxford, Reino Unido e The Alan Turing Institute, Biblioteca Britânica, Londres, REINO UNIDO.
p Fleischresser descreveu Mittelstadt como "um especialista em ética cuja pesquisa se preocupa principalmente com a ética digital em relação a algoritmos, aprendizado de máquina, inteligência artificial, análise preditiva, Big Data e sistemas médicos especialistas. "
p O problema não foi a falta de conversa; "A ética da inteligência artificial (IA) é agora um tópico global de discussão nos círculos acadêmicos e políticos, "Mittelstadt afirmou." Pelo menos 84 iniciativas público-privadas produziram declarações que descrevem princípios de alto nível, valores e outros princípios para orientar o desenvolvimento ético, implantação e governança de IA. "
p O problema é que com toda a conversa, partes interessadas bem-intencionadas não foram muito além do portão de partida. A camada de apoio de declarações elevadas e princípios em negrito pode estar no lugar, mas onde está a camada superior? "A parte realmente difícil da ética - traduzir teorias normativas, conceitos e valores em boas práticas que os praticantes de IA podem adotar - é chutado na estrada como o proverbial pode. "
p Embora os princípios elevados sejam louváveis, "As iniciativas de ética da IA têm produzido, até agora, em grande parte, algo vago, princípios de alto nível e declarações de valor que prometem orientar a ação, mas, na prática, fornecem algumas recomendações específicas ... Declarações de empresas e desenvolvedores de IA que se comprometem com princípios éticos de alto nível e códigos de autorregulação fornecem aos formuladores de políticas um motivo para não buscar novas regulamentações. "
p Mittelstadt disse que "uma abordagem baseada em princípios pode ter impacto limitado sobre a governança. O que está faltando:uma estrutura regulatória unificada que estabeleça" deveres fiduciários claros para os titulares dos dados e usuários ". A ausência de uma relação fiduciária, ele disse, significa que os usuários "não podem confiar que os desenvolvedores agirão de acordo com seus melhores interesses ao implementar os princípios éticos na prática."
p O artigo descreveu o que o autor identificou como áreas de preocupação para o futuro da ética da IA.
p A responsabilidade legal e profissional foi uma das principais áreas em discussão, ou seja, “a relativa falta de mecanismos de responsabilização legal e profissional”. Por que isso é um problema:"Sério, o compromisso de longo prazo com estruturas de autorregulação não pode ser dado como certo. "
p O autor colocou a questão fundamental:Dadas essas deficiências nos mecanismos existentes de responsabilidade legal e profissional para IA, é preciso perguntar:"é suficiente definir boas intenções e esperar pelo melhor? Sem mecanismos punitivos complementares e órgãos de governança para intervir quando a autogovernança falha, uma abordagem baseada em princípios corre o risco de meramente fornecer falsas garantias de IA ética ou confiável. "
p Para onde vamos a partir daqui na ética da IA?
p O autor disse que essa abordagem "baseada em princípios" precisa de supervisão cooperativa. Pense em "Estruturas de responsabilidade vinculantes e altamente visíveis" junto com "processos claros de implementação e revisão" em um nível setorial e organizacional. "As normas profissionais e institucionais podem ser estabelecidas definindo requisitos claros para o design inclusivo, revisão ética transparente, documentação de modelos e conjuntos de dados, e auditoria ética independente. " p © 2019 Science X Network