As companhias aéreas não se arriscam com nossa segurança - nem a inteligência artificial
p Crédito:Shutterstock
p Você pensaria que voar em um avião seria mais perigoso do que dirigir um carro. Na realidade, é muito mais seguro, em parte porque a indústria da aviação é fortemente regulamentada. p As companhias aéreas devem seguir padrões rígidos de segurança, testando, Treinamento, políticas e procedimentos, auditoria e supervisão. E quando as coisas dão errado, investigamos e tentamos corrigir o problema para melhorar a segurança no futuro.
p Não são apenas companhias aéreas, qualquer. Outros setores onde as coisas podem dar muito errado, como produtos farmacêuticos e dispositivos médicos, também são fortemente regulamentados.
p A inteligência artificial é uma indústria relativamente nova, mas está crescendo rápido e tem grande capacidade de causar danos. Como aviação e produtos farmacêuticos, ele precisa ser regulamentado.
p
AI pode causar um grande dano
p Uma ampla gama de tecnologias e aplicações que se enquadram na rubrica de "inteligência artificial" começaram a desempenhar um papel significativo em nossas vidas e instituições sociais. Mas eles podem ser usados de maneiras prejudiciais, que já estamos começando a ver.
p No caso "robodebt", por exemplo, a agência de bem-estar do governo australiano, Centrelink, usou correspondência de dados e tomada de decisão automatizada para emitir avisos de dívidas (muitas vezes incorretos) para os beneficiários do bem-estar. O que mais, o ónus da prova foi invertido:os indivíduos foram obrigados a provar que não tinham a dívida reclamada.
p O governo de New South Wales também começou a usar IA para detectar motoristas com telefones celulares. Isso envolve vigilância pública expandida por meio de câmeras de detecção de telefones celulares que usam IA para detectar automaticamente um objeto retangular nas mãos do motorista e classificá-lo como um telefone.
p O reconhecimento facial é outra aplicação de IA sob intenso escrutínio em todo o mundo. Isso se deve ao seu potencial para minar os direitos humanos:pode ser usado para vigilância generalizada e supressão de protestos públicos, e o preconceito programado pode levar à imprecisão e à discriminação racial. Alguns até pediram uma moratória ou proibição total porque é muito perigoso.
p Em vários países, incluindo Austrália, A IA está sendo usada para prever a probabilidade de uma pessoa cometer um crime. Foi demonstrado que tais métodos preditivos afetam a juventude indígena de maneira desproporcional e levam a práticas opressivas de policiamento.
p A IA que auxilia os maquinistas também está entrando em uso, e no futuro podemos esperar ver carros autônomos e outros veículos autônomos em nossas estradas. Vidas dependerão deste software.
p
A abordagem europeia
p Depois de decidir que a IA precisa ser regulamentada, ainda há a questão de como fazê-lo. As autoridades da União Europeia fizeram recentemente um conjunto de propostas sobre como regulamentar a IA.
p O primeiro passo, eles discutem, é avaliar os riscos que a IA representa em diferentes setores, como transporte, cuidados de saúde, e aplicativos governamentais, como migração, justiça criminal e segurança social. Eles também examinam os aplicativos de IA que apresentam risco de morte ou ferimentos, ou ter um impacto sobre os direitos humanos, como os direitos à privacidade, igualdade, liberdade e segurança, liberdade de movimento e reunião, segurança social e padrão de vida, e a presunção de inocência.
p Quanto maior o risco que uma aplicação de IA foi considerada representar, mais regulamentação enfrentaria. Os regulamentos cobririam tudo, desde os dados usados para treinar a IA e como os registros são mantidos, a quão transparentes os criadores e operadores do sistema devem ser, teste de robustez e precisão, e requisitos para supervisão humana. Isso incluiria certificação e garantias de que o uso de sistemas de IA é seguro, e não leva a resultados discriminatórios ou perigosos.
p Embora a abordagem da UE tenha pontos fortes, mesmo aplicativos de IA aparentemente de "baixo risco" podem causar danos reais. Por exemplo, algoritmos de recomendação em motores de busca também são discriminatórios. A proposta da UE também foi criticada por tentar regulamentar a tecnologia de reconhecimento facial, em vez de bani-la completamente.
p A UE é líder mundial em regulamentação de proteção de dados. Se o mesmo acontecer com a IA, these proposals are likely to serve as a model for other countries and apply to anyone doing business with the EU or even EU citizens.
p
What's happening in Australia?
p In Australia there are some applicable laws and regulations, but there are numerous gaps, and they are not always enforced. The situation is made more difficult by the lack of human rights protections at the federal level.
p One prominent attempt at drawing up some rules for AI came last year from Data61, the data and digital arm of CSIRO. They developed an AI ethics framework built around eight ethical principles for AI.
p These ethical principles aren't entirely irrelevant (number two is "do no harm, " for example), but they are unenforceable and therefore largely meaningless. Ethics frameworks like this one for AI have been criticized as "ethics washing", and a ploy for industry to avoid hard law and regulation.
p Another attempt is the Human Rights and Technology project of the Australian Human Rights Commission. It aims to protect and promote human rights in the face of new technology.
p We are likely to see some changes following the Australian Competition and Consumer Commission's recent inquiry into digital platforms. And a long overdue review of the
Privacy Act 1988 (Cth) is slated for later this year.
p These initiatives will hopefully strengthen Australian protections in the digital age, but there is still much work to be done. Stronger human rights protections would be an important step in this direction, to provide a foundation for regulation.
p Before AI is adopted even more widely, we need to understand its impacts and put protections in place. To realize the potential benefits of AI, we must ensure that it is governed appropriately. De outra forma, we risk paying a heavy price as individuals and as a society. p Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.