• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • O problema do carrinho autônomo:como os futuros sistemas de IA farão as escolhas mais éticas para todos nós?

    Crédito:Shutterstock

    A inteligência artificial (IA) já está tomando decisões nas áreas de negócios, saúde e manufatura. Mas os algoritmos de IA geralmente ainda recebem ajuda de pessoas que aplicam verificações e fazem a decisão final.
    O que aconteceria se os sistemas de IA tivessem que tomar decisões independentes e que pudessem significar vida ou morte para os humanos?

    A cultura pop há muito retrata nossa desconfiança geral em relação à IA. No filme de ficção científica de 2004 "I, Robot", o detetive Del Spooner (interpretado por Will Smith) suspeita de robôs depois de ser resgatado por um de um acidente de carro, enquanto uma menina de 12 anos foi deixada para se afogar. Ele diz:"Eu era a escolha lógica. Calculou que eu tinha 45% de chance de sobrevivência. Sarah só tinha 11% de chance. Era o bebê de alguém - 11% é mais que suficiente. Um ser humano saberia disso. ."

    Ao contrário dos humanos, os robôs não têm consciência moral e seguem a "ética" programada neles. Ao mesmo tempo, a moralidade humana é altamente variável. A coisa "certa" a fazer em qualquer situação dependerá de quem você perguntar.

    Para que as máquinas nos ajudem em todo o seu potencial, precisamos garantir que elas se comportem de forma ética. Então, a pergunta se torna:como a ética dos desenvolvedores e engenheiros de IA influencia as decisões tomadas pela IA?

    O futuro da direção autônoma

    Imagine um futuro com carros autônomos totalmente autônomos. Se tudo funcionar como planejado, o trajeto matinal será uma oportunidade para se preparar para as reuniões do dia, acompanhar as notícias ou sentar e relaxar.

    Mas e se as coisas derem errado? O carro se aproxima de um semáforo, mas de repente os freios falham e o computador precisa tomar uma decisão em frações de segundo. Ele pode desviar para um poste próximo e matar o passageiro, ou continuar e matar o pedestre à frente.

    O computador que controla o carro só terá acesso a informações limitadas coletadas pelos sensores do carro e terá que tomar uma decisão com base nisso. Por mais dramático que isso possa parecer, estamos a apenas alguns anos de potencialmente enfrentar tais dilemas.

    Os carros autônomos geralmente proporcionam uma direção mais segura, mas os acidentes serão inevitáveis ​​– especialmente no futuro previsível, quando esses carros compartilharão as estradas com motoristas humanos e outros usuários da estrada.

    A Tesla ainda não produz carros totalmente autônomos, embora planeje fazê-lo. Em situações de colisão, os carros Tesla não operam ou desativam automaticamente o sistema de Frenagem Automática de Emergência (AEB) se um motorista humano estiver no controle.

    Em outras palavras, as ações do motorista não são interrompidas – mesmo que ele mesmo esteja causando a colisão. Em vez disso, se o carro detectar uma colisão em potencial, ele envia alertas para o motorista agir.

    No modo "piloto automático", no entanto, o carro deve frear automaticamente para os pedestres. Alguns argumentam que se o carro pode evitar uma colisão, então há uma obrigação moral de anular as ações do motorista em todos os cenários. Mas gostaríamos que um carro autônomo tomasse essa decisão?

    Quanto vale uma vida?

    E se o computador de um carro pudesse avaliar o "valor" relativo do passageiro em seu carro e do pedestre? Se sua decisão considerasse esse valor, tecnicamente estaria apenas fazendo uma análise de custo-benefício.

    Isso pode parecer alarmante, mas já existem tecnologias sendo desenvolvidas que podem permitir que isso aconteça. Por exemplo, o Meta recentemente renomeado (anteriormente Facebook) tem um reconhecimento facial altamente evoluído que pode identificar facilmente indivíduos em uma cena.

    Se esses dados fossem incorporados ao sistema de IA de um veículo autônomo, o algoritmo poderia atribuir um valor em dólar a cada vida. Essa possibilidade é retratada em um extenso estudo de 2018 realizado por especialistas do Instituto de Tecnologia de Massachusetts e colegas.

    Por meio do experimento Moral Machine, os pesquisadores apresentaram vários cenários de carros autônomos que obrigaram os participantes a decidir se matariam um pedestre sem-teto ou um pedestre executivo.

    Os resultados revelaram que as escolhas dos participantes dependiam do nível de desigualdade econômica em seu país, em que mais desigualdade econômica significava que eles eram mais propensos a sacrificar o homem sem-teto.

    Embora não tão evoluída, essa agregação de dados já está em uso com o sistema de crédito social da China, que decide quais direitos sociais as pessoas têm.

    O setor de saúde é outra área em que veremos a IA tomando decisões que podem salvar ou prejudicar humanos. Os especialistas estão desenvolvendo cada vez mais a IA para detectar anomalias em imagens médicas e ajudar os médicos a priorizar os cuidados médicos.

    Por enquanto, os médicos têm a palavra final, mas à medida que essas tecnologias se tornam cada vez mais avançadas, o que acontecerá quando um médico e um algoritmo de IA não fizerem o mesmo diagnóstico?

    Outro exemplo é um sistema automatizado de lembrete de medicamentos. Como o sistema deve reagir se um paciente se recusar a tomar a medicação? E como isso afeta a autonomia do paciente e a responsabilidade geral do sistema?

    Drones e armamentos com inteligência artificial também são eticamente preocupantes, pois podem tomar a decisão de matar. Existem opiniões conflitantes sobre se tais tecnologias devem ser completamente banidas ou regulamentadas. Por exemplo, o uso de drones autônomos pode ser limitado à vigilância.

    Alguns pediram que os robôs militares fossem programados com ética. Mas isso levanta questões sobre a responsabilidade do programador no caso de um drone matar civis por engano.

    Dilemas filosóficos

    Houve muitos debates filosóficos sobre as decisões éticas que a IA terá que tomar. O exemplo clássico disso é o problema do bonde.

    As pessoas muitas vezes lutam para tomar decisões que podem ter um resultado de mudança de vida. Ao avaliar como reagimos a tais situações, um estudo relatou que as escolhas podem variar dependendo de uma série de fatores, incluindo idade, sexo e cultura do entrevistado.

    Quando se trata de sistemas de IA, os processos de treinamento de algoritmos são críticos para como eles funcionarão no mundo real. Um sistema desenvolvido em um país pode ser influenciado pelos pontos de vista, política, ética e moral daquele país, tornando-o inadequado para uso em outro lugar e época.

    Se o sistema estivesse controlando aeronaves ou guiando um míssil, você desejaria um alto nível de confiança de que foi treinado com dados representativos do ambiente em que está sendo usado.

    Exemplos de falhas e preconceitos na implementação da tecnologia incluem dispensador de sabão racista e rotulagem automática inadequada de imagens.



    A IA não é "boa" ou "má". Os efeitos que terá nas pessoas dependerão da ética de seus desenvolvedores. Então, para aproveitar ao máximo, precisaremos chegar a um consenso sobre o que consideramos "ético".

    Embora empresas privadas, organizações públicas e instituições de pesquisa tenham suas próprias diretrizes para IA ética, as Nações Unidas recomendaram o desenvolvimento do que chamam de “um instrumento global abrangente de definição de padrões” para fornecer uma estrutura global de IA ética – e garantir que os direitos humanos sejam protegidos.
    © Ciência https://pt.scienceaq.com