• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Robôs assassinos já existem, e eles estão aqui há muito tempo

    Crédito:Mykola Holyutyak / Shutterstock

    Os humanos sempre tomarão a decisão final sobre se os robôs armados podem atirar, de acordo com uma declaração do Departamento de Defesa dos EUA. Seu esclarecimento vem em meio a temores sobre um novo sistema avançado de segmentação, conhecido como ATLAS, que usará inteligência artificial em veículos de combate para mirar e executar ameaças. Embora o público possa se sentir desconfortável com os chamados "robôs assassinos", o conceito não é nada novo - robôs com metralhadoras "SWORDS" foram implantados no Iraque já em 2007.

    Nosso relacionamento com robôs militares é ainda mais antigo do que isso. Isso ocorre porque quando as pessoas dizem "robô, "podem significar qualquer tecnologia com alguma forma de elemento" autônomo "que permite realizar uma tarefa sem a necessidade de intervenção humana direta.

    Essas tecnologias existem há muito tempo. Durante a Segunda Guerra Mundial, o fusível de proximidade foi desenvolvido para explodir os projéteis de artilharia a uma distância predeterminada de seu alvo. Isso tornou os invólucros muito mais eficazes do que seriam de outra forma, aumentando a tomada de decisão humana e, em alguns casos, tirando o humano completamente do circuito.

    Portanto, a questão não é tanto se devemos usar sistemas de armas autônomos na batalha - nós já os usamos, e eles assumem muitas formas. Em vez, devemos nos concentrar em como os usamos, porque os usamos, e que forma - se houver - a intervenção humana deve assumir.

    O nascimento da cibernética

    Minha pesquisa explora a filosofia das relações homem-máquina, com um foco particular na ética militar, e a maneira como distinguimos entre humanos e máquinas. Durante a Segunda Guerra Mundial, o matemático Norbert Wiener lançou as bases da cibernética - o estudo da interface entre os humanos, animais e máquinas - em seu trabalho no controle do fogo antiaéreo. Ao estudar os desvios entre o movimento previsto de uma aeronave, e seu movimento real, Wiener e seu colega Julian Bigelow criaram o conceito de "ciclo de feedback, "onde desvios podem ser realimentados no sistema para corrigir futuras previsões.

    Os sistemas de mira autônomos se originaram com inovações em armamentos antiaéreos durante a Segunda Guerra Mundial. Crédito:Zef Art / Shutterstock

    A teoria de Wiener, portanto, foi muito além do mero aumento, pois a tecnologia cibernética poderia ser usada para antecipar decisões humanas - removendo o humano falível do circuito, a fim de tornar melhor, decisões mais rápidas e tornar os sistemas de armas mais eficazes.

    Nos anos desde a Segunda Guerra Mundial, o computador surgiu para ficar ao lado da teoria cibernética para formar um pilar central do pensamento militar, desde as "bombas inteligentes" guiadas a laser da era do Vietnã até mísseis de cruzeiro e drones Reaper.

    Não é mais suficiente apenas aumentar o guerreiro humano como era nos primeiros dias. A próxima fase é remover o humano completamente - "maximizando" os resultados militares enquanto minimiza o custo político associado à perda de vidas aliadas. Isso levou ao uso generalizado de drones militares pelos EUA e seus aliados. Embora essas missões sejam altamente controversas, em termos políticos, provaram ser preferíveis ao clamor público causado pelas mortes de militares.

    A máquina humana

    Uma das questões mais controversas relacionadas à guerra de drones é o papel do piloto ou "operador" do drone. Como todo pessoal, esses operadores são obrigados por seus empregadores a "fazer um bom trabalho". Contudo, os termos do sucesso estão longe de ser claros. Como observa o filósofo e crítico cultural Laurie Calhoun:"O negócio dos operadores de UCAV [drones] é matar."

    Desta maneira, sua tarefa não é tanto tomar uma decisão humana, mas sim para fazer o trabalho para o qual foram contratados. Se o computador os mandar matar, há realmente alguma razão pela qual eles não deveriam?

    Um drone militar moderno. Crédito:Alex LMX / Shutterstock

    Um argumento semelhante pode ser feito com respeito ao soldado moderno. De navegação GPS a uplinks de vídeo, os soldados carregam vários dispositivos que os ligam a uma vasta rede que os monitora e controla a cada passo.

    Isso leva a um enigma ético. Se o propósito do soldado é seguir as ordens à risca - com câmeras usadas para garantir o cumprimento - então por que nos incomodamos com soldados humanos? Afinal, as máquinas são muito mais eficientes do que os seres humanos e não sofrem de fadiga e estresse da mesma forma que um ser humano. Se os soldados devem se comportar de forma programática, moda robótica de qualquer maneira, então qual é o sentido de derramar sangue aliado desnecessário?

    A resposta, aqui, é que o humano serve como um álibi ou forma de "cobertura ética" para o que é na realidade, quase totalmente mecânico, ato robótico. Assim como o trabalho do operador do drone é supervisionar o drone controlado por computador, portanto, a função do ser humano no novo sistema ATLAS do Departamento de Defesa é meramente atuar como cobertura ética caso as coisas dêem errado.

    Embora os drones Predator e Reaper possam estar na vanguarda da imaginação pública sobre autonomia militar e "robôs assassinos, "essas inovações não são em si nada novas. Elas são apenas as mais recentes em uma longa linha de desenvolvimentos que remontam a muitas décadas.

    Embora possa confortar alguns leitores imaginar que a autonomia da máquina sempre estará subordinada à tomada de decisão humana, isso realmente perde o ponto. Os sistemas autônomos há muito foram incorporados às forças armadas e devemos nos preparar para as consequências.

    Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.




    © Ciência https://pt.scienceaq.com