• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Pesadelo Kubricks AI, 50 anos depois
    p Crédito:University of Western Ontario

    p Como David Bowman - o membro da tripulação sobrevivente a bordo da espaçonave Discovery One em 2001:A Space Odyssey de Stanley Kubrick - desmonta o HAL 9000, o computador senciente implora de uma forma afetada, voz monótona:p "Estou com medo, Dave. "

    p "Dave, minha mente está indo. Eu posso sentir isso."

    p Como a consciência de HAL - ou melhor, sua lógica - desvanece-se, ele morre cantando Daisy Bell, a primeira música 'cantada' por um computador do mundo real. Com a ameaça removida, tudo está aparentemente certo novamente.

    p Comemorando seu 50º aniversário este mês, A obra-prima de Kubrick lançou uma sombra sobre o gênero desde sua estreia. Sua influência se estende além das representações do espaço e das viagens espaciais, tocando mais do que Star Wars, Alien ou Blade Runner.

    p Por exemplo, seu efeito em nossa visão de inteligência artificial (IA) é palpável.

    p Pense na Alexa, da Amazon, quem, como HAL, ouve tudo o que você diz.

    p Mas agora, cinco décadas depois, evoluímos além do pesadelo de Kubrick de um senciente, máquina ameaçadora? Como nossa compreensão de, e relacionamento com, AI mudou? Temos alguma razão para temer as máquinas que programamos?

    p Para Catherine Stinson, que recentemente completou uma bolsa de pós-doutorado no Rotman Institute of Philosophy da Western, A visão de Kubrick, embora muito diferente do estado atual da IA, ainda é uma ameaça iminente. A ameaça, Contudo, não é a máquina.

    p "As pessoas pensavam sobre IA de maneira muito diferente naquela época, o perigo é que seria um agente que agiria de forma diferente de nós, com prioridades diferentes das que temos, " ela disse.

    p "Isso é menos a preocupação agora. Não serão as interações um-a-um (com uma máquina senciente) com as quais não sabemos como lidar. Será algo em que colocamos todo o nosso mal , e agora está fazendo coisas que são uma extensão dos problemas dos humanos - mas em uma escala maior que não poderíamos ter imaginado. Não é que as máquinas sejam diferentes de nós - elas estão reproduzindo os problemas dos humanos. "

    p Parte do problema, Stinson explicou, são os humanos que estão programando IA. Como os humanos podem programar máquinas éticas? As máquinas podem ser éticas? Nós nos consideramos competentes na tomada de decisões éticas porque decidimos entre o certo e o errado regularmente, ela disse. Contamos com um instinto que diferenciamos o certo do errado nas situações do dia-a-dia.

    p "Mas em situações mais complicadas que surgem - como carros autônomos - é realmente difícil, mesmo para quem tem formação em ética, para projetar o que é a coisa certa a ser incorporada, "Stinson observou.

    p Por exemplo, o carro deve evitar bater em um pedestre, mesmo que isso vá levar à morte do motorista? Como você avalia as duas diferentes vidas em risco? Você programa o carro para salvar os ocupantes do veículo ou aqueles com quem ele pode colidir?

    p "Não sei como tomar esse tipo de decisão. Não sei se essa decisão é algo que a pessoa comum sabe fazer. É necessária uma abordagem mais cuidadosa e alguém com mais experiência precisa estar envolvido. Mas é difícil ver que existe essa necessidade, porque todo mundo pensa que é um especialista, "Stinson acrescentou.

    p Indivíduos que fazem cursos de engenharia e tecnologia devem ser treinados em ética, ela adicionou. Exceto isso, empresas que trabalham em IA podem se beneficiar de um especialista em ética interno. As instituições acadêmicas estão exigindo cada vez mais que engenheiros e cientistas da computação façam cursos que abordem o assunto. Embora a questão das 'máquinas éticas' esteja em debate, o simples fato de podermos programá-los para realizar atos certos ou errados os envolve em um "jogo ético, "Stinson disse.

    p "Talvez pudéssemos programar uma máquina para fazer a coisa certa com mais frequência do que faríamos. Mas há razão para temer? Claro. Existem máquinas sendo usadas no sistema judiciário dos Estados Unidos, tomar decisões que talvez não sejam as corretas. Não temos certeza de como eles estão tomando essas decisões e não há responsabilidade perante a culpa se eles tomarem a decisão errada, "ela notou.

    p Para sentença em particular, existem programas de IA que ajudam os juízes a decidir qual deve ser a sentença certa para alguém condenado por um crime. O algoritmo é projetado para tornar a sentença menos tendenciosa, levando em consideração fatores do passado da pessoa, em que tipo de bairro eles cresceram, que tipo de pessoas eles conheciam, prisões anteriores, idade do primeiro envolvimento com a polícia, etc.

    p Todas essas coisas não são peças neutras de informação, Stinson disse. Esses programas de IA foram criticados por reforçar os estereótipos que foram projetados para evitar.

    p "Não sabemos quais são os perigos. Parte da preocupação com os perigos é tentar prever quais podem ser, e para decidir o que valorizamos, e que tipo de coisas queremos que aconteçam, por uma questão de conveniência, "Stinson disse.

    p Tim Blackmore, professor da Faculdade de Informação e Estudos de Mídia, lecionou 2001:Uma Odisséia no Espaço para alunos por mais de uma década. Ele repetiu Stinson, observando que os perigos da IA ​​residem no elemento humano em jogo. Para ele, seja qual for a forma que assuma em filmes ou livros, A IA sempre foi uma extensão do humano.

    p "As máquinas pensantes são frequentemente retratadas como cientes de sua própria existência e cientes de questões existenciais. Elas são um dos muitos espelhos que os humanos usam para refletir o que é ser humano, "Blackmore disse.

    p E esse é o pesadelo.

    p "Até agora, tem sido uma espécie de pesadelo 'máquina que governa o mundo'. Isso vem da década de 1960 e é moldado em grande parte pelo Vietnã, bem como a ideia desses mainframes, essas grandes máquinas, faziam parte de uma visão de mundo que estava nos levando a um estado desumano, modo de vida determinista que levaria a genocídios, " ele explicou.

    p Mas a ameaça hoje não está em nossa visão da IA ​​como uma máquina do futuro que pode nos superar ou nos conquistar.

    p "Imaginamos muito menos WALL-E - a máquina auxiliar. Mas é muito mais isso. Não são as máquinas que são um problema; são os humanos. As pessoas fazem coisas más, "Blackmore observou, acrescentando que está nervoso com as máquinas "ajudantes" que abraçamos cegamente.

    p "Estou preocupado com esses discos e cilindros ou qualquer outra coisa da Amazon, O Google ou o Facebook querem entrar em nossa casa em seguida. As pessoas querem isso; é um gadget e é legal porque é muito difícil pegar seu telefone celular e digitar algo nele ou falar nele. Estamos indo para o cocho e sugamos essas coisas, e teremos terabytes de dados voando para pools onde eles poderiam ser limpos para tudo. Esses dados podem ser manipulados por agentes de IA que serão cada vez melhores em como jogar com seres humanos, " Ele continuou.

    p "Como essa tecnologia se desenvolverá para que as pessoas possam empurrar as pessoas - isso é o que tende a ser uma má notícia para nós. A revolta dos robôs está no fim da minha lista."


    © Ciência https://pt.scienceaq.com