• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Errar a ética da IA ​​pode aniquilar o progresso técnico

    A IA pode ser usada para identificar possíveis perpetradores de crimes violentos e avaliar o risco de reincidência criminal. Crédito:Max Pixel, licenciado sob CC0

    Uma pistola d'água inteligente que usa reconhecimento facial para identificar seus alvos está ajudando a destacar algumas das questões emergentes de direitos humanos em torno da inteligência artificial (IA) - uma área de pesquisa que está em ascensão à medida que novas tecnologias se tornam cada vez mais prevalentes em nosso dia a dia vidas.

    "É muito difícil ser um pesquisador de IA agora e não estar ciente das implicações éticas que esses algoritmos têm, "disse o professor Bernd Stahl, diretor do Centro de Computação e Responsabilidade Social da Universidade De Montfort em Leicester, REINO UNIDO.

    "Precisamos compreender melhor não apenas o que essas tecnologias podem fazer, mas como eles irão atuar na sociedade e no mundo em geral. "

    Ele lidera um projeto chamado SHERPA, que tenta lidar com algumas das questões éticas que envolvem sistemas de informação inteligentes que usam aprendizado de máquina, uma forma de IA, e outros algoritmos para analisar conjuntos de big data.

    A pistola de água inteligente foi criada com o objetivo de destacar como vieses em algoritmos podem levar à discriminação e tratamento injusto. Construído por um artista para SHERPA, a pistola de água pode ser programada para selecionar seus alvos.

    "Nosso artista construiu uma pistola d'água com reconhecimento de rosto, de modo que ela só esguicha água nas mulheres ou pode ser alterada para reconhecer um único indivíduo ou pessoas de uma certa idade, "disse o Prof. Stahl." A ideia é fazer as pessoas pensarem sobre o que esse tipo de tecnologia pode fazer. "

    Enquanto esguichar água nas pessoas pode parecer uma diversão inofensiva, os problemas são tudo menos. A IA já é usada para identificar rostos nas redes sociais, responder a perguntas sobre assistentes domésticos digitais como Alexa e Siri, e sugerir produtos para os consumidores quando estiverem comprando online.

    Também está sendo usado para ajudar a fazer julgamentos sobre o risco de criminosos de reincidência ou mesmo para identificar quem pode cometer crimes violentos . Seguradoras e autoridades fiscais estão usando para ajudar a detectar fraudes, bancos recorreram à IA para ajudar a processar pedidos de empréstimo e está até mesmo sendo testado em postos de controle de fronteira .

    Impactos

    Durante o ano passado, O Prof. Stahl e seus colegas compilaram 10 estudos de caso em que analisaram empiricamente os impactos dessas tecnologias em vários setores. Isso inclui o uso de IA em cidades inteligentes, seu uso pela indústria de seguros, na educação, cuidados de saúde, agricultura e pelos governos.

    "Existem algumas coisas muito importantes que afetam todos os setores, como privacidade, proteção de dados e segurança cibernética, "disse o Prof. Stahl." A IA também está criando novos desafios para o direito de trabalhar se os algoritmos puderem tirar o trabalho das pessoas, ou o direito a eleições livres, se puder ser usado para interferir no processo democrático, como vimos com Cambridge Analytica. "

    Talvez um dos usos emergentes mais controversos da IA ​​seja no policiamento preditivo, onde os algoritmos são treinados em conjuntos de dados históricos para identificar padrões no comportamento e nas características do infrator. Isso pode ser usado para prever áreas, grupos ou mesmo indivíduos que possam estar envolvidos em crimes no futuro. Tecnologia semelhante já está sendo testada em algumas partes dos Estados Unidos e do Reino Unido.

    Preconceitos

    Mas esses algoritmos também podem aprender os vieses que já existem nos conjuntos de dados. Se um banco de dados da polícia mostra que principalmente jovens, homens negros são presos por um certo crime, pode não ser um reflexo justo do perfil real do criminoso e, em vez disso, refletir o racismo histórico dentro de uma força. O uso de IA ensinado neste tipo de dados pode agravar problemas como racismo e outras formas de discriminação.

    "A transparência desses algoritmos também é um problema, "disse o Prof. Stahl." Esses algoritmos fazem a classificação estatística dos dados de uma forma que torna quase impossível ver como exatamente isso aconteceu. "Isso levanta questões importantes sobre como os sistemas jurídicos, por exemplo, podem permanecer justos e justos se começarem a confiar em algoritmos opacos de 'caixa preta' de IA para informar as decisões de condenação ou julgamentos sobre a culpa de uma pessoa.

    A próxima etapa do projeto será examinar as possíveis intervenções que podem ser usadas para resolver alguns desses problemas. Ele analisará onde as diretrizes podem ajudar a garantir que os pesquisadores de IA construam justiça em seus algoritmos, onde novas leis podem reger seu uso e se um regulador pode manter os aspectos negativos da tecnologia sob controle.

    Mas um dos problemas que muitos governos e reguladores enfrentam é acompanhar o ritmo acelerado de mudança em novas tecnologias, como IA, de acordo com o professor Philip Brey, que estuda a filosofia da tecnologia na Universidade de Twente, na Holanda.

    "A maioria das pessoas hoje não entende a tecnologia porque é muito complexa, opaco e rápido, "disse ele." Por isso é difícil prever e avaliar os impactos na sociedade, e ter respostas regulatórias e legislativas adequadas para isso. A política geralmente está significativamente atrasada. "

    O Prof. Brey é coordenador do projeto SIENNA, que está desenvolvendo recomendações e códigos de conduta para uma série de tecnologias emergentes, incluindo genômica humana, aprimoramento humano, IA e robótica.

    Mineração

    "A Tecnologia da Informação tem, claro, já teve um grande impacto na privacidade por meio da Internet e dos dispositivos móveis que usamos, mas a inteligência artificial é capaz de combinar diferentes tipos de informações e explorá-los de uma forma que revela informações e percepções fundamentalmente novas sobre as pessoas, "disse o Prof. Brey." Ele pode fazer isso de uma forma muito rápida e eficiente. "

    A tecnologia de IA está abrindo a porta para a análise em tempo real do comportamento das pessoas, emoções junto com a capacidade de inferir detalhes sobre seu estado mental ou suas intenções.

    "Isso é algo que não era possível, "disse o professor Brey." Então, o que você faz com essas informações levanta novos tipos de preocupações sobre privacidade. "

    A equipe SIENNA está conduzindo workshops, consultas a especialistas e pesquisas de opinião pública que visam identificar as preocupações dos cidadãos em 11 países. Eles agora estão se preparando para redigir um conjunto de recomendações que aqueles que trabalham com IA e outras tecnologias podem transformar em padrões que garantirão que as considerações éticas e de direitos humanos sejam incorporadas na fase de projeto.

    Essa compreensão pública mais ampla de como a tecnologia pode impactá-los pode ser crucial para a sobrevivência da IA ​​a longo prazo, de acordo com o Prof. Stahl.

    "Se não acertarmos com a ética, então as pessoas vão se recusar a usá-lo e isso aniquilará qualquer progresso técnico, " ele disse.


    © Ciência https://pt.scienceaq.com