• Home
  • Química
  • Astronomia
  • Energia
  • Natureza
  • Biologia
  • Física
  • Eletrônicos
  • Construindo confiança na inteligência artificial

    Crédito CC0:domínio público

    De telecomunicações ao tráfego rodoviário, da saúde ao local de trabalho - a tecnologia digital agora é uma parte intrínseca de quase todas as áreas da vida. No entanto, como podemos garantir que os desenvolvimentos neste campo, especialmente aqueles que dependem de inteligência artificial (IA), atender todas as nossas éticas, preocupações legais e tecnológicas? Em um projeto liderado pelo Instituto Fraunhofer para Análise Inteligente e Sistemas de Informação IAIS, e com a participação do Escritório Federal de Segurança da Informação da Alemanha (BSI), Uma equipe interdisciplinar de cientistas das Universidades de Bonn e Colônia está elaborando um catálogo de inspeção para a certificação de aplicações de IA. Eles já publicaram um artigo apresentando o aspecto filosófico, ético, questões legais e tecnológicas envolvidas.

    A inteligência artificial está mudando nossa sociedade, nossa economia e nossa vida cotidiana de maneiras fundamentais. E ao fazer isso, é a criação de algumas oportunidades empolgantes na forma como vivemos e trabalhamos juntos. Por exemplo, já ajuda os médicos a avaliar melhor os raios-x, o que geralmente leva a um diagnóstico mais preciso. É a base dos chatbots que fornecem respostas úteis às pessoas que procuram conselhos sobre, por exemplo, seguro. E, em pouco tempo, permitirá que os carros se tornem cada vez mais autônomos. As previsões atuais indicam que o número de aplicações de IA deve aumentar exponencialmente nos próximos anos. McKinsey, por exemplo, projeta um crescimento global adicional de IA de até 13 bilhões de dólares americanos até 2030.

    Ao mesmo tempo, é claro que precisamos garantir que nosso uso de IA e as oportunidades que ela traz permaneçam em harmonia com as visões e valores de nossa sociedade. Atuando sob a égide da Kompetenzplattform KI.NRW, uma plataforma de competência em IA no estado da Renânia do Norte-Vestfália, uma equipe interdisciplinar se reuniu para desenvolver um processo de certificação para aplicações de IA a serem realizadas por examinadores credenciados. Isso irá confirmar a conformidade com um padrão de qualidade certificado que, por sua vez, permitirá que as empresas de tecnologia projetem aplicativos de IA de maneira verificável que sejam tecnicamente confiáveis ​​e eticamente aceitáveis.

    "O objetivo da certificação é ajudar a estabelecer padrões de qualidade para IA feita na Europa, para garantir uma abordagem responsável a esta tecnologia e para promover uma concorrência justa entre os vários jogadores, "diz o Prof. Dr. Stefan Wrobel, diretor da Fraunhofer IAIS e professor de ciência da computação na Universidade de Bonn.

    Focando no aspecto humano

    A inteligência artificial tem o potencial de ampliar nossas capacidades e nos fornecer novos conhecimentos. Contudo, assim que começarmos a basear nossas decisões no aprendizado de máquina totalmente ou parcialmente automatizado, enfrentaremos uma série de novos desafios. A viabilidade técnica de tais aplicações é uma consideração. Em primeiro lugar, Contudo, devemos resolver o básico filosófico, questões éticas e legais. Para garantir que as necessidades das pessoas estejam firmemente inseridas no centro do desenvolvimento desta tecnologia, estreito diálogo entre os campos da tecnologia da informação, filosofia e lei são necessárias.

    A equipe de especialistas acaba de publicar um white paper no qual detalham sua abordagem interdisciplinar para o processo de certificação. Por exemplo, eles explicam os princípios éticos envolvidos. "Qualquer pessoa que use IA deve ser capaz de agir adequadamente de acordo com suas convicções morais, e ninguém deve ser restringido em seus direitos, liberdade ou autonomia, "diz o Prof. Dr. Markus Gabriel, professor de filosofia da Universidade de Bonn. Questões jurídicas também foram abordadas. "Por exemplo, precisamos determinar como as aplicações de IA podem ser feitas para estar em conformidade com os valores e princípios básicos de um estado governado pelo Estado de Direito e sujeito aos princípios da liberdade, "explica o Prof. Frauke Rostalski, professor de direito na Universidade de Colônia.

    Prioridades para construir confiança no uso de IA

    Esta abordagem interdisciplinar identificou uma série de questões éticas, questões legais e tecnológicas relevantes para o uso de IA. Tudo isso é examinado no Livro Branco. Os critérios empregados em um processo de certificação devem incluir justiça, transparência, autonomia, ao controle, Proteção de dados, segurança, segurança e confiabilidade. As recomendações da UE, portanto, também servem como orientação para o projeto de certificação KI.NRW.

    O processo de certificação girará em torno de questões como:A aplicação de IA respeita as leis e os valores da sociedade? O usuário mantém total e efetiva autonomia sobre o aplicativo? O aplicativo trata todos os participantes de maneira justa? O aplicativo funciona e toma decisões de forma transparente e compreensível? O aplicativo é confiável e robusto? É seguro contra ataques, acidentes e erros? O aplicativo protege o domínio privado e outras informações confidenciais?

    Criação de verificações e controles na fase de projeto

    De acordo com o white paper, deve ser determinado durante o processo de design inicial se a aplicação é eticamente e legalmente permissível e, em caso afirmativo, quais verificações e controles devem ser formulados para governar este processo. Um critério necessário é garantir que o uso do aplicativo não comprometa ninguém que o use em sua capacidade de tomar uma decisão moral - como se existisse a opção de recusar o uso de IA - e que seus direitos e liberdades não sejam restringidos de forma alguma .

    A transparência é outro critério importante:os especialistas enfatizam que as informações sobre o uso correto do aplicativo devem estar prontamente disponíveis, e os resultados determinados por meio do uso de IA no aplicativo devem ser totalmente interpretáveis, rastreável e reproduzível pelo usuário. Conflito de interesses, como transparência e não divulgação de segredos comerciais, devem ser equilibrados um contra o outro.

    O plano é publicar uma versão inicial do catálogo de inspeção até o início de 2020 e, em seguida, começar com a certificação das aplicações de IA. Este projeto também envolve a participação do Escritório Federal de Segurança da Informação da Alemanha (BSI), que possui ampla experiência no desenvolvimento de padrões de TI seguros. Este know-how irá alimentar o processo de certificação. Finalmente, dado que a IA está em constante evolução, o próprio catálogo de inspeção será um "documento vivo" que necessita de atualização contínua.


    © Ciência https://pt.scienceaq.com