A inteligência artificial precisa ser desenvolvida com uma estrutura ética. Crédito:Shutterstock / Alexander Supertramp
A questão de saber se a tecnologia é boa ou ruim depende de como ela é desenvolvida e usada. Em nenhum lugar isso é mais atual do que em tecnologias que usam inteligência artificial.
Quando desenvolvido e usado de forma adequada, inteligência artificial (IA) tem o potencial de transformar a maneira como vivemos, trabalhar, comunicar e viajar.
Novas tecnologias médicas habilitadas para IA estão sendo desenvolvidas para melhorar o atendimento ao paciente. Há indícios persuasivos de que os veículos autônomos irão melhorar a segurança e reduzir o pedágio. O aprendizado de máquina e a automação estão simplificando os fluxos de trabalho e nos permitindo trabalhar de maneira mais inteligente.
Ao redor do mundo, A tecnologia habilitada para IA está cada vez mais sendo adotada por indivíduos, governos, organizações e instituições. Mas junto com o vasto potencial para melhorar nossa qualidade de vida, representa um risco para os nossos direitos humanos e liberdades básicas.
Supervisão apropriada, orientação e compreensão da maneira como a IA é usada e desenvolvida na Austrália deve ser priorizada.
AI enlouquecida pode evocar imagens dos filmes O Exterminador do Futuro e Ex Machina, mas é muito mais simples, questões fundamentais que precisam ser abordadas no momento, tal como:
Temos um plano de ética de IA
É por isso, em parceria com o governo e a indústria, desenvolvemos uma estrutura de ética para IA na Austrália. O objetivo é catalisar a discussão sobre como a IA deve ser usada e desenvolvida na Austrália.
A estrutura ética analisa vários estudos de caso de todo o mundo para discutir como a IA foi usada no passado e os impactos que teve. Os estudos de caso nos ajudam a entender onde as coisas deram errado e como evitar a repetição de erros anteriores.
Também analisamos o que estava sendo feito em todo o mundo para tratar de questões éticas sobre o desenvolvimento e uso de IA.
Com base nos principais problemas e impactos da IA, oito princípios foram identificados para apoiar o uso ético e o desenvolvimento da IA na Austrália.
Além dos princípios centrais, vários itens do kit de ferramentas são identificados na estrutura que podem ser usados para ajudar a apoiar esses princípios. Isso inclui avaliações de impacto, monitoramento contínuo e consulta pública.
Um plano, que tal ação?
Mas os princípios e objetivos éticos só podem ir até certo ponto. Em algum momento, precisaremos começar a trabalhar para decidir como vamos implementá-los e alcançá-los.
Existem várias complexidades a serem consideradas ao discutir o uso ético e o desenvolvimento da IA. O vasto alcance da tecnologia tem potencial para impactar todas as facetas de nossas vidas.
Os aplicativos de IA já estão em uso em todos os lares, empresas e governos, a maioria dos australianos já está sendo impactada por eles.
Há uma necessidade premente de examinar os efeitos que a IA tem sobre os vulneráveis e os grupos minoritários, garantindo que protegemos esses indivíduos e comunidades de preconceitos, discriminação e exploração. (Lembre-se de Tay, o chatbot racista?)
Há também o fato de que a IA usada na Austrália muitas vezes será desenvolvida em outros países, então, como podemos garantir que ele esteja de acordo com os padrões e expectativas australianas?
Sua fala
A estrutura explora essas questões e dá forma a alguns dos primeiros passos da Austrália na jornada em direção ao desenvolvimento e uso positivos da IA. Mas o verdadeiro progresso precisa de contribuições das partes interessadas em todo o governo, o negócio, academia e sociedade em geral.
Leia mais:cuidado com a maneira como você trata a IA de hoje:ela pode se vingar no futuro
É por isso que o documento de discussão da estrutura ética agora está aberto a comentários públicos. Você tem até 31 de maio, 2019, para dar sua opinião sobre o futuro digital da Austrália.
Com uma abordagem proativa para o desenvolvimento ético da IA, A Austrália pode fazer mais do que apenas mitigar quaisquer riscos. Se pudermos construir IA para uma ação mais justa, podemos garantir uma vantagem competitiva, bem como salvaguardar os direitos dos australianos.
Emma Schleiger, Pesquisa científica, CSIRO e Stefan Hajkowicz, Cientista Principal Sênior, Estratégia e prospectiva, Data 61
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.