Crédito:Shutterstock
Os sistemas de inteligência artificial (IA) estão se tornando mais inteligentes a cada dia, vencendo campeões mundiais em jogos como Go, identificar tumores em exames médicos melhor do que radiologistas humanos, e aumentando a eficiência dos centros de dados com grande consumo de eletricidade. Alguns economistas estão comparando o potencial transformador da IA com outras "tecnologias de uso geral", como a máquina a vapor, eletricidade ou o transistor.
Mas os sistemas de IA atuais estão longe de ser perfeitos. Eles tendem a refletir os preconceitos dos dados usados para treiná-los e a quebrar quando enfrentam situações inesperadas. Eles podem ser jogados, como vimos nas controvérsias em torno da desinformação nas redes sociais, conteúdo violento postado no YouTube, ou o famoso caso de Tay, o chatbot da Microsoft, que foi manipulado para fazer declarações racistas e sexistas em poucas horas.
Então, realmente queremos torná-los propensos a preconceitos, tecnologias frágeis nas pedras fundamentais da economia de amanhã?
Minimizando o risco
Uma forma de minimizar os riscos de IA é aumentar a diversidade das equipes envolvidas em seu desenvolvimento. Como sugere a pesquisa sobre tomada de decisão coletiva e criatividade, grupos que são mais diversificados do ponto de vista cognitivo tendem a tomar melhores decisões. Infelizmente, isso está muito longe da situação na comunidade que atualmente desenvolve sistemas de IA. E a falta de diversidade de gênero é uma dimensão importante (embora não a única) disso.
Uma avaliação publicada pelo AI Now Institute no início deste ano, mostraram que menos de 20% dos pesquisadores que se candidatam a conferências de IA de prestígio são mulheres, e que apenas um quarto dos alunos de graduação que estudam IA em Stanford e na Universidade da Califórnia em Berkeley são mulheres.
Os autores argumentaram que essa falta de diversidade de gênero resulta em falhas de IA que afetam exclusivamente as mulheres, como um sistema de recrutamento da Amazon que demonstrou discriminar candidatos a empregos com nomes femininos.
Nosso relatório recente, Diversidade de gênero na pesquisa de IA, envolveu uma análise de "big data" de 1,5 milhão de papéis no arXiv, um site de pré-impressão amplamente usado pela comunidade de IA para divulgar seu trabalho.
Analisamos o texto dos resumos para determinar quais se aplicam às técnicas de IA, inferiu o gênero dos autores a partir de seus nomes e estudou os níveis de diversidade de gênero na IA e sua evolução ao longo do tempo. Também comparamos a situação em diferentes campos de pesquisa e países, e diferenças de linguagem entre artigos com coautoras do sexo feminino e artigos exclusivamente masculinos.
Nossa análise confirma a ideia de que há uma crise de diversidade de gênero na pesquisa de IA. Apenas 13,8% dos autores de IA no arXiv são mulheres e, em termos relativos, a proporção de artigos de IA com coautoria de pelo menos uma mulher não melhorou desde os anos 1990.
Existem diferenças significativas entre países e campos de pesquisa. Encontramos uma representação mais forte de mulheres na pesquisa de IA na Holanda, Noruega e Dinamarca, e uma menor representação no Japão e Cingapura. Também descobrimos que as mulheres que trabalham com física, Educação, A biologia e os aspectos sociais da computação têm mais probabilidade de publicar trabalhos sobre IA em comparação com aqueles que trabalham com ciência da computação ou matemática.
Além de medir a diversidade de gênero na força de trabalho de pesquisa de IA, também exploramos diferenças semânticas entre artigos de pesquisa com e sem participação feminina. Testamos a hipótese de que as equipes de pesquisa com mais diversidade de gênero tendem a aumentar a variedade de questões e tópicos que são considerados na pesquisa de IA, potencialmente tornando seus resultados mais inclusivos.
Para fazer isso, medimos a "assinatura semântica" de cada papel usando uma técnica de aprendizado de máquina chamada embeddings de palavras, e comparou essas assinaturas entre artigos com pelo menos uma autora e artigos sem autoria nenhuma.
Esta análise, que se concentra no campo de aprendizado de máquina e aspectos sociais da computação no Reino Unido, mostraram diferenças significativas entre os grupos. Em particular, descobrimos que artigos com pelo menos uma co-autora tendem a ser mais aplicados e socialmente conscientes, com termos como "justiça", "mobilidade humana", "mental", "saúde", "gênero" e "personalidade" desempenham um papel fundamental. A diferença entre os dois grupos é consistente com a ideia de que a diversidade cognitiva tem impacto nas pesquisas produzidas, e sugere que isso leva a um maior envolvimento com as questões sociais.
Como corrigi-lo
Então, o que explica essa lacuna de gênero persistente na pesquisa de IA, E o que podemos fazer sobre isso?
A pesquisa mostra que a falta de diversidade de gênero na ciência, tecnologia, A força de trabalho de engenharia e matemática (STEM) não é causada por um único fator:estereótipos de gênero e discriminação, a falta de modelos e mentores, atenção insuficiente ao equilíbrio entre vida pessoal e profissional, e ambientes de trabalho "tóxicos" na indústria de tecnologia se unem para criar uma tempestade perfeita contra a inclusão de gênero.
Não existe uma solução fácil para fechar a lacuna de gênero na pesquisa de IA. Mudanças em todo o sistema destinadas a criar espaços seguros e inclusivos que apoiem e promovam pesquisadores de grupos sub-representados, uma mudança nas atitudes e culturas na pesquisa e na indústria, e uma melhor comunicação do potencial transformador da IA em muitas áreas pode ter um papel importante.
Intervenções de políticas, como o investimento de £ 13,5 milhões do governo para aumentar a diversidade nas funções de IA por meio de novos cursos de graduação de conversão, irá melhorar a situação, mas intervenções em escala mais ampla são necessárias para criar melhores ligações entre as artes, humanidades e IA, mudando a imagem de quem pode trabalhar em IA.
Embora não haja um único motivo para as meninas pararem de forma desproporcional de estudar disciplinas STEM à medida que progridem na educação, há evidências de que fatores, incluindo estereótipos generalizados em torno do gênero e um ambiente de ensino que impacta mais a confiança das meninas do que dos meninos, contribuem para o problema. Devemos também mostrar os modelos de comportamento que estão usando IA para fazer uma diferença positiva.
Uma intervenção tangível para lidar com esses problemas é o Prêmio Longitude Explorer, que incentiva os alunos do ensino médio a usar IA para resolver desafios sociais e trabalhar com modelos de comportamento em IA. Queremos jovens, particularmente meninas, para perceber o potencial da IA para o bem e seu papel em impulsionar a mudança.
Ao desenvolver habilidades e confiança em mulheres jovens, podemos mudar a proporção de pessoas que estudam e trabalham com IA - e ajudar a lidar com os potenciais preconceitos da IA.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.