Os estereótipos sexistas estão acontecendo no mundo da inteligência artificial. Crédito:yavi / Shutterstock
Sugira ao assistente pessoal virtual da Samsung Bixby "Vamos conversar sujos", e a voz feminina responderá com um sotaque doce:"Não quero acabar na lista de travessuras do Papai Noel."
Faça a mesma pergunta à voz masculina do programa e ele responderá:"Eu li que a erosão do solo é um problema real de sujeira."
Na África do Sul, onde eu moro e conduzo minha pesquisa sobre preconceitos de gênero na inteligência artificial, A Samsung agora oferece Bixby em várias vozes, dependendo do idioma que você escolher. Para o inglês americano, há Julia, Stephanie, Lisa e John. As vozes de Julia, Lisa e Stephanie são coquetes e ansiosas. John é inteligente e direto.
Assistentes pessoais virtuais, como Bixby, Alexa (Amazon), Siri (Apple) e Cortana (Microsoft) - estão na vanguarda da inteligência artificial (IA) comercializável. AI se refere ao uso de sistemas tecnológicos para realizar tarefas que as pessoas normalmente fariam.
Eles funcionam como um aplicativo em um dispositivo inteligente, responder a comandos de voz por meio do processamento de linguagem natural. Sua onipresença em todo o mundo está aumentando rapidamente. Um relatório recente da UNESCO estimou que já no próximo ano teremos mais conversas com nossos assistentes pessoais virtuais do que com nossos cônjuges.
Ainda, como explorei em minha própria pesquisa com a Dra. Nora Ni Loideain do Information Law and Policy Center da Universidade de Londres, essas tecnologias traem preconceitos de gênero críticos.
Com seus nomes femininos, vozes e flertes programados, o design de assistentes pessoais virtuais reproduz estereótipos discriminatórios de secretárias que, de acordo com o estereótipo de gênero, muitas vezes é mais do que apenas uma secretária de seu chefe.
Também reforça o papel das mulheres como secundárias e submissas aos homens. Esses assistentes de IA operam sob o comando de seu usuário. Eles não têm o direito de recusar esses comandos. Eles são programados apenas para obedecer. Discutivelmente, eles também aumentam as expectativas sobre como as mulheres reais devem se comportar.
O objetivo desses assistentes é também libertar seu usuário de trabalhos braçais, como marcar consultas e comprar itens online. Isso é problemático em pelo menos duas frentes:sugere que o usuário tem mais tempo para trabalhos supostamente mais importantes. Em segundo lugar, faz uma declaração crítica sobre o valor do tipo de trabalho de secretariado realizado, primeiro por mulheres reais e agora por mulheres digitalizadas, no futuro digital.
"O que você está vestindo?"
Uma das maneiras mais abertas pelas quais esses preconceitos são evidentes é o uso de nomes femininos:Siri e Cortana, por exemplo. Siri é um nome nórdico que significa "a bela mulher que o conduz à vitória".
Cortana leva seu nome (bem como recursos visuais e voz) da série de jogos Halo. No Halo, Cortana foi criada a partir de um clone do cérebro de uma cientista bem-sucedida, casada com um corpo feminino transparente e altamente sexualizado. Ela funciona como uma ajudante fictícia para jogadores com sua inteligência despretensiosa e forma mesmérica.
Além de suas vozes femininas, todos os assistentes pessoais virtuais no mercado hoje vêm com uma voz feminina padrão, que, como Bixby, está programado para responder a todos os tipos de perguntas e comentários sugestivos. Essas perguntas incluem:"O que você está vestindo?" A resposta de Siri é "Por que eu estaria vestindo alguma coisa?"
Alexa, Enquanto isso, gracejos:"Eles não fazem roupas para mim"; e a Cortana responde, "Apenas uma coisinha que aprendi na engenharia."
Preconceito e discriminação em IA
É cada vez mais reconhecido que os sistemas de IA são muitas vezes tendenciosos, particularmente ao longo das linhas de raça e gênero. Por exemplo, o recente desenvolvimento do algoritmo de recrutamento pela Amazon para classificar currículos para inscrições de empregos exibia preconceitos de gênero ao rebaixar currículos que continham a palavra "mulheres" ou que continham referência a faculdades femininas. Como o algoritmo foi treinado em dados históricos e recrutamento preferencial de homens, em última análise, não pôde ser consertado e teve de ser eliminado.
Como a pesquisa mostrou, há uma ligação crítica entre o desenvolvimento de sistemas de IA que exibem preconceitos de gênero e a falta de mulheres nas equipes que os projetam.
Mas há menos reconhecimento das maneiras pelas quais os produtos de IA incorporam representações estereotipadas de gênero em seu próprio design. Para AI Now, uma instituição de pesquisa líder que analisa o impacto social da IA, há uma conexão clara entre a indústria de IA dominada por homens e os sistemas e produtos discriminatórios que ela produz.
O papel dos pesquisadores é tornar visíveis essas conexões e mostrar os vínculos críticos entre as representações das mulheres, seja em produtos culturais ou tecnológicos, e o tratamento das mulheres no mundo real.
AI é a tecnologia líder na chamada Quarta Revolução Industrial. Refere-se aos avanços tecnológicos - da biotecnologia, para IA e big data - que estão remodelando rapidamente o mundo como o conhecemos. Enquanto a África do Sul continua a se envolver com as promessas e armadilhas do que isso representa, será cada vez mais importante considerar e abordar como as tecnologias que impulsionam essas mudanças podem afetar as mulheres.
Este artigo foi republicado de The Conversation sob uma licença Creative Commons. Leia o artigo original.