Crédito:Pixabay/CC0 Public Domain
Quando encontramos um rosto desconhecido, tendemos a fazer julgamentos precipitados. A pessoa parece inteligente, atraente ou jovem? Eles são confiáveis ou corruptos? Neurocientistas e psicólogos estudam como nossos cérebros formam esses vieses faciais e como os julgamentos influenciam a maneira como as pessoas se comportam.
"Nós tendemos a ser bastante confiantes nos julgamentos que fazemos com base nos rostos das pessoas, mas muitas vezes estamos errados", diz Ralph Adolphs (Ph.D. '93), Professor Bren de Psicologia, Neurociência e Biologia e um corpo docente afiliado membro do Instituto de Neurociências Tianqiao e Chrissy Chen.
Estudos anteriores vincularam esses estereótipos e julgamentos às decisões que as pessoas tomam em vários aspectos da sociedade, incluindo eleições, práticas de contratação e sentenças judiciais por júris. Por exemplo, um estudo do Caltech de Adolphs e Mike Alvarez, professor de ciência política, mostrou que as pessoas julgavam os políticos mais corruptos se tivessem rostos mais largos e que, neste caso, esses julgamentos coincidiam com se os políticos haviam sido condenados por corrupção na vida real.
"Decisões sociais muito importantes são influenciadas pelos julgamentos rápidos que fazemos sobre as pessoas a partir de seus rostos", diz Adolphs. "Ao apontar esses vieses, esperamos poder reduzir seu impacto."
Em um estudo recente na revista
Nature Communications , Adolphs e sua equipe, liderada pelo ex-aluno de pós-graduação da Caltech Chujun Lin, agora pós-doutorando no Dartmouth College, analisaram como os preconceitos faciais podem ser divididos em julgamentos primários. Da mesma forma que as cores multifacetadas de uma pintura podem ser derivadas das cores primárias de vermelho, amarelo e azul, nossos cérebros misturam julgamentos primários para criar uma série de percepções sobre tudo, desde quão gentil uma pessoa é até seus níveis de agressão.
Os resultados mostraram que os participantes do estudo, que incluíam pessoas de sete regiões diferentes ao redor do mundo, fizeram automaticamente quatro julgamentos primários ao encontrar um novo rosto (independentemente de os julgamentos serem precisos ou não):eles avaliaram se uma pessoa é quente ou fria , competente ou incompetente, feminino ou masculino, jovem ou velho. Todos os outros julgamentos que as pessoas podem fazer podem ser derivados de uma mistura desses quatro julgamentos primários.
"Esses quatro julgamentos primários fundamentam os preconceitos que temos ao formar uma ampla gama de impressões de outras pessoas com base em rostos, que podem ser direcionados de forma eficiente para intervenções anti-viés", explica Lin.
Desafios para estudar o viés Adolphs observa que há limites para este estudo em particular e muitos outros semelhantes. Aqui, os pesquisadores usaram bancos de dados existentes, que são em grande parte compostos de rostos brancos com expressões neutras.
"A maioria dos bancos de dados para esses tipos de estudos foram construídos anos atrás, e até décadas atrás", diz Adolphs. "Normalmente, há fotos de pessoas prontamente disponíveis para os investigadores, mas as fotos certamente não representam a população mundial".
Para sua análise inicial, Adolphs e sua equipe optaram por limitar os estímulos a rostos brancos com expressões neutras porque isso lhes permitia excluir outros fatores, como contexto e raça. A equipe está trabalhando em um projeto de acompanhamento que traz rostos mais diversos, incluindo rostos de diferentes raças que exibem uma gama mais ampla de expressões.
"Representar a diversidade de uma população mundial em geral é um grande desafio em nosso campo", diz Adolphs.
Um estudo seminal da Universidade da Colúmbia Britânica sobre o assunto, diz Adolphs, introduziu um termo conhecido como WEIRD, para sociedades ocidentais, educadas, industrializadas, ricas e democráticas. WEIRD refere-se a populações de pessoas tipicamente estudadas em psicologia e ciências sociais. Como o artigo aponta, "esta fatia particularmente fina e bastante incomum da humanidade" é uma das "populações menos representativas que se pode encontrar para generalizar sobre humanos".
"Para muitos dos nossos estudos, não recrutamos alunos por esse motivo", diz Adolphs. "Eles são convenientes, mas é claro que não são uma subseção demográfica representativa da população mundial. Muitas vezes, tentamos recrutar pessoas da comunidade que são mais diversificadas."
O futuro:preconceito na IA Em outro estudo recente do grupo de Adolphs, liderado pelo pós-doutorando da Caltech Umit Keles e publicado na revista
Affective Science , os pesquisadores analisaram a questão de saber se os métodos de inteligência artificial (IA) podem ser treinados para prever como os indivíduos reagirão aos rostos das pessoas. Eles descobriram que métodos baseados em máquinas podem fazer previsões surpreendentemente precisas, mas às vezes dão respostas erradas.
"A round face might look baby faced and kind, but also corrupt, depending on the details. Because the features in faces are so closely related to one another, you can get many kinds of misjudgments from these algorithms," says Keles. "There is a worrisome potential for misuse of these AI methods."
This past summer, a Summer Undergraduate Research Fellowship (SURF) student in Adolphs' lab, Leena Mathur, worked on a project that examined how AI models might be trained to perceive human emotions across cultures. She used videos of people talking to each other from a database created by researchers at Imperial College London. The database includes people from six cultures:British, Chinese, German, Greek, Hungarian, and Serbian. The preliminary findings suggest AI models can be trained on videos of people communicating in one cultural context and subsequently adapted to detect emotions from videos of people communicating in other cultural contexts.
"There is a field-wide effort to collect more diverse data for AI research," she says. "The goal is to ultimately develop AI systems that are inclusive and can support people across race, age, gender, culture, and every other dimension of human diversity."
Mathur, a student at USC, hopes her research will eventually contribute to AI systems that support human health and societal well-being across cultures.
"There is potential for misuse of these technologies, so it is important to research how robots and AI systems can be effectively adapted across cultural contexts for assistive applications," she says.
Adolphs says his team's lab meetings always include discussions on diversity and racism (the lab has a Diversity, Equity, and Inclusion representative, postdoc Nina Rouhani).
"It's a topic we continue to be very concerned about. We talk about all of these issues and ask ourselves, "What else can we do?" We are continuing to emphasize issues of race and representativeness in our science."