Como a diversidade de sujeitos de teste é um ponto cego da tecnologia e o que fazer sobre isso
Sem uma gama diversificada de sujeitos de teste, algumas novas tecnologias podem deixar de funcionar como pretendido para muitas pessoas. Crédito:John Paul Van Wert/Rank Studios/Flickr, CC BY-SA
As pessoas interagem com as máquinas de inúmeras maneiras todos os dias. Em alguns casos, eles controlam ativamente um dispositivo, como dirigir um carro ou usar um aplicativo em um smartphone. Às vezes, as pessoas interagem passivamente com um dispositivo, como se fossem fotografadas por uma máquina de ressonância magnética. E às vezes eles interagem com máquinas sem consentimento ou mesmo sabendo da interação, como serem escaneados por um sistema de reconhecimento facial de aplicação da lei.
A interação homem-máquina (IHM) é um termo abrangente que descreve as maneiras como as pessoas interagem com as máquinas. A HMI é um aspecto chave para pesquisar, projetar e construir novas tecnologias, e também estudar como as pessoas usam e são afetadas pelas tecnologias.
Pesquisadores, especialmente aqueles tradicionalmente treinados em engenharia, estão cada vez mais adotando uma abordagem centrada no ser humano ao desenvolver sistemas e dispositivos. Isso significa esforçar-se para fazer uma tecnologia que funcione conforme o esperado para as pessoas que a usarão, levando em consideração o que se sabe sobre as pessoas e testando a tecnologia com elas. Mas mesmo que os pesquisadores de engenharia priorizem cada vez mais essas considerações, alguns no campo têm um ponto cego:a diversidade.
Como pesquisador interdisciplinar que pensa de forma holística sobre engenharia e design e especialista em dinâmica e materiais inteligentes com interesse em política, examinamos a falta de inclusão no design de tecnologia, as consequências negativas e as possíveis soluções.
Pessoas à mão Pesquisadores e desenvolvedores normalmente seguem um processo de design que envolve testar funções e recursos-chave antes de lançar produtos ao público. Feitos corretamente, esses testes podem ser um componente-chave do design compassivo. Os testes podem incluir entrevistas e experimentos com grupos de pessoas que representam o público.
Em ambientes acadêmicos, por exemplo, a maioria dos participantes do estudo são estudantes. Alguns pesquisadores tentam recrutar participantes fora do campus, mas essas comunidades geralmente são semelhantes à população universitária. Cafeterias e outras empresas locais, por exemplo, podem permitir que panfletos sejam afixados em seus estabelecimentos. No entanto, a clientela destes estabelecimentos é muitas vezes estudantes, docentes e docentes.
Em muitos setores, os colegas de trabalho servem como participantes do teste para o trabalho em estágio inicial porque é conveniente recrutar dentro de uma empresa. É preciso esforço para trazer participantes de fora e, quando usados, geralmente refletem a maioria da população. Portanto, muitas das pessoas que participam desses estudos têm características demográficas semelhantes.
Tahira Reid discute design compassivo na engenharia. Dano no mundo real É possível usar uma amostra homogênea de pessoas na publicação de um trabalho de pesquisa que adiciona ao corpo de conhecimento de um campo. E alguns pesquisadores que realizam estudos dessa maneira reconhecem as limitações das populações de estudo homogêneas. No entanto, quando se trata de desenvolver sistemas que dependem de algoritmos, tais descuidos podem causar problemas no mundo real. Os algoritmos são tão bons quanto os dados usados para construí-los.
Os algoritmos geralmente são baseados em modelos matemáticos que capturam padrões e informam um computador sobre esses padrões para executar uma determinada tarefa. Imagine um algoritmo projetado para detectar quando as cores aparecem em uma superfície clara. Se o conjunto de imagens usado para treinar esse algoritmo consiste principalmente em tons de vermelho, o algoritmo pode não detectar quando um tom de azul ou amarelo está presente.
Na prática, os algoritmos falharam em detectar tons de pele mais escuros para o programa de cuidados com a pele do Google e em dispensadores automáticos de sabonete; identificar com precisão um suspeito, o que levou à prisão injusta de um homem inocente em Detroit; e identificar de forma confiável as mulheres de cor. A pesquisadora de inteligência artificial do MIT, Joy Buolamwini, descreve isso como viés algorítmico e discutiu e publicou extensivamente trabalhos sobre essas questões.
Mesmo enquanto os EUA lutam contra o COVID-19, a falta de diversos dados de treinamento tornou-se evidente em dispositivos médicos. Os oxímetros de pulso, que são essenciais para acompanhar sua saúde em casa e indicar quando você pode precisar de hospitalização, podem ser menos precisos para pessoas com pele melanada. Essas falhas de design, como as dos algoritmos, não são inerentes ao dispositivo, mas podem ser rastreadas até a tecnologia que está sendo projetada e testada usando populações que não eram diversas o suficiente para representar todos os usuários em potencial.
Ser inclusivo Pesquisadores na academia estão frequentemente sob pressão para publicar os resultados da pesquisa o mais rápido possível. Portanto, a confiança em amostras de conveniência – ou seja, pessoas fáceis de alcançar e obter dados – é muito comum.
Muitos problemas, como este dispensador automático de sabão funcionando para uma mão branca, mas não para uma mão negra, poderiam ser evitados com testes mais inclusivos. Embora existam conselhos de revisão institucional para garantir que os direitos dos participantes do estudo sejam protegidos e que os pesquisadores sigam a ética adequada em seu trabalho, eles não têm a responsabilidade de ditar aos pesquisadores quem devem recrutar. Quando os pesquisadores são pressionados pelo tempo, considerar diferentes populações para os sujeitos do estudo pode significar um atraso adicional. Finalmente, alguns pesquisadores podem simplesmente não saber como diversificar adequadamente os sujeitos de seu estudo.
Existem várias maneiras pelas quais os pesquisadores da academia e da indústria podem aumentar a diversidade de seus grupos de participantes do estudo.
Uma delas é arranjar tempo para fazer o trabalho inconveniente e às vezes árduo de desenvolver estratégias de recrutamento inclusivas. Isso pode exigir pensamento criativo. Um desses métodos é recrutar diversos alunos que possam servir como embaixadores para diversas comunidades. Os alunos podem ganhar experiência em pesquisa e, ao mesmo tempo, servir de ponte entre suas comunidades e pesquisadores.
Outra é permitir que membros da comunidade participem da pesquisa e forneçam consentimento para tecnologias novas e desconhecidas sempre que possível. Por exemplo, as equipes de pesquisa podem formar um conselho consultivo composto por membros de várias comunidades. Alguns campos frequentemente incluem um conselho consultivo como parte de seus planos de pesquisa financiados pelo governo.
Outra abordagem é incluir pessoas que sabem como pensar as implicações culturais das tecnologias como membros da equipe de pesquisa. Por exemplo, o uso de um cão robótico pelo Departamento de Polícia de Nova York no Brooklyn, Queens e Bronx provocou indignação entre os moradores. Isso poderia ter sido evitado se eles tivessem se envolvido com especialistas em ciências sociais ou estudos de ciência e tecnologia, ou simplesmente consultado líderes comunitários.
Por fim, a diversidade não é apenas sobre raça, mas também idade, identidade de gênero, origens culturais, níveis educacionais, deficiência, proficiência em inglês e até níveis socioeconômicos. A Lyft está em uma missão para implantar robotaxis no próximo ano, e os especialistas estão entusiasmados com as perspectivas de usar robotaxis para transportar idosos e deficientes. Não está claro se essas aspirações incluem aqueles que vivem em comunidades menos abastadas ou de baixa renda, ou não têm o apoio familiar que poderia ajudar a preparar as pessoas para usar o serviço. Antes de despachar um robotaxi para transportar avós, é importante levar em conta como uma gama diversificada de pessoas experimentará a tecnologia.