Como as máquinas inteligentes devem ser projetadas de modo a “ganhar” a confiança dos humanos? Novos modelos estão informando esses projetos. Crédito:Purdue University photo / Marshall Farthing
Novos "modelos de classificação" percebem o quão bem os humanos confiam nas máquinas inteligentes com as quais colaboram, um passo para melhorar a qualidade das interações e do trabalho em equipe.
O objetivo de longo prazo do campo geral de pesquisa é projetar máquinas inteligentes capazes de mudar seu comportamento para aumentar a confiança humana nelas. Os novos modelos foram desenvolvidos em pesquisas conduzidas pela professora assistente Neera Jain e pela professora associada Tahira Reid, na Escola de Engenharia Mecânica da Purdue University.
"Máquinas inteligentes, e mais amplamente, sistemas inteligentes estão se tornando cada vez mais comuns na vida cotidiana dos humanos, "Jain disse." Como os humanos são cada vez mais solicitados a interagir com sistemas inteligentes, a confiança se torna um fator importante para as interações sinérgicas. "
Por exemplo, pilotos de aeronaves e trabalhadores industriais interagem rotineiramente com sistemas automatizados. Os humanos às vezes irão ignorar essas máquinas inteligentes desnecessariamente se acharem que o sistema está vacilando.
"Está bem estabelecido que a confiança humana é fundamental para interações bem-sucedidas entre humanos e máquinas, "Reid disse.
Os pesquisadores desenvolveram dois tipos de "modelos de sensores de confiança empíricos baseados em classificadores, "um passo para melhorar a confiança entre humanos e máquinas inteligentes.
O trabalho está alinhado com a celebração dos Saltos Gigantes de Purdue, reconhecendo os avanços globais da universidade feitos em IA, algoritmos e automação como parte do 150º aniversário de Purdue. Este é um dos quatro temas do Festival de Idéias da celebração anual, projetado para mostrar Purdue como um centro intelectual que resolve problemas do mundo real.
Os modelos usam duas técnicas que fornecem dados para avaliar a confiança:eletroencefalografia e resposta galvânica da pele. O primeiro registra padrões de ondas cerebrais, e o segundo monitora mudanças nas características elétricas da pele, fornecer "conjuntos de recursos" psicofisiológicos correlacionados com a confiança.
Quarenta e cinco sujeitos humanos usaram fones de ouvido de EEG sem fio e usaram um dispositivo em uma mão para medir a resposta galvânica da pele.
Um dos novos modelos, um "modelo de sensor de confiança geral, "usa o mesmo conjunto de recursos psicofisiológicos para todos os 45 participantes. O outro modelo é personalizado para cada sujeito humano, resultando em melhor precisão média, mas à custa de um aumento no tempo de treinamento. Os dois modelos tiveram uma precisão média de 71,22 por cento, e 78,55 por cento, respectivamente.
É a primeira vez que as medições de EEG são usadas para medir a confiança em tempo real, ou sem demora.
"Estamos usando esses dados de uma maneira muito nova, "Jain disse." Estamos olhando para isso em uma espécie de fluxo contínuo, em vez de olhar para as ondas cerebrais após um gatilho ou evento específico. "
As descobertas são detalhadas em um artigo de pesquisa publicado em uma edição especial da Association for Computing Machinery's Transactions on Interactive Intelligent Systems. A edição especial da revista é intitulada "Confiança e influência na interação homem-máquina inteligente". O artigo foi escrito pelo estudante de graduação em engenharia mecânica Kumar Akash; ex-aluno de pós-graduação Wan-Lin Hu, que agora é um associado de pesquisa de pós-doutorado na Universidade de Stanford; Jain e Reid.
"Estamos interessados em usar princípios de controle de feedback para projetar máquinas que sejam capazes de responder às mudanças no nível de confiança humana em tempo real para construir e gerenciar a confiança na relação homem-máquina, "Jain disse." Para fazer isso, exigimos um sensor para estimar o nível de confiança humana, novamente em tempo real. Os resultados apresentados neste artigo mostram que medidas psicofisiológicas podem ser usadas para fazer isso. "
A questão da confiança humana nas máquinas é importante para a operação eficiente de "coletivos de agentes humanos".
"O futuro será construído em torno de coletivos de agentes humanos que exigirão coordenação e colaboração eficientes e bem-sucedidas entre humanos e máquinas, "Jain disse." Digamos que haja um enxame de robôs ajudando uma equipe de resgate durante um desastre natural. Em nosso trabalho, lidamos com apenas um ser humano e uma máquina, mas, em última análise, esperamos expandir para equipes de humanos e máquinas. "
Algoritmos foram introduzidos para automatizar vários processos.
"Mas ainda temos humanos lá que monitoram o que está acontecendo, "Jain disse." Geralmente há um recurso de substituição, onde se eles pensarem que algo não está certo, eles podem retomar o controle. "
Às vezes, essa ação não é justificada.
"Você tem situações em que os humanos podem não entender o que está acontecendo, então eles não confiam no sistema para fazer a coisa certa, "Reid disse." Então eles retomam o controle mesmo quando realmente não deveriam.
Em alguns casos, por exemplo, no caso de pilotos substituindo o piloto automático, retomar o controle pode realmente impedir a operação segura da aeronave, causando acidentes.
"Um primeiro passo para projetar máquinas inteligentes que são capazes de construir e manter a confiança dos humanos é o projeto de um sensor que permitirá às máquinas estimar o nível de confiança humana em tempo real, "Jain disse.
Para validar seu método, 581 participantes online foram solicitados a operar uma simulação de direção em que um computador identificou obstáculos na estrada. Em alguns cenários, o computador identificou corretamente os obstáculos 100 por cento do tempo, enquanto em outros cenários o computador identificou incorretamente os obstáculos 50 por cento do tempo.
"Então, em alguns casos, isso diria que há um obstáculo, então você pisa no freio e evita um acidente, mas, em outros casos, diria incorretamente que existe um obstáculo quando não havia nenhum, então você bate no freio sem motivo, "Reid disse.
O teste permitiu aos pesquisadores identificar características psicofisiológicas que estão correlacionadas à confiança humana em sistemas inteligentes, e construir um modelo de sensor de confiança de acordo. "Colocamos a hipótese de que o nível de confiança seria alto em ensaios confiáveis e baixo em ensaios com falha, e validamos essa hipótese usando respostas coletadas de 581 participantes online, " ela disse.
Os resultados validaram que o método efetivamente induziu confiança e desconfiança na máquina inteligente.
“Para estimar a confiança em tempo real, exigimos a capacidade de extrair e avaliar continuamente as principais medidas psicofisiológicas, "Jain disse." Este trabalho representa o primeiro uso de medições psicofisiológicas em tempo real para o desenvolvimento de um sensor de confiança humano. "
O fone de ouvido EEG registra sinais em nove canais, cada canal capta diferentes partes do cérebro.
"As ondas cerebrais de cada pessoa são diferentes, então você precisa ter certeza de que está construindo um classificador que funcione para todos os humanos. "
Para sistemas autônomos, a confiança humana pode ser classificada em três categorias:disposicional, situacional, e aprendeu.
A confiança disposicional se refere ao componente de confiança que depende de dados demográficos, como gênero e cultura, que carregam potenciais vieses.
"Sabemos que provavelmente há diferenças de nuances que devem ser levadas em consideração, "Reid disse." As mulheres confiam de maneira diferente dos homens, por exemplo, e a confiança também pode ser afetada por diferenças de idade e nacionalidade. "
A confiança situacional pode ser afetada pelo nível de risco ou dificuldade de uma tarefa, enquanto aprendido é baseado na experiência anterior do ser humano com sistemas autônomos.
Os modelos que desenvolveram são chamados de algoritmos de classificação.
"A ideia é ser capaz de usar esses modelos para classificar quando alguém provavelmente está se sentindo confiante ou desconfiado, " ela disse.
Jain e Reid também investigaram a confiança disposicional para explicar as diferenças culturais e de gênero, bem como modelos dinâmicos capazes de prever como a confiança mudará no futuro com base nos dados.