Aprender como as pessoas interagem com a IA é um passo importante na integração das máquinas na sociedade de maneiras benéficas. Crédito:Pixabay
Aprender como as pessoas interagem com máquinas habilitadas para inteligência artificial - e usar esse conhecimento para melhorar a confiança das pessoas na IA - pode nos ajudar a viver em harmonia com o número cada vez maior de robôs, chatbots e outras máquinas inteligentes em nosso meio, de acordo com um pesquisador da Penn State.
Em um artigo publicado na edição atual do Journal of Computer-Mediated Communication, S. Shyam Sundar, James P. Jimirro Professor de Efeitos de Mídia na Faculdade de Comunicações Donald P. Bellisario e codiretor do Laboratório de Pesquisa de Efeitos de Mídia, propôs um caminho, ou estrutura, para estudar IA, que pode ajudar os pesquisadores a investigar melhor como as pessoas interagem com a inteligência artificial, ou Interação Human-AI (HAII).
"Esta é uma tentativa de examinar sistematicamente todas as maneiras pelas quais a inteligência artificial pode influenciar psicologicamente os usuários, especialmente em termos de confiança, "disse Sundar, que também é afiliado do Instituto de Ciências Computacionais e de Dados da Penn State (ICDS). "Esperançosamente, o modelo teórico avançado neste artigo fornecerá aos pesquisadores uma estrutura, bem como um vocabulário, para estudar os efeitos psicológicos sociais da IA. "
A estrutura identifica dois caminhos - dicas e ações - nos quais os desenvolvedores de IA podem se concentrar para ganhar confiança e melhorar a experiência do usuário, disse Sundar. Pistas são sinais que podem desencadear uma série de respostas mentais e emocionais das pessoas.
"A rota de sinalização é baseada em indicadores superficiais de como a IA se parece ou o que aparentemente faz, " ele explicou.
Sundar acrescentou que há várias pistas que afetam a confiança dos usuários na IA. As dicas podem ser tão óbvias quanto o uso de recursos semelhantes aos humanos, como um rosto humano que alguns robôs têm, ou uma voz humana que assistentes virtuais como Siri e Alexa usam.
Outras dicas podem ser mais sutis, como uma declaração na interface explicando como o dispositivo funciona, como em quando a Netflix explica por que está recomendando um determinado filme aos espectadores.
Mas, cada uma dessas pistas pode desencadear atalhos mentais ou heurísticas distintas, de acordo com Sundar.
"Quando uma IA é identificada para o usuário como uma máquina em vez de um humano, como costuma acontecer nos chatbots modernos, ele aciona a 'heurística da máquina, "ou um atalho mental que nos leva a aplicar automaticamente todos os estereótipos que temos sobre as máquinas, "disse Sundar." Podemos pensar que as máquinas são precisas e precisas, mas também podemos pensar em computadores e máquinas como frios e inflexíveis. "Esses estereótipos, por sua vez, ditam o quanto confiamos no sistema de IA.
Sundar sugeriu que os sistemas de piloto automático em aviões são um exemplo de como o excesso de confiança na IA pode levar a repercussões negativas. Os pilotos podem confiar tão implicitamente no sistema de piloto automático que relaxam a guarda e não estão preparados para mudanças repentinas no desempenho do avião ou mau funcionamento que exigiriam sua intervenção. Ele cita esse tipo de 'viés de automação' como uma indicação de nossa profunda confiança no desempenho da máquina.
Por outro lado, A IA também pode desencadear tendências negativas para algumas pessoas.
"O oposto do viés de automação seria a aversão ao algoritmo, "disse Sundar." Há pessoas que só têm aversão porque, talvez no passado, eles foram queimados por um algoritmo e agora desconfiam profundamente da IA. Eles provavelmente foram enganados por "deepfakes", que são vídeos fabricados com tecnologia de IA, ou eles receberam a recomendação de produto errada de um site de comércio eletrônico, ou sentiu que sua privacidade foi invadida por IA bisbilhotando suas pesquisas e compras anteriores. "
Sundar aconselhou os desenvolvedores a prestar atenção especial às dicas que podem oferecer aos usuários.
"Se você fornecer dicas claras na interface, você pode ajudar a definir como os usuários respondem, mas se você não fornecer boas dicas, você permitirá que a experiência anterior do usuário e as teorias populares, ou noções ingênuas, sobre algoritmos para assumir, "Disse Sundar.
Além de fornecer dicas, a capacidade da IA de interagir com as pessoas também pode moldar a experiência do usuário, de acordo com Sundar. Ele chama isso de "rota de ação".
"A rota de ação é realmente sobre colaboração, "disse Sundar." AIs devem realmente se envolver e trabalhar conosco. A maioria das novas ferramentas de IA - os alto-falantes inteligentes, robôs e bots de bate-papo - são altamente interativos. Nesse caso, não são apenas pistas visíveis sobre sua aparência e o que dizem, mas sobre como eles interagem com você. "
Tanto em ações quanto em pistas, Sundar sugere que os desenvolvedores mantenham o equilíbrio correto. Por exemplo, uma sugestão que não informa de forma transparente ao usuário que a IA está trabalhando no dispositivo pode desencadear dicas negativas, mas se a sugestão fornecer muitos detalhes, as pessoas podem tentar corromper - ou "manipular" a interação com a IA. "Conseguir a quantidade certa de transparência na interface é, portanto, muito importante, " ele disse.
"Se o seu alto-falante inteligente lhe fizer muitas perguntas, ou interage muito com você, isso pode ser um problema, também, "disse Sundar." As pessoas querem colaboração. Mas eles também querem minimizar seus custos. Se a IA está constantemente fazendo perguntas a você, então todo o ponto da IA, a saber, conveniência, se foi."
Sundar disse que espera que a estrutura de sugestões e ações guie os pesquisadores enquanto eles testam esses dois caminhos para a confiança em IA. Isso irá gerar evidências para informar como os desenvolvedores e designers criam ferramentas e tecnologias baseadas em IA para as pessoas.
A tecnologia de IA está evoluindo tão rápido que muitos críticos estão pressionando para proibir completamente certos aplicativos. Sundar disse que dar aos pesquisadores tempo para investigar profundamente e entender como os humanos interagem com a tecnologia é um passo necessário para ajudar a sociedade a aproveitar os benefícios dos dispositivos, enquanto minimiza as possíveis implicações negativas.
"Cometeremos erros, "disse Sundar." Da imprensa à Internet, novas tecnologias de mídia levaram a consequências negativas, mas também trouxeram muitos outros benefícios. Não há dúvida de que certas manifestações de IA nos frustrarão, mas em algum ponto, teremos que coexistir com a IA e trazê-los para nossas vidas. "