Crédito CC0:domínio público
A vida diária durante uma pandemia significa distanciamento social e encontrar novas maneiras de se conectar remotamente com amigos, família e colegas de trabalho. E à medida que nos comunicamos online e por texto, a inteligência artificial pode desempenhar um papel em manter nossas conversas nos trilhos, de acordo com a nova pesquisa da Cornell University.
Humanos tendo conversas difíceis disseram que confiam em sistemas artificialmente inteligentes - as sugestões de resposta "inteligentes" em textos - mais do que nas pessoas com quem estão falando, de acordo com um novo estudo, "IA como zona de deformação moral:os efeitos da comunicação de IA mediada na atribuição e confiança, "publicado online no jornal Computadores no comportamento humano .
"Descobrimos que, quando as coisas dão errado, as pessoas assumem a responsabilidade que de outra forma teria sido designada a seu parceiro humano e designam parte disso ao sistema de inteligência artificial, "disse Jess Hohenstein, doutoranda na área de ciência da informação e primeira autora do artigo. "Isso apresenta um potencial para pegar IA e usá-la como mediador em nossas conversas."
Por exemplo, o algoritmo pode perceber que as coisas estão piorando ao analisar a linguagem usada, e então sugerir estratégias de resolução de conflitos, Hohenstein disse.
O estudo foi uma tentativa de explorar as inúmeras maneiras - sutis e significativas - que os sistemas de IA, como as respostas inteligentes, estão alterando a forma como os humanos interagem. Escolher uma resposta sugerida que não é exatamente o que você pretendia dizer, mas economiza um pouco de digitação, pode estar alterando fundamentalmente o curso de suas conversas - e seus relacionamentos, disseram os pesquisadores.
"A comunicação é tão fundamental para a forma como formamos percepções uns dos outros, como formamos e mantemos relacionamentos, ou como podemos realizar qualquer coisa trabalhando juntos, "disse o co-autor Malte Jung, professor assistente de ciência da informação e diretor do laboratório Robots in Groups, que explora como os robôs alteram a dinâmica do grupo.
"Este estudo se enquadra na agenda mais ampla de entender como esses novos sistemas de IA interferem em nossa capacidade de interagir, "Jung disse." Muitas vezes pensamos sobre como o design dos sistemas afeta a forma como interagimos com eles, mas poucos estudos enfocam a questão de como as tecnologias que desenvolvemos afetam o modo como as pessoas interagem umas com as outras. "
Além de esclarecer como as pessoas percebem e interagem com os computadores, o estudo oferece possibilidades para melhorar a comunicação humana - com orientações sutis e lembretes da IA.
Hohenstein e Jung disseram que procuraram explorar se a IA poderia funcionar como uma "zona de deformação moral" - o equivalente tecnológico da zona de deformação de um carro, projetado para deformar a fim de absorver o impacto da colisão.
"Há um mecanismo físico na frente do carro que é projetado para absorver a força do impacto e se responsabilizar por minimizar os efeitos da colisão, "Hohenstein disse." Aqui vemos o sistema de IA absorver parte da responsabilidade moral.