Crédito CC0:domínio público
A professora de psicologia Michelle Drouin queria saber como as pessoas reagiriam se um chatbot pudesse emular um humano.
Assim, ela e seus colegas pesquisadores dividiram 350 alunos de graduação em três grupos. Um grupo foi informado de que interagiria com um bot. Outro foi informado de que era uma pessoa real. E o último só foi informado após a interação que estava se comunicando com um algoritmo.
Os primeiros dois grupos ficaram quase igualmente felizes com a experiência. Mas o último grupo não foi.
"Eles sentiram uma sensação estranha sobre isso, "disse Drouin da Purdue University Fort Wayne." Eles pensaram que estavam sendo enganados. "
É uma reação à qual as empresas do Vale do Silício podem querer prestar atenção à medida que continuam a ultrapassar os limites da inteligência artificial para criar assistentes virtuais cada vez mais realistas.
Na terça-feira, O Google revelou um assistente que é capaz de fazer chamadas para agendar compromissos enquanto fala em uma voz humana quase perfeita, repleta de "ums" e "ahs". Em nenhum momento da apresentação o software do Google revelou que não era humano - gerando um debate sobre ética e consentimento.
Na quinta feira, O Google reverteu o curso dizendo explicitamente que o serviço, conhecido como Google Duplex, incluiria a divulgação de que não é uma pessoa.
"Entendemos e valorizamos a discussão em torno do Google Duplex - como dissemos desde o início, transparência na tecnologia é importante, ", disse um porta-voz da empresa." Estamos projetando esse recurso com divulgação embutida, e vamos garantir que o sistema seja devidamente identificado. "
A preocupação de que as pessoas sejam enganadas pelo novo recurso do Google ressalta a urgência da sociedade em determinar que tipo de relacionamento deseja com seus recursos artificiais, à medida que as empresas de tecnologia se aproximam de atravessar o chamado vale misterioso. Esse é um termo usado para descrever o abismo entre um robô ou software que tem imperfeições suficientes para aumentar o ceticismo e outro que é indistinguível de um humano.
Exigiremos saber quando estamos falando com um bot? Ou vamos aceitar que acabaremos conversando involuntariamente com algoritmos? Vamos conceder-lhes a mesma bondade e empatia que exigimos uns dos outros? Ou os vemos apenas como ferramentas, indigno dos valores que unem a sociedade civil? Estas são questões éticas, desenvolvedores e designers estão intrigando. A forma como respondemos pode ter implicações de longo alcance na forma como os humanos tratam uns aos outros.
"Isso vai nos mudar, "disse Pamela Pavliscak, professor do Pratt Institute e fundador da Change Sciences, uma empresa de consultoria especializada na conexão emocional que as pessoas têm com a tecnologia. "Nós projetamos tecnologia e tecnologia, por sua vez, nos projeta. Seria muito ingênuo pensar que continuaremos os mesmos. "
Usando um par de ligações gravadas, O presidente-executivo do Google, Sundar Pichai, demonstrou esta semana aos participantes da conferência de desenvolvedores da empresa como seu assistente virtual poderia ligar e marcar uma consulta de cabelo e tentar reservar uma mesa em um restaurante.
"Mm-hmm, "a assistente ersatz diz em uma voz feminina natural quando solicitada a esperar um momento pela funcionária do salão.
O assistente então negocia horários alternativos para a consulta, jogando um "um" para uma boa medida. Não há indicação de que o trabalhador do salão tenha alguma ideia de que a voz do outro lado é gerada por computador.
O mesmo vale para um funcionário de restaurante falando com um assistente virtual masculino, que usa coloquialismos como "Oh, Eu peguei "para expressar compreensão.
A disposição do Google de divulgar que o Duplex não é uma pessoa real pode pressionar outras empresas a fazer o mesmo. Mas os americanos - que já estão acostumados com chamadas automáticas e menus de chamadas automatizadas - podem algum dia se perguntar se a voz do outro lado da linha é real.
Pichai disse que o serviço pode ser uma vantagem para as empresas, eliminando mais uma barreira para os clientes, que podem não ter tempo para fazer essas chamadas. Tudo se encaixa perfeitamente no novo slogan da empresa, "Faça o Google fazer isso, "que incentiva os consumidores a aproveitarem o assistente de seus telefones, alto-falantes inteligentes, carros, TVs e laptops.
Para que ninguém esqueça, quanto mais tarefas servis as pessoas terceirizam para o Google, mais a empresa conhece seus hábitos. Isso serve a dois propósitos:permite que o Google forneça aos consumidores melhores resultados de pesquisa, e permite que os anunciantes segmentem públicos com mais precisão. E ao fazer um assistente virtual parecer real, os usuários baixam suas guardas, dando ao Google dados ainda mais valiosos.
Isso por si só perturba os defensores da privacidade. Será que um assistente de som autêntico fará com que os usuários revelem seus detalhes mais privados para uma empresa que acumulou US $ 95 bilhões em receitas de publicidade no ano passado? E se o assistente estiver chamando um médico? O Google agora sabe sobre o histórico de saúde de alguém?
É algo que o Google precisará abordar devido às crescentes preocupações de hoje sobre a privacidade após o escândalo Cambridge Analytica do Facebook. Mas os eticistas dizem que as maiores preocupações são as consequências não intencionais de um mundo cada vez mais inundado com bots e serviços automatizados no lugar da interação humana genuína.
"Isso pode ir para o lado porque a comunicação e os relacionamentos humanos são baseados na reciprocidade, "disse David Ryan Polgar, um especialista em ética em tecnologia. "E se eu estiver gastando tempo pensando em alguém e escrevendo para ela, mas a outra pessoa não? Eles não estão fazendo o mesmo esforço, mas ainda querem o benefício de um relacionamento mais profundo."
Como resultado, ele disse, a comunicação torna-se barateada.
"Torna-se transacional, apenas sobre as palavras e não o significado, "disse Polgar, que pensa que o Google e outros desenvolvedores de IA têm a responsabilidade ética de divulgar que seus assistentes não são humanos.
Dennis Mortensen, executivo-chefe e fundador da empresa de assistente virtual AI x.ai, disse temer que as pessoas acabem concluindo que é uma perda de tempo ser gentis uns com os outros se uma quantidade cada vez maior de interação for automatizada. Mas ele tem esperança de que isso não aconteça.
"Você pode criar um bom comportamento, " said Mortensen. He cited Google's announcement this week that it will add a feature to its virtual assistant that encourages children to say "please" and "thank you." Amazon has a similar program for its assistant.
Mortensen, whose company solely helps users schedule meetings, said he's also seen polite responses to his virtual assistants, Amy and Andrew. Of the hundreds of thousands of meetings x.ai schedules each month, about 11 percent of users reply to the assistants just to express gratitude—even though Mortensen discloses that the service is AI.
Drouin, the psychology professor at Purdue University Fort Wayne, believes people are willing to accept algorithmic relationships if they are upfront. She says AI has unfairly gotten a bad rap from popular culture. She thinks the technology can eventually succeed in places humans can't, like delivering comfort to people suffering from alienation and loneliness.
"There's a lot of people who don't have rich and plentiful human relationships, " she said. "What options do they have? If we can advance AI we can fill a need for these people. The movement toward more human-like forms is allowing people to feel more connected."
© 2018 Los Angeles Times
Distribuído pela Tribune Content Agency, LLC.