Crédito CC0:domínio público
As evidências sugerem que a interface entre os humanos e a tecnologia só se tornará mais central para a vida moderna.
Para que os humanos sejam capazes de extrair informações significativas do acervo de dados que estão sendo coletados pelas máquinas "inteligentes" com as quais interagimos - como telefones celulares - os computadores precisam ser capazes de processar a linguagem como os humanos. O ramo da inteligência artificial que atende a essa necessidade é chamado de processamento de linguagem natural.
Um artigo chamado "Algoritmos no surgimento histórico dos sentidos das palavras" - que aparece online hoje no Proceedings of the National Academy of Sciences ( PNAS ) —É o primeiro a olhar para 1, 000 anos de desenvolvimento do inglês e detectam os tipos de algoritmos que as mentes humanas têm usado para estender as palavras existentes a novos sentidos. Esse tipo de "engenharia reversa" de como a linguagem humana se desenvolveu pode ter implicações para o processamento da linguagem natural por máquinas.
"Para se comunicar com sucesso com os humanos, os computadores precisam ser capazes de usar as palavras de maneira flexível, mas seguindo os mesmos princípios que orientam o uso da linguagem pelos humanos, "explica Barbara Malt, Diretor do Programa de Ciências Cognitivas da Lehigh University e um dos colaboradores do projeto.
De acordo com Malt, as palavras acumulam famílias de sentidos relacionados ao longo da história. Por exemplo, a palavra 'rosto' originalmente significava a parte frontal de uma cabeça, mas com o tempo também passou a significar a parte frontal de outros objetos, como a 'face' do penhasco, e um estado emocional, como fazer uma cara de brava.
"Este trabalho, "diz Malt, "teve como objetivo investigar os processos cognitivos que criam essas famílias de sentidos."
A equipe, incluindo o pesquisador líder Yang Xu, um lingüista computacional da Universidade de Toronto e Mahesh Srinivasan, professor assistente de psicologia da Universidade da Califórnia em Berkeley, junto com o estudante de Berkeley, Christian Ramiro, identificou um algoritmo chamado "encadeamento do vizinho mais próximo" como o mecanismo que melhor descreve como os sentidos das palavras se acumulam ao longo do tempo.
No "encadeamento de vizinho mais próximo", os pontos de entrada são analisados como uma hierarquia de clusters. O modelo dos pesquisadores capturou o processo de encadeamento que ocorre à medida que as ideias emergentes eram expressas usando a palavra com o sentido existente mais intimamente relacionado. Esse modelo de encadeamento se ajusta ao padrão histórico de emergência dos sentidos melhor do que os modelos alternativos.
"É uma questão em aberto como os algoritmos que exploramos aqui podem ser aplicados diretamente para melhorar a compreensão da máquina sobre o uso de novas linguagens, "diz Xu.
Depois de desenvolver os algoritmos computacionais que previram a ordem histórica em que os sentidos de uma palavra surgiram, a equipe testou essas previsões contra registros de inglês no último milênio usando o Thesaurus histórico de inglês, um grande banco de dados no qual cada um dos muitos sentidos de uma palavra é marcado por sua data de surgimento no idioma.
Suas descobertas sugerem que os sentidos das palavras surgem de maneiras que minimizam os custos cognitivos, quais são os custos coletivos de geração, interpretar e aprender os sentidos das palavras. Em outras palavras, novos sentidos de palavras surgem por meio de um mecanismo eficiente que expressa novas ideias por meio de um conjunto compacto de palavras.
"Quando as ideias emergentes são codificadas em inglês, eles são mais propensos a ser codificados por meio da extensão do significado de uma palavra existente do que por meio da criação de uma nova palavra, "diz Malt." Uma ideia popular pode ser que quando você tem uma nova ideia, você precisa inventar uma nova palavra para ela, mas descobrimos que essa estratégia é, na verdade, menos comum. "
Ano passado, a mesma equipe foi a primeira a identificar um conjunto de princípios que regem outro aspecto do desenvolvimento da linguagem:o mapeamento metafórico.
Ao longo do último milênio, os sentidos das palavras evoluíram amplamente de domínios literais para domínios metafóricos - chamados de mapeamento metafórico. Palavras que originalmente tinham apenas significado concreto ou externo (como 'agarrar' um objeto físico) cresceram para ter significado nos reinos do abstrato e interno (como em 'agarrar' uma ideia). O grupo foi o primeiro a mostrar que essa progressão seguiu um conjunto compacto de princípios psicológicos e cognitivos e que o movimento através dos reinos pode ser previsto.
As descobertas do grupo foram publicadas na Cognitive Psychology em um artigo intitulado "Evolução do significado das palavras por meio do mapeamento metafórico:Sistemmaticidade ao longo do último milênio".
"Juntos, nossos estudos estão começando a mostrar que a maneira como as palavras desenvolveram novos significados não é arbitrária, mas, em vez disso, refletem propriedades fundamentais de como pensamos e nos comunicamos uns com os outros, "explica Mahesh Srinivasan, Assistant Professor of Psychology and director of the Language and Cognitive Development laboratory at UC Berkeley