Crédito CC0:domínio público
A opinião que afeta o reconhecimento deve ser banida de decisões importantes soa como um grito de raiva ... mas o que tudo isso significa? A conversa está esquentando, na realidade, sobre o impacto da inteligência artificial em nossas vidas diárias de maneiras que causam tanto preocupação quanto admiração.
"Afeta o reconhecimento." Em linguagem técnica, representa um subconjunto de reconhecimento facial. O reconhecimento de afeto tem tudo a ver com IA emocional, e trata-se de inteligência artificial utilizada para analisar expressões com o objetivo de identificar a emoção humana.
Interpretando as expressões em seu rosto? Quão sólidas são essas interpretações?
Em um centro de pesquisa da Universidade de Nova York, um relatório lembra seus leitores que esta não é a melhor maneira de entender como as pessoas se sentem. A visão do relatório é que, claro e simples, A IA de detecção de emoções não deve ser prontamente assumida como capaz de fazer chamadas importantes em situações que podem ter um impacto sério nas pessoas:no recrutamento, no monitoramento de alunos em sala de aula, no atendimento ao cliente e, por último, mas dificilmente menos, na justiça criminal.
Havia uma necessidade de examinar por que as entidades estão usando tecnologia defeituosa para fazer avaliações sobre o caráter com base na aparência física em primeiro lugar. Isso é particularmente preocupante em contextos como o de emprego, Educação, e justiça criminal.
O AI Now Institute da New York University emitiu o Relatório AI Now 2019 . O foco do instituto está nas implicações sociais da inteligência artificial. O instituto observa que os sistemas de IA devem ter salvaguardas adequadas ou estruturas de responsabilidade em vigor, e o instituto parece estar preocupado quando esse pode não ser o caso.
O relatório de 2019 examina o uso comercial da análise de expressão na forma como está atualmente na tomada de decisões.
A Reuters apontou que este foi o quarto relatório anual da AI Now sobre ferramentas de IA. A avaliação examina os riscos da tecnologia de IA potencialmente prejudicial e seu impacto humano.
Voltando-se para o relatório do Instituto, disse que o reconhecimento de afeto tem sido "um foco particular de preocupação crescente em 2019 - não apenas porque pode codificar preconceitos, mas porque carece de qualquer base científica sólida para garantir resultados precisos ou mesmo válidos. "
O relatório tinha uma redação forte:"Os reguladores devem proibir o uso de reconhecimento de afeto em decisões importantes que afetam a vida das pessoas e o acesso a oportunidades. Até então, As empresas de IA devem parar de implantá-lo. "
Os autores não estão apenas se entregando ao pessoal; opinião; eles revisaram a pesquisa.
"Dadas as contestadas bases científicas da tecnologia de reconhecimento de afeto - uma subclasse de reconhecimento facial que afirma detectar coisas como personalidade, emoções, saúde mental, e outros estados interiores - não deve ser permitido desempenhar um papel em decisões importantes sobre vidas humanas, como quem é entrevistado ou contratado para um trabalho, o preço do seguro, avaliações da dor do paciente, ou o desempenho do aluno na escola. "
O relatório foi ainda mais longe e disse que os governos deveriam "proibir especificamente o uso de reconhecimento de afeto em processos de tomada de decisão de alto risco".
The Verge James Vincent não ficaria surpreso com essa descoberta. Em julho, ele relatou uma pesquisa que examinou as falhas da tecnologia para ler com precisão as emoções através das expressões faciais; simplesmente colocado, você não pode confiar na IA para fazer isso. Ele citou um professor de psicologia da Northeastern University. "As empresas podem dizer o que quiserem, mas os dados são claros. "
Vincent relatou na época uma revisão da literatura encomendada pela Association for Psychological Science, e cinco cientistas examinaram as evidências:"Expressões emocionais reconsideradas:desafios para inferir emoções de movimentos faciais humanos". Vincent disse:"Eles levaram dois anos para examinar os dados, com a revisão olhando para mais de 1, 000 estudos diferentes. "
Uma vez que as emoções são expressas de uma grande variedade de maneiras, é difícil inferir com segurança como alguém se sente a partir de um simples conjunto de movimentos faciais. Os autores disseram que as empresas de tecnologia podem muito bem estar fazendo uma pergunta que é fundamentalmente errada. Os esforços para ler os estados internos das pessoas a partir dos movimentos faciais sem considerar vários aspectos do contexto eram, na melhor das hipóteses, incompletos e, na pior, careciam de validade.
Embora o relatório pedisse uma proibição, pode ser justo considerar que a preocupação é contra o nível ingênuo de confiança em uma tecnologia que ainda precisa ser aprimorada. O campo da análise emocional precisa fazer melhor.
De acordo com The Verge artigo, um professor de psicologia da Northeastern University acreditava que talvez a lição mais importante da revisão fosse que "precisamos pensar sobre as emoções de uma maneira mais complexa".
Leo Kelton, BBC Notícias, Enquanto isso, retransmitiu o ponto de vista do cofundador do AI Now, Prof. Kate Crawford, que disse que os estudos demonstraram uma variabilidade considerável em termos do número de estados emocionais e da forma como as pessoas os expressam.
A Reuters relatou em sua teleconferência antes do lançamento do relatório:"Os fundadores da AI Now, Kate Crawford e Meredith Whittaker, disseram que os usos prejudiciais da IA estão se multiplicando, apesar do amplo consenso sobre os princípios éticos porque não há consequências por violá-los." O relatório atual disse que o reconhecimento de afeto habilitado para IA continuou a ser implantado em escala em ambientes de salas de aula a entrevistas de emprego. Estava informando as determinações sobre quem é produtivo, mas muitas vezes sem o conhecimento das pessoas.
O relatório AI Now apresentou exemplos específicos de empresas que fazem negócios com produtos de detecção de emoção. Uma dessas empresas está vendendo câmeras de análise de vídeo que classificam os rostos como sentimento de raiva, temer, e tristeza, vendido para cassinos, restaurantes, comerciantes de varejo, corretores de imóveis, e a indústria de hospitalidade, .
Outro exemplo foi uma empresa com ferramentas baseadas em vídeo baseadas em IA para recomendar quais candidatos uma empresa deveria entrevistar. Os algoritmos foram projetados para detectar o envolvimento emocional nas microexpressões dos candidatos.
O relatório incluiu uma empresa que cria faixas para a cabeça com o objetivo de detectar e quantificar os níveis de atenção dos alunos por meio da detecção da atividade cerebral. (O relatório da IA não ignorou a adição de que os estudos "delineiam riscos significativos associados à implantação da IA emocional na sala de aula".)
© 2019 Science X Network