Crédito CC0:domínio público
Para muitos na indústria cinematográfica, ver seu filme chegar com uma classificação NC-17 da Motion Picture Association of America (MPAA) é o beijo da morte. Com o seu filme não mais acessível a espectadores com menos de 17 anos, você terá a opção de escolher entre arrecadação de bilheteria limitada ou reedição cara, ou mesmo refilmando, para atender aos requisitos de uma classificação R mais palatável.
Mas e se houvesse uma maneira mais precisa de determinar a classificação provável de um filme na fase de roteiro, antes de passar pelo caro processo de produção e pós-produção? Uma equipe de pesquisa do Laboratório de Análise e Interpretação de Sinais (SAIL) da Escola de Engenharia Viterbi da USC está usando o aprendizado de máquina para analisar a representação da violência na linguagem dos scripts. O resultado é uma nova ferramenta para auxiliar os produtores, roteiristas e estúdios na determinação da classificação potencial de seus projetos.
Apresentado na Conferência da Associação para o Avanço da Inteligência Artificial (AAAI) de 2019, a nova ferramenta de IA foi desenvolvida por Ph.D. alunos Victor Martinez, Krishna Somandepalli, Karan Singla, Anil Ramakrishna, e seu conselheiro Shrikanth Narayanan, a Cátedra Niki e Max Nikias em Engenharia. Isso foi feito em colaboração com Yalda Uhls da Common Sense Media. O estudo é a primeira vez que o processamento de linguagem natural foi usado para identificar linguagem violenta e conteúdo em roteiros de filmes.
A ferramenta AI foi desenvolvida usando um conjunto de dados de 732 roteiros de filmes populares que foram anotados para conteúdo violento pela Common Sense Media. A partir desta informação, a equipe construiu um modelo de aprendizado de máquina de rede neural onde os algoritmos se cruzam, trabalhar juntos e aprender com os dados de entrada (ou seja, o texto dos scripts), a fim de criar uma saída (ou seja, classificações de violência para o filme). A ferramenta de IA analisou a linguagem no diálogo dos roteiros e descobriu que a semântica e o sentimento da linguagem usada eram um forte indicador do conteúdo violento classificado nos filmes concluídos.
Narayanan e sua equipe têm usado IA para analisar dados centrados no ser humano por mais de 15 anos como parte de sua pesquisa de inteligência de mídia computacional, que se concentra na análise de dados relacionados ao cinema e aos meios de comunicação de massa. Eles trabalham regularmente com parceiros como o Instituto Geena Davis para Gênero na Mídia para analisar dados de filmes e mídia para determinar o que eles podem revelar sobre a representação.
Narayanan disse que a análise de texto tem uma longa história nos campos criativos de avaliação de conteúdo para incitação ao ódio, linguagem sexista e abusiva, mas analisar a violência no filme por meio da linguagem do roteiro é uma tarefa mais complexa.
"Normalmente, quando as pessoas estudavam cenas de violência na mídia, eles procuram por tiros, carros barulhentos ou batidas, alguém lutando e assim por diante. Mas a linguagem é mais sutil. Esses tipos de algoritmos podem observar e controlar o contexto, não apenas o que palavras específicas e escolhas de palavras significam. Nós olhamos para isso de um ponto de vista abrangente, "Narayanan disse.
Martinez disse que um exemplo da capacidade da ferramenta de IA de detectar violência implícita que a tecnologia atual não consegue detectar foi uma parte do diálogo de The Bourne Ultimatum (2007):"Eu sabia que iria terminar assim. Sempre iria acabar com isso caminho…"
Martinez disse que esta linha foi sinalizada pela ferramenta de IA como violenta, mesmo que não tenha nenhuma marcação de linguagem explícita para violência.
"Em contraste com a forma como a MPAA avalia, nossos modelos olham para o conteúdo real do filme, e o contexto em que o diálogo é dito, para fazer uma previsão sobre o quão violento esse filme é, "Martinez disse.
Somandepalli disse que a equipe de pesquisa agora está usando a ferramenta para analisar como os roteiros usam a violência em representações de vítimas e perpetradores, e a demografia desses personagens.
Essas descobertas podem desempenhar um papel importante em um post #MeToo Hollywood, com preocupações sobre a representação de mulheres e perpetuação de estereótipos negativos, e um foco renovado em personagens femininas fortes com agência.
A equipe prevê que, eventualmente, essa será uma ferramenta que poderá ser integrada ao software de escrita de roteiros. A maioria dos programas de roteiro, como Final Draft ou WriterDuet, já são capazes de criar relatórios que mostram a proporção do diálogo do personagem por gênero. Essa ferramenta permitiria a análise de conteúdo em termos da natureza da linguagem violenta usada por um personagem, mostrando quais personagens são os perpetradores e quais são as vítimas.
"Muitas vezes, pode haver padrões inconscientes e preconceitos presentes no roteiro que o escritor pode não ter intenção, e uma ferramenta como essa ajudará a aumentar a conscientização sobre isso ", disse Narayanan.
O estudo "Violence Rating Prediction from Movie Scripts" foi publicado nos Proceedings of the Trinta e Terceira Conferência AAAI sobre Inteligência Artificial.