Um projeto piloto de 2018 entre a Agência de Saúde Pública do Canadá e a Advanced Symbolics usará postagens de mídia social como um recurso para prever as taxas regionais de suicídio. Crédito:Shutterstock
O suicídio é uma preocupação crescente de saúde pública. No Canadá, 4, 000 vidas são ceifadas pelo suicídio todos os anos - ou seja, 10 vidas por dia.
Para cada uma dessas mortes por suicídio, há cinco pessoas hospitalizadas após automutilação, 25 a 30 tentativas de suicídio e sete a 10 pessoas afetadas por cada tragédia, de acordo com análise da Agência de Saúde Pública do Canadá.
As taxas de suicídio são mais altas entre certos grupos, como os povos indígenas, imigrantes e refugiados, prisioneiros e lésbicas, gay, bissexual, transgênero, comunidade intersex (LGBTI) - e estão em ascensão.
Os impactos do suicídio são amplamente sentidos. A Toronto Transit Commission (TTC) relatou recentemente um aumento nos suicídios no trânsito no final de 2017, com oito tentativas apenas em dezembro, e um aumento correspondente nas taxas de licença por estresse dos funcionários da TTC, devido ao pedágio que isso teve sobre o pessoal.
Poderia a inteligência artificial (IA), ou inteligência demonstrada por máquinas, possivelmente ajude a prevenir essas mortes?
Como pesquisadores em psiquiatria, na Rede Canadense de Integração de Biomarcadores para Depressão, estamos coletando dados clínicos e biológicos durante as intervenções de tratamento para pessoas com depressão maior. Estamos explorando as primeiras pistas para mudanças de comportamento e estados de humor usando tecnologias móveis de saúde.
Um dos nossos objetivos é identificar os primeiros preditores de recidiva, e aumento do risco de comportamento suicida.
Aqui, revisamos outras aplicações promissoras da IA para a prevenção do suicídio, e chamar a atenção para as barreiras dentro desse campo.
AI prevê taxas de suicídio
No início de 2018, a Agência de Saúde Pública do Canadá anunciou um projeto piloto com a Advanced Symbolics, uma empresa de IA baseada em Ottawa que previu com sucesso o Brexit, A presidência de Trump e os resultados das eleições canadenses de 2015.
O projeto irá pesquisar e prever as taxas regionais de suicídio, examinando os padrões de postagens nas redes sociais canadenses, incluindo conteúdo relacionado ao suicídio, embora a identidade do usuário não seja coletada.
O programa não isolará casos de alto risco nem intervirá em nível individual. Em vez de, os resultados serão usados para informar o planejamento de recursos de saúde mental.
Facebook alerta equipes de emergência
Em 2011, O Facebook desenvolveu um sistema de relatório de suicídio manual, no qual os usuários podem fazer upload de capturas de tela do conteúdo do suicídio para análise.
Em 2015, o sistema permitia que os usuários "sinalizassem" com relação ao conteúdo, o que levaria a equipe do Facebook a revisar a postagem e responder com recursos de apoio.
Devido ao sucesso da ferramenta, O Facebook começou a expandir seus recursos de IA para detectar automaticamente o conteúdo relacionado ao suicídio, e alertar as equipes de emergência locais. Existem também mais opções de idioma, e uma extensão para o Instagram.
Chatbots dão terapia para depressão
A IA tem sido usada na área de saúde desde a década de 1990 para melhorar a detecção de doenças e vários índices de bem-estar.
Dentro da saúde mental, A IA melhorou a velocidade e a precisão do diagnóstico, e aplicou "árvores de decisão" para orientar a seleção do tratamento.
Uma nova abordagem à "terapia" envolve bots conversacionais (ou chatbots), que são programas de computador projetados para simular conversas humanas usando respostas de voz ou texto.
Os chatbots podem fornecer intervenções psicológicas para depressão e ansiedade com base na terapia cognitivo-comportamental (TCC). Uma vez que os chatbots respondem de maneira única ao diálogo apresentado, eles podem adaptar as intervenções ao estado emocional e às necessidades clínicas de um paciente. Esses modelos são considerados bastante fáceis de usar, e as respostas adaptadas pelo usuário do próprio chatbot foram bem revisadas.
Tecnologia semelhante está sendo adicionada aos smartphones para permitir que assistentes de voz, como a Siri do iPhone, reconhecer e responder às preocupações com a saúde mental do usuário com informações apropriadas e recursos de apoio. Contudo, esta tecnologia não é considerada confiável e ainda está em seus estágios preliminares. Outros aplicativos de smartphones até usam jogos para melhorar a educação sobre saúde mental.
A tecnologia de IA também foi integrada ao gerenciamento de suicídio para melhorar o atendimento ao paciente em outras áreas. As ferramentas de avaliação de IA demonstraram prever o risco de suicídio em curto prazo e fazer recomendações de tratamento tão boas quanto as dos médicos. As ferramentas também são bem vistas pelos pacientes.
Modelos de IA preveem risco individual
A avaliação e o manejo atuais do risco de suicídio ainda são altamente subjetivos. Para melhorar os resultados, estratégias mais objetivas de IA são necessárias. Aplicações promissoras incluem previsão de risco de suicídio e gerenciamento clínico.
O suicídio é influenciado por uma variedade de fatores psicossociais, biológico, de Meio Ambiente, fatores econômicos e culturais. A IA pode ser usada para explorar a associação entre esses fatores e os resultados do suicídio.
A IA também pode modelar o efeito combinado de vários fatores sobre o suicídio, e usar esses modelos para prever o risco individual.
Como um exemplo, pesquisadores da Universidade de Vanderbilt desenvolveram recentemente um modelo de IA que previu o risco de suicídio, usando registros eletrônicos de saúde, com precisão de 84 a 92 por cento dentro de uma semana de um evento suicida e 80 a 86 por cento dentro de dois anos.
Seguindo em frente com cautela
À medida que avança o campo da prevenção do suicídio por meio da inteligência artificial, existem várias barreiras potenciais a serem abordadas:
Geral, A tecnologia de IA veio para ficar em muitos aspectos dos cuidados de saúde, incluindo triagem de suicídio e entrega de intervenção.
Este artigo foi publicado originalmente em The Conversation. Leia o artigo original.