Prevenção

Facebook começa a usar inteligência artificial para prevenir suicídio entre usuários

O Facebook começou a utilizar uma inteligência artificial em seus algorítimos a fim de identificar postagens de usuários com pensamentos suicidas. Com isso, os integrantes da rede social que apresentam risco de se matarem que forem identificados pelo algorítimo poderão receber orientação e suporte ainda na rede social.

A ferramente recorre a algorítimos, que identificam nas postagens conteúdo suicida ou indicativo disto. Posteriormente, as publicações suspeitas passam por uma confirmação humana por alguém da equipe da rede e uma vez constatado o risco, a rede entra em contato para sugerir ajuda profissional.

O novo algorítimo do Facebook foi considerado por uma rede de apoio e de prevenção ao suicídio, equivalente ao CVV do Brasil, como sendo não, apenas uma ajuda, mas um passo fundamental para prevenir o suicídio. A ferramenta, no entanto, está sendo testada somente nos Estados Unidos, por enquanto.

Esta é a primeira vez que a tecnologia de inteligência artificial é utilizada para revisar mensagens na rede social. No início do ano, Mark Zuckerberg também anunciou que os algorítimos do Facebook pretendia futuramente recorrer aos algorítimos para identificar publicações de terroristas. O Facebook também anunciou novas maneiras de identificar comportamento suicida nas transmissões ao vivo disponibilizadas pela rede, responsabilidade que divide com várias instituições de saúde mental dos Estados Unidos, que permitirão que as pessoas vulneráveis entrem em contato com elas por meio do aplicativo messenger.

Padrão de reconhecimento

O Facebook já oferece suporte aos usuários com tendências suicidas há anos, só que até agora a ferramenta só era disponibilizada quando terceiros reportavam à rede o comportamento incomum dos usuários. Agora, os usuários localizados nos EUA já podem contactar uma série de serviços de apoio a suicidas pelo Messenger.

A funcionalidade foi desenvolvida com base em algorítimos de 'padrões de reconhecimento', que identificam se alguém está lutando contra a própria condição - exemplos seriam conversas nas quais se falam de dor e sofrimento. Respostas de amigos com frases como 'Você está bem' ou 'Estou preocupado com você' também são indicativos.

Assim, uma vez que o post é identificado, o conteúdo é enviado para uma rápida revisão por uma equipe de operações de comunidade da rede. "Nós sabemos que a rapidez é fundamental quando as coisas são urgentes", explica a gerente de produtos do Facebook, Vanessa Callison-Burch, em entrevista à BBC.

O diretor americano do órgão equivalente ao CCV disse que reconhece o esforço da rede social, mas que também espera que o Facebook faça mais que aconselhamento, e que estabeleça contato com aqueles que precisam. "É algo que temos discutido com o Facebook", disse o médico John Draper. "Quanto mais nós consigamos mobilizar o suporte de rede a um usuário aflito, melhor eles poderão procurar ajuda", considerou. "Mas o que posso dizer é que o que está sendo oferecido pelo Facebook agora é uma grande passo".

Para o Vanessa, no entanto, a questão é como isso será promovido de forma que não seja algo invasivo, já que, para ela, o apoio que vem da família e de amigos é muito mais efetivo que a ajuda do Facebook, muito embora nem sempre seja apropriado informá-los. "Nós estamos sensível à privacidade e nem sempre conhecemos como funciona a dinâmica pessoal entre usuários em risco e seus amigos. Então, estamos tentando fazer algo que ofereça suporte e opções, explica a gerente de produtos do Facebook.

Comentários