20.5 C
Brasília
HomeTecnologiaInteligência artificial se torna crucial na luta para moderar o Facebook

Inteligência artificial se torna crucial na luta para moderar o Facebook

Rede social quer ajudar a reorganizar a fila de postagens marcadas como inadequadas utilizando machine learning

Facebook: rede social vai apostar ainda mais em inteligência artificial (Chesnot/Getty Images)

O processo de moderação de conteúdo do Facebook funciona da seguinte forma. Qualquer postagem feita na rede social pode ser sinalizada pelos usuários como inadequada. Ao fazer isso, a companhia recebe um aviso sobre a marcação e coloca aquele conteúdo em uma fila de análise. Mais de 15 mil funcionários do Facebook trabalham nesta função.

Alguns casos específicos já são resolvidos de forma automática, com os avanços da inteligência artificial e de machine learning. Contudo, há reclamações sobre como esta tecnologia funciona, já que algumas postagens aparentemente inofensivas foram marcadas como inadequadas nos últimos anos. Faz parte, já que a tecnologia aprende na base de tentativa e erro.

No passado, a moderação do conteúdo era feita de forma cronológica. Ou seja, as marcações eram revisadas na ordem em que chegavam. Ao longo do tempo, a companhia de Menlo Park passou a introduzir uma nova fila, em que prioriza postagens com maior potencial de engajamento ou que possam ser mais prejudiciais para os usuários caso permaneçam visíveis na plataforma.

O Facebook não revela números nesta questão, mas é possível imaginar que a rede social que tem mais de 2,7 bilhões de usuários lide com uma quantidade enorme de conteúdo mercado como inadequado. É neste ponto que a empresa de Mark Zuckerberg pretende incluir ainda mais inteligência artificial e machine learning.

A ideia é que as duas tecnologias possam ajudar a organizar esta fila de moderação de forma mais ágil e precisa. Serão três fatores analisados: o potencial do conteúdo viralizar, o quão grave é o conteúdo e a probabilidade daquele conteúdo estar infringindo as regras da plataforma. O Facebook não revela qual o peso de cada um destes fatores na reorganização.

A rede social deve mirar em postagens com maior potencial destrutivo primeiro. Neste ponto, publicações mais compartilhadas serão moderadas mais rapidamente do que outras ainda “ocultas” do grande público. O conteúdo também é importante. Postagens sobre terrorismo, tráfico infantil, pedofilia, entre outros assuntos mais graves serão priorizadas.

“Todas as violações de conteúdo ainda receberão uma revisão humana substancial, mas usaremos este sistema para priorizar melhor (este processo)”, disse Ryan Barnes, gerente de produto da equipe de integridade da comunidade do Facebook durante uma coletiva de imprensa, conforme relatado pelo The Verge.

A companhia não revelou exatamente como o novo algoritmo vai funcionar, mas deu alguns detalhes sobre o que estava fazendo até então. A empresa implementou uma tecnologia que analisava todo o conteúdo de uma postagem para entender se havia algo de errado com a postagem. Seja em um texto, em uma imagem ou na legenda postada.

Mas há alguns problemas. Por exemplo, uma legenda com a inscrição “venda de doces especiais” pode significar que o conteúdo é sobre drogas ou sobre guloseimas. Neste caso, o algoritmo precisa analisar o restante da publicação. Palavras como “potente”, “forte”, “crocante”, “chocolate” podem ajudar a indicar se o conteúdo é ou não inadequado. Mas é impossível ter certeza.

 

Veja Também