O Instagram anunciou novas ferramentas que visam diminuir o ciberbullying na plataforma
A partir de agora, os usuários serão capazes
de filtrar automaticamente comentários ofensivos, além de terem acesso a
ferramentas relacionadas a saúde mental.
Mesmo que
a pessoa tenha uma conta pública, será possível escolher quem pode comentar em
posts. Esse filtro pode ser feito a
partir de todos ou apenas determinados grupos de pessoas, como as que você
segue ou seus seguidores. Você também pode bloquear qualquer um de fazer comentários.
Se possuir uma conta privada, pode selecionar contas que queira bloquear para
que não possam comentar seus posts.
Em junho,
a rede social lançou um filtro automático para bloquear determinados
comentários ofensivos em inglês. Agora, o filtro foi expandido para os idiomas
árabe, francês, alemão e português. Esse filtro utiliza inteligência
computacional para identificar e esconder comentários ofensivos.
Também será possível denunciar tendências
suicidas ou de problemas mentais em transmissões de vídeos ao vivo. Se você
perceber, durante uma transmissão ao vivo, que alguém está passando por um
momento difícil ou que precisa de ajuda, pode reportar de maneira anônima.
A pessoa visualizará uma mensagem que oferece
opções para conversar com uma linha de auxílio, contatar um amigo ou obter
outras dicas de ajuda. Essa ferramenta pode ser encontrada ao clicar nos três
pontos da barra de comentários, na parte inferior da tela.
Retirado do link :
Nenhum comentário:
Postar um comentário