O Brasil foi o terceiro país que mais teve vídeos removidos por violações dos termos de comunidade do TikTok em 2021. O país ficou atrás apenas de Estados Unidos e Paquistão, segundo os números divulgados nos relatórios oficiais da rede social.
Entre janeiro e dezembro do ano passado, foram excluídos mais de 23,4 milhões de conteúdos brasileiros, de acordo com dados consolidados pelo g1 a partir dos documentos da rede social.
Os cinco países que mais tiveram conteúdo excluído em 2021 foram:
- Estados Unidos: 46,8 milhões
- Paquistão: 28,9 milhões
- Brasil: 23,4 milhões
- Rússia: 21,3 milhões
- Indonésia – 14,1 milhões
Por que os vídeos são derrubados?
Questionado pelo g1, o TikTok não especificou quais as regras que os brasileiros mais desobedecem para que seus vídeos sejam excluídos.
Globalmente, o aplicativo indica que o principal motivo para remover vídeos e contas da plataforma é a violação das políticas para segurança de menores. A plataforma proíbe usuários menores de 13 anos.
Febre entre os jovens, o app chinês bane atividades que “perpetuem o abuso, dano, perigo ou exploração de menores no TikTok”.
As regras incluem qualquer vídeo que possua exploração sexual de menores, comportamento de aliciamento e atividades prejudiciais para menores.
De acordo com o relatório do último trimestre de 2021, 45,1% dos vídeos excluídos globalmente se enquadram nessas condições.
O principal motivo para a empresa banir pessoas da plataforma é sua restrição de idade. No ano passado, mais de 46,3 milhões de usuários com menos de 13 anos tiveram contas identificadas e excluídas pela plataforma.
Além disso, a rede social criou restrições de idade para alguns recursos. Os donos de contas com menos de 16 anos não podem utilizar mensagens diretas ou fazer lives. Já os menores de 18 anos não podem enviar ou receber presentes virtuais no aplicativo.
Os outros motivos para que a rede social apague conteúdo são:
- Atividades ilegais e mercadorias regulamentadas;
- Nudez de adultos e atividades sexuais;
- Conteúdo violento e explícito;
- Suicídio, autolesão e atos perigosos;
- Assédio e bullying;
- Comportamento de ódio;
- Extremismo violento;
- Integridade e autenticidade.
Luta contra comentários tóxicos
A plataforma anunciou nesta quarta (13) o teste de um recurso para identificar comentários irrelevantes ou inadequados. Usuários vão poder sinalizar comentários que acharem tóxicos.
Para evitar mal-estar entre os membros da comunidade e possíveis sentimentos de inferioridade, apenas a pessoa que sinalizar um comentário poderá ver essa marcação.
O aplicativo também vai mandar lembretes para criadores de conteúdo que tiverem vídeos com muitos comentários negativados.
Segundo o TikTok, as funcionalidades estão em teste e devem ser implementadas de forma definitiva nas próximas semanas.
Fonte: G1