O Vocabulário Proibido das Redes SociaisF

0

O Vocabulário Proibido das Redes Sociais
Foto reprodução: G1

 

Há algum tempo, usuários de redes sociais passaram a evitar determinadas palavras em suas postagens. Embora muitos reconheçam que isso possa soar absurdo, afirmam não ter alternativa. Surge daí o chamado algospeak, uma linguagem codificada criada para driblar supostos filtros dos algoritmos, que, segundo os usuários, penalizariam conteúdos com termos sensíveis ou politicamente delicados.

As grandes plataformas rejeitam essa ideia. YouTube, Meta e TikTok reforçam que não trabalham com listas de palavras proibidas e defendem que suas políticas se baseiam no contexto do conteúdo. Segundo elas, a moderação ocorre apenas quando há violação clara das diretrizes.

A realidade, porém, é mais complexa. Há inúmeros casos documentados em que empresas de tecnologia influenciaram silenciosamente a distribuição de conteúdo, contrariando discursos oficiais de transparência. Especialistas destacam que, mesmo sem censura explícita de palavras, as plataformas limitam certos tipos de conteúdo de forma sutil e quase sempre opaca para o usuário.

Essa incerteza alimenta um amplo comportamento de autocensura. Criadores de conteúdo relatam que evitam termos específicos ou temas inteiros, temendo que o algoritmo reduza o alcance de seus vídeos. O humorista Alex Pearlman, com milhões de seguidores, afirma que raramente diz “YouTube” em vídeos do TikTok, após notar quedas bruscas de desempenho. Ele também relata que diversos vídeos seus sobre Jeffrey Epstein foram removidos apenas no TikTok, sem explicações claras.

Embora a plataforma negue tais práticas, Pearlman e outros influenciadores passaram a adotar linguagem codificada como substituir nomes por apelidos para tentar escapar da suposta moderação automática. O efeito colateral é que o público muitas vezes não entende imediatamente o assunto abordado.

Investigações reforçam que interferências existem. Em 2023, Meta foi acusada por organizações internacionais de limitar conteúdo relacionado a palestinos. Documentos vazados em 2019 mostraram que o TikTok orientou moderadores a reduzir a visibilidade de usuários considerados “indesejáveis” política que, segundo a empresa, já foi abandonada. Em 2023, a plataforma ainda admitiu a existência de um botão interno para impulsionar vídeos específicos.

A opacidade desses sistemas alimenta fenômenos como o “imaginário algorítmico”: usuários alteram seu comportamento com base no que acreditam que o algoritmo irá censurar  mesmo quando não há evidência concreta. Em 2025, isso ficou evidente no curioso caso do “festival de música”, um código criado espontaneamente para se referir a protestos contra o ICE nos EUA. O termo viralizou e reforçou a percepção de que havia censura, embora especialistas apontem que não existiam restrições reais ao tema.

Para pesquisadores, o cerne do problema é econômico. Plataformas buscam maximizar engajamento e proteger seu modelo de negócios baseado em publicidade. Isso significa criar ambientes “seguros” para anunciantes, mesmo que isso resulte na supressão pontual de temas sensíveis ou politizados. A falta de clareza sobre as regras e sobre quando elas mudam gera frustração e desconfiança.

No fim, criadores e usuários tentam decifrar um sistema que funciona como uma “caixa-preta”, enquanto as empresas equilibram liberdade de expressão, segurança e interesses comerciais. Essa tensão molda o discurso público, e especialistas alertam que a sociedade precisa questionar se quer depender exclusivamente de plataformas privadas para mediar debates tão importantes.

Fonte: G1 
Tags

Postar um comentário

0 Comentários

Postar um comentário (0)

#buttons=(Ok, Go it!) #days=(20)

Our website uses cookies to enhance your experience. Check Now
Ok, Go it!