Algospeak: A Linguagem Secreta que Molda o Que Você Vê Online

Ouvir conteúdo

A Linguagem Que Você Não Pode Dizer na Internet: Algospeak em Detalhes

Você já percebeu que algumas palavras parecem ter desaparecido das redes sociais? Ou que certos assuntos são abordados de maneira peculiar, quase codificada? Isso não é coincidência. É o reflexo do que chamamos de algospeak, uma linguagem que nasceu da necessidade de agradar os algoritmos das plataformas digitais e escapar de punições.

O termo, que surgiu em inglês como 'algospeak' (linguagem algorítmica), descreve um conjunto de táticas e vocabulários criados para contornar as regras, muitas vezes opacas, de redes sociais como TikTok, YouTube e Meta. A ideia é simples: substituir termos considerados sensíveis por sinônimos ou expressões disfarçadas, garantindo que o conteúdo não seja suprimido ou tenha seu alcance drasticamente reduzido.

Embora as grandes empresas de tecnologia, como TikTok, YouTube e Meta, neguem categoricamente ter listas de palavras proibidas ou manipular o conteúdo com base em termos específicos, relatos de criadores e investigações apontam para uma realidade diferente. O que antes parecia uma teoria da conspiração, hoje se mostra como uma prática disseminada, moldando a forma como nos comunicamos e consumimos informação online. Conforme apurado pela BBC, mesmo sem listas explícitas, existe uma influência significativa das plataformas sobre o que é promovido e o que é ignorado.

A Influência dos Algoritmos no Conteúdo

A influência das grandes empresas de tecnologia sobre o conteúdo que postamos na internet é um tema complexo e cada vez mais relevante. A busca por agradar os algoritmos, que são a espinha dorsal de plataformas como TikTok, YouTube e Meta, leva os criadores de conteúdo a um constante exercício de criatividade e, por vezes, de autocensura.

O objetivo principal das redes sociais, segundo especialistas, é duplo: manter os usuários engajados por mais tempo e, consequentemente, atrair e reter anunciantes. Para atingir essas metas, os algoritmos são ajustados para priorizar conteúdos que gerem mais interação e que não ofendam sensibilidades comerciais ou políticas. Isso cria um ambiente onde a busca por viralização e alcance pode levar à adoção de estratégias de 'algospeak'.

Um exemplo claro dessa dinâmica é a experiência de criadores que observam uma queda drástica nas visualizações de vídeos quando mencionam concorrentes diretos, como alertou Alex Pearlman, um criador de conteúdo com milhões de seguidores. Pearlman relata que, ao convidar seus seguidores do TikTok a visitarem seu canal no YouTube, seus vídeos se tornavam um "fracasso", sugerindo que a plataforma desencoraja ativamente o envio de tráfego para outras redes.

Essa prática, embora negada pelas empresas, gera uma ambiguidade que alimenta um regime generalizado de autocensura. Os usuários frequentemente se perguntam se uma postagem não obteve sucesso por má qualidade ou por ter, inadvertidamente, contrariado as regras invisíveis dos algoritmos. Essa incerteza força muitos a adotarem uma linguagem codificada ou a evitarem certos temas por completo, com medo de que seus conteúdos sejam suprimidos.

O Fenômeno do Algospeak: Exemplos e Táticas

O 'algospeak' se manifesta de diversas formas, desde a substituição de palavras até o uso de gírias e referências culturais específicas. Um caso notório citado na reportagem da BBC envolve a cobertura sobre Jeffrey Epstein. Alex Pearlman, ao tentar criar conteúdo sobre o financista, percebeu que seus vídeos eram excluídos no TikTok, enquanto permaneciam intocados em outras plataformas. A solução encontrada foi usar linguagem codificada, referindo-se a Epstein como o "Homem da Ilha", uma alusão à sua ilha particular.

Essa estratégia, no entanto, tem suas limitações, pois uma parte do público pode não compreender a referência, prejudicando a disseminação da informação. A falta de clareza sobre as regras e a dificuldade em identificar qual parte de uma postagem violou as normas deixam os criadores em uma posição de constante desvantagem, tentando decifrar a "caixa preta" dos algoritmos.

Outro exemplo intrigante é o uso da expressão "festival de música" para descrever manifestações políticas em Los Angeles. Em agosto de 2025, usuários compartilharam vídeos de protestos contra o Serviço de Imigração e Alfândega dos EUA (ICE), mas os descreveram como um evento musical. A intenção era enganar os algoritmos, que poderiam suprimir conteúdo político considerado controverso. Johnny Palmadessa, um criador de conteúdo, explicou em um vídeo que chamariam os protestos de "festival de música" para "garantir que o algoritmo mostre este belo concerto para você", temendo que o vídeo fosse "derrubado".

Curiosamente, segundo o linguista Adam Aleksic, autor do livro "Algospeak: How Social Media is Transforming the Future of Language", não havia evidências concretas de que as empresas de redes sociais estivessem reprimindo ativamente as notícias sobre esses protestos. A adoção da linguagem codificada parece ter surgido, em parte, de usuários "hipercorretos", receosos da censura algorítmica. O fenômeno, apelidado de "imaginário algorítmico", demonstra como as crenças sobre o funcionamento dos algoritmos podem moldar o comportamento do usuário, influenciando, por sua vez, o próprio algoritmo.

A Busca por Transparência e os Interesses Comerciais

As plataformas de redes sociais, como TikTok, Meta e YouTube, afirmam que seus algoritmos são sistemas complexos e interconectados, projetados para fornecer conteúdo relevante e satisfatório. Elas publicam informações sobre como esses sistemas funcionam, como a previsão de interação do usuário com um vídeo no caso do TikTok, e declaram remover conteúdo apenas quando viola as normas da comunidade.

No entanto, investigações independentes, como as da BBC e da Human Rights Watch, apontam para a supressão sistemática de conteúdo. Em semanas após os ataques do Hamas em Israel em outubro de 2023, o Facebook e o Instagram foram acusados de restringir conteúdo de usuários palestinos e de apoio aos direitos humanos palestinos. A Meta admitiu cometer "erros", mas negou a acusação de suprimir vozes específicas deliberadamente.

Em 2019, documentos vazados revelaram que o TikTok instruiu moderadores a suprimir conteúdo de usuários considerados "feios", pobres, com deficiências ou LGBTQIA+, por criar um ambiente "menos atraente e elegante". A empresa declarou na época que essa prática foi descontinuada como uma medida "grosseira" anti-bullying. Outro vazamento mostrou que políticas proibiam transmissões ao vivo "controversas" com críticas a governos, uma política que o TikTok afirmou não se destinar ao mercado dos Estados Unidos.

Um dos pontos mais controversos foi a admissão do TikTok em 2023 sobre a existência de um "botão secreto" para viralizar vídeos específicos, supostamente usado para agradar parceiros comerciais e, em alguns casos, com abusos por parte de funcionários. A empresa não respondeu se essa prática ainda está em vigor, alimentando a especulação de que também pode existir um "botão para esfriar as coisas", como sugere Alex Pearlman.

O YouTube também enfrentou controvérsias, como um processo de criadores LGBTQIA+ em 2019 que acusavam a plataforma de desmonetizar vídeos com palavras como "gay" ou "trans". A empresa nega ter políticas contra conteúdo LGBTQIA+.

O Dinheiro por Trás da Censura Invisível

Para Sarah Roberts, professora da Universidade da Califórnia em Los Angeles e diretora do Centro de Pensamento Crítico sobre a Internet, o cerne da questão reside nos interesses comerciais das empresas. As redes sociais lucram com publicidade, e seu objetivo é criar aplicativos que atraiam usuários e apresentem conteúdo que não incomode os anunciantes, ao mesmo tempo em que evitam a intervenção governamental.

"Toda mudança de algoritmo e toda decisão de moderação de conteúdo se resume a este objetivo: o lucro", afirma Roberts. Embora as empresas defendam que a moderação visa criar um ambiente seguro, Roberts ressalta que, quando necessário, elas desviam desse propósito.

A professora questiona a eficácia de nos expressarmos em plataformas que lucram com a frustração e insatisfação dos usuários, sugerindo a necessidade de uma reflexão social sobre as melhores formas de participação. A dificuldade em discernir entre fatos e ficção, e a constante mudança dos critérios das gigantes da tecnologia, deixam muitos usuários, como Ariana Jasmine Afshar, "confusos" sobre o que realmente funciona.

Ainda que a autocensura e o uso de 'algospeak' sejam uma realidade, a própria Afshar, ativista de esquerda, relata ter recebido contato do Instagram para parabenizá-la por seu trabalho e oferecer estratégias de melhoria. Isso sugere que, em alguns casos, o sucesso do conteúdo político pode ser tolerado, ou até mesmo incentivado, desde que não afete os interesses comerciais primários das plataformas. A linha entre o que é permitido e o que é suprimido permanece tênue e em constante evolução.

Compartilhe nosso conteúdo

Ultimas notícias