A Engenharia do Caos: Como Meta e TikTok Transformaram o Ódio em Modelo de Negócio (e Por Que Você é a Vítima)

0

Denunciantes revelam os bastidores obscuros da guerra pelos algoritmos: do descaso planejado com a segurança infantil à promoção deliberada de conteúdo tóxico para salvar o preço das ações. O Brasil, campeão mundial de tempo em redes sociais, está no epicentro desse experimento social perigoso.

unsplash_ZOdMXpVUjqA

O que você vê no seu celular hoje não é fruto do acaso, mas de uma decisão financeira fria e calculada. Como editor-chefe deste portal, acompanho a evolução tecnológica há décadas, mas os novos relatos de denunciantes da Meta e do TikTok revelam uma fronteira ética que foi cruzada sem volta.

O Lucro Acima da Sanidade

O ponto aqui é simples, mas brutal: as gigantes das redes sociais decidiram que a sua indignação vale mais do que a sua paz. De acordo com revelações feitas à BBC por ex-funcionários, a Meta (dona do Instagram e Facebook) e o TikTok permitiram — e em alguns casos incentivaram — a proliferação de conteúdo nocivo para manter os usuários presos à tela.

Isso sinaliza um avanço importante, porém aterrorizante, na forma como o capitalismo de vigilância opera. No Brasil, país que figura no topo do ranking global de tempo gasto em redes sociais, o impacto disso é devastador. Estamos sendo alimentados com uma dieta de misoginia, teorias conspiratórias e violência, apenas para que o ponteiro do engajamento não caia.

A Queda nas Ações e a Ascensão do Conteúdo ‘Limítrofe’

O que muitos não percebem é o nível de desespero dessas empresas. Um engenheiro da Meta revelou que, diante da queda no preço das ações e da concorrência avassaladora do TikTok, a ordem interna foi clara: abrir as comportas para o conteúdo “limítrofe”.

Mas o que é esse conteúdo? É o post que flerta com o racismo sem ser explicitamente ilegal, é a trend que ridiculariza minorias, é o vídeo que inflama a polarização política. É o tipo de material que faz o sangue ferver. E sangue fervendo gera cliques. Cliques geram dólares.

A realidade brasileira é um laboratório perfeito para isso. Em um país já profundamente polarizado, os algoritmos atuam como gasolina em fogueira. O lançamento do Instagram Reels em 2020, por exemplo, foi feito sem as proteções necessárias. O resultado? Uma prevalência 75% maior de bullying e assédio do que no feed principal.

A Política do Privilégio no TikTok

Enquanto a Meta jogava com a saúde mental, o TikTok jogava com o poder. Denunciantes afirmam que a plataforma prioriza reclamações de políticos em detrimento de casos graves de segurança infantil, como chantagem sexual e cyberbullying.

A estratégia é política e cínica: manter relações cordiais com quem pode regular a empresa (os políticos), enquanto negligencia os usuários mais vulneráveis (nossas crianças e adolescentes). Isso explica por que, muitas vezes, denúncias de usuários comuns levam semanas para serem analisadas, enquanto qualquer crítica a uma autoridade é tratada em minutos.

⚡ Leia Também: Como os Algoritmos Estão Redefinindo as Eleições no Brasil

A ‘Caixa-Preta’ que Ninguém Controla

O mais perturbador nos relatos é a admissão de que nem mesmo os engenheiros que criam esses sistemas têm controle total sobre eles. Ruofan Ding, ex-engenheiro do TikTok, descreveu o algoritmo como uma “caixa-preta” de aprendizado profundo.

Para esses profissionais, o seu vídeo de família ou um vídeo de propaganda nazista são apenas números de ID. A máquina não tem moral; ela só tem um objetivo: otimização. Se o algoritmo aprende que o ódio retém o usuário por mais 10 segundos, ele entregará mais ódio.

No Brasil, onde a literacia digital ainda é um desafio imenso para grande parte da população, entregar o controle das mentes de milhões de jovens a uma máquina de ‘deep learning’ sem freios é uma receita para o desastre social que já estamos colhendo em nossas escolas e ruas.

A Radicalização de uma Geração

O caso de Calum, o jovem de 19 anos radicalizado pelo algoritmo desde os 14, não é uma exceção; é o subproduto esperado do sistema. Ele descreveu como os vídeos o deixavam com raiva das pessoas ao seu redor. Essa dessensibilização é o que vemos hoje em fóruns extremistas e ataques violentos que, infelizmente, tornaram-se notícia frequente no Brasil.

As empresas se defendem dizendo que investem bilhões em segurança. Mas, como mostram os documentos, enquanto 700 pessoas eram contratadas para expandir o Reels, equipes de segurança infantil tinham pedidos de contratação de apenas dois especialistas negados. A prioridade nunca foi o cuidado; sempre foi o crescimento.

RECOMENDAÇÃO DO EDITOR: Para entender como retomar o controle da sua atenção e proteger sua família nesta era de manipulação digital, recomendamos a leitura de ‘Dez argumentos para você deletar agora suas redes sociais’, de Jaron Lanier. Um guia essencial para os tempos atuais.

[VER PREÇO NA AMAZON]

O Futuro e o Nosso Papel

O que esperar para o futuro? Sem uma regulação séria e internacional, a tendência é que essas máquinas de raiva tornem-se ainda mais sofisticadas com a Inteligência Artificial generativa. O Brasil está discutindo o PL das Fake News, e embora o debate seja complexo, a inércia não é mais uma opção.

Precisamos exigir transparência algorítmica. Não podemos aceitar que empresas estrangeiras lucrem bilhões enquanto corroem o tecido social do nosso país. A segurança das nossas crianças não pode ser uma variável ajustável em uma planilha de lucros trimestrais.

Reflita: você está no controle do seu celular ou o algoritmo está no controle de você? Deixe seu comentário abaixo compartilhando sua experiência com o Reels ou TikTok. Você já sentiu que o conteúdo ficou ‘mais pesado’ ultimamente?

Compartilhe esta reportagem no seu WhatsApp e ajude a alertar mais pessoas sobre o que acontece por trás da tela.

Tags: Meta, TikTok, Algoritmos, Segurança Digital, Redes Sociais, Brasil, Saúde Mental

Link Original: Ir para Fonte

Imagem: Foto de Shutter Speed na Unsplash

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *