YouTube não quer que você assista Shorts de política, diz estudo
Eu sei que você já perdeu uma tarde inteira de domingo vendo vídeos no celular. O movimento dos dedos é quase automático. O cérebro nem pensa mais direito. Você só sorri para alguns conteúdos – e manda os melhores para os seus amigos, ou familiares, ou para o seu par romântico.
No Brasil, é muito provável que você faça isso nos Reels do Instagram ou no próprio TikTok. Em outros países, porém, a plataforma mais forte é o YouTube Shorts.
Estimativas apontam que, no mundo todo, as pessoas entregam diariamente 200 bilhões de views somente dentro do Shorts. É como se cada um dos 8 bilhões de humanos na Terra assistisse a 25 vídeos curtos por dia!!!
E o conteúdo é o mais variado possível – com as linhas invisíveis do algoritmo por trás. É claro que os primeiros vídeos são escolhidos pelos próprios usuários. Tudo que vem depois, porém, recebe algum tipo de influência.
O que sempre acreditamos é que o algoritmo entregava exatamente aquilo que queríamos, moldado pelos nossos gostos. Um novo estudo da Universidade Cornell, nos Estados Unidos, no entanto, mostra que a história não é bem assim. De acordo com os pesquisadores, o Shorts não quer que você assista conteúdo politicamente sensível.
O que diz o estudo
- Os cientistas monitoraram mais de 680 mil vídeos do Shorts e pediram ao ChatGPT que os classificasse por tópico, relevância e tom emocional.
- Eles, então, escolheram três temas distintos, dois deles políticos: a disputa no Mar da China Meridional, as eleições de 2024 em Taiwan e uma categoria “geral” mais ampla.
- Ao todo, assistiram a mais de 2.100 vídeos iniciais sobre os temas acima e, na sequência, seguiram 50 recomendações sucessivas.
- Os pesquisadores perceberam que quando o engajamento começou com temas politicamente sensíveis, o algoritmo rapidamente direcionou os usuários para um conteúdo mais focado em entretenimento.
- Principalmente aqueles vídeos de humor que viralizam.
- O tom emocional, conforme avaliado pela IA, também mudou: passando de neutro ou raivoso para predominantemente alegre.
- O estudo também identificou que o viés de popularidade existe, mas somente nos primeiros vídeos da cadeia de recomendação.
- Ou seja, os vídeos com mais visualizações, curtidas e comentários costumam aparecer primeiro.
- Mas, conforme o tempo passa (e você continua rolando os dedos pela tela), começam a aparecer vídeos mais “alternativos”.

Isso quer dizer que o YouTube não te quer politizado?
A resposta é não. Não necessariamente. A pesquisa americana não chegou a essa conclusão. Um dos autores, porém, disse acreditar que esse comportamento do algoritmo não teria a ver com uma questão política, mas sim de audiência.
“O que o YouTube está tentando fazer é tirar você daquela área ou tópico e empurrá-lo para um tópico mais agradável, para que possa aumentar o engajamento e gerar mais receita”, afirmou o pesquisador Mert Can Cakmak.
Ou seja, para ele, o YouTube não quer ser politicamente correto. Ele quer apenas que você continue “preso” dentro do Shorts – e o algoritmo entende que os vídeos de entretenimento costumam segurar mais as pessoas.

Vale destacar que essa avaliação é dos autores do estudo. Nem YouTube nem o Google (a empresa controladora) se manifestaram oficialmente sobre o assunto.
Você pode ler o artigo na íntegra no servidor de pré-impressão arXiv.
As informações são da Fast Company.
Bing News