YouTube não quer que você assista Shorts de política, diz estudo

Publicado em: 18/07/2025 05:45

Eu sei que você já perdeu uma tarde inteira de domingo vendo vídeos no celular. O movimento dos dedos é quase automático. O cérebro nem pensa mais direito. Você só sorri para alguns conteúdos – e manda os melhores para os seus amigos, ou familiares, ou para o seu par romântico.

No Brasil, é muito provável que você faça isso nos Reels do Instagram ou no próprio TikTok. Em outros países, porém, a plataforma mais forte é o YouTube Shorts.

Estimativas apontam que, no mundo todo, as pessoas entregam diariamente 200 bilhões de views somente dentro do Shorts. É como se cada um dos 8 bilhões de humanos na Terra assistisse a 25 vídeos curtos por dia!!!

E o conteúdo é o mais variado possível – com as linhas invisíveis do algoritmo por trás. É claro que os primeiros vídeos são escolhidos pelos próprios usuários. Tudo que vem depois, porém, recebe algum tipo de influência.

O que sempre acreditamos é que o algoritmo entregava exatamente aquilo que queríamos, moldado pelos nossos gostos. Um novo estudo da Universidade Cornell, nos Estados Unidos, no entanto, mostra que a história não é bem assim. De acordo com os pesquisadores, o Shorts não quer que você assista conteúdo politicamente sensível.

O Youtube é um dos aplicativos mais populares do mundo, mas perde em número de downloads para o TikTok – Imagem: Photo Agency/Shutterstock

O que diz o estudo

  • Os cientistas monitoraram mais de 680 mil vídeos do Shorts e pediram ao ChatGPT que os classificasse por tópico, relevância e tom emocional.
  • Eles, então, escolheram três temas distintos, dois deles políticos: a disputa no Mar da China Meridional, as eleições de 2024 em Taiwan e uma categoria “geral” mais ampla.
  • Ao todo, assistiram a mais de 2.100 vídeos iniciais sobre os temas acima e, na sequência, seguiram 50 recomendações sucessivas.
  • Os pesquisadores perceberam que quando o engajamento começou com temas politicamente sensíveis, o algoritmo rapidamente direcionou os usuários para um conteúdo mais focado em entretenimento.
  • Principalmente aqueles vídeos de humor que viralizam.
  • O tom emocional, conforme avaliado pela IA, também mudou: passando de neutro ou raivoso para predominantemente alegre.
  • O estudo também identificou que o viés de popularidade existe, mas somente nos primeiros vídeos da cadeia de recomendação.
  • Ou seja, os vídeos com mais visualizações, curtidas e comentários costumam aparecer primeiro.
  • Mas, conforme o tempo passa (e você continua rolando os dedos pela tela), começam a aparecer vídeos mais “alternativos”.
Rostos de Harris e Trump desfocados, com a frase 2024 Presidential Election sendo exibida à frente em um smartphone
De acordo com o estudo, o algoritmo não te deixa muito tempo apenas em temas politicamente sensíveis – Imagem: QubixStudio/Shutterstock

Isso quer dizer que o YouTube não te quer politizado?

A resposta é não. Não necessariamente. A pesquisa americana não chegou a essa conclusão. Um dos autores, porém, disse acreditar que esse comportamento do algoritmo não teria a ver com uma questão política, mas sim de audiência.

“O que o YouTube está tentando fazer é tirar você daquela área ou tópico e empurrá-lo para um tópico mais agradável, para que possa aumentar o engajamento e gerar mais receita”, afirmou o pesquisador Mert Can Cakmak.

Ou seja, para ele, o YouTube não quer ser politicamente correto. Ele quer apenas que você continue “preso” dentro do Shorts – e o algoritmo entende que os vídeos de entretenimento costumam segurar mais as pessoas.

imagem mostra uma mulher sentada em frente a um laptop enquanto mexe em seu celular
É sempre assim: você para pra assistir a um vídeo ou outro e, quando percebe, já se passaram muitos minutos – Imagem: Vitaly Gariev/Unsplash

Vale destacar que essa avaliação é dos autores do estudo. Nem YouTube nem o Google (a empresa controladora) se manifestaram oficialmente sobre o assunto.

Você pode ler o artigo na íntegra no servidor de pré-impressão arXiv.

As informações são da Fast Company.



Bing News

Compartilhar

Faça um comentário