Afinal, como funciona o algoritmo do Google?

Oscar Sigaki

Oscar Sigaki

Engenheiro formado pela FEI, com MBA em Gestão de Negócios pela FGV e Professor de Pós-Graduação no curso de Marketing Digital na UMC. Já foi responsável pelo marketing de performance em projetos como Vivo, Smiles, Kroton, entre outros. Hoje é sócio e COO da Hubify.

5 minutos de leitura

Se tem algo para o qual você precisa atentar ao trabalhar o marketing digital da sua empresa, é o SEO. O Search Engine Optimization é o que fará seu site e seu blog ficarem posicionados nas pesquisas e aumentará a chance de atrair visitantes. Para alcançar esse objetivo, você precisa entender o algoritmo do Google.

Ele é o responsável por analisar e classificar as páginas para apresentar os resultados mais relevantes da busca. Por isso, o Google crawler é tão importante. Por outro lado, desvendá-lo é mais complexo do que parece. Nem todas as variáveis são apresentadas e, muitas vezes, parece que o trabalho é feito “no escuro”.

Já teve essa sensação? Então, que tal deixá-la de lado e aprender mais sobre o algoritmo? É só ler esse conteúdo.

O algoritmo do Google

Os algoritmos são sequências de ações executáveis que busca a solução para um problema. No caso do Google, o objetivo é ler os conteúdos das páginas da internet, indexá-las, verificar quais são as mais relevantes e apresentá-las na página de resultados do buscador (SERP).

Para realizar esse processo, existe um crawler, ou seja, um software que salva as páginas da web em sua base de dados, exceto as que bloqueiam o acesso ou estão em desacordo com o comando interno. Esse é o trabalho do Googlebot.

O que ele faz é rastrear todo o conteúdo da internet e adicionar um a um ao índice do Google. A partir disso, é feita uma análise de diferentes variáveis, como título, URL e texto. O resultado é uma classificação das informações disponíveis.

O objetivo é trazer um conteúdo relevante, útil e de qualidade para o usuário. Por isso, o crawler do Google está em constante atualização para se tornar mais exigente e complexo.

Os principais fatores usados para definir a relevância das pesquisas

A organização do conteúdo feito pelo algoritmo do Google funciona como uma espécie de biblioteca virtual. No momento da pesquisa por uma palavra-chave, a ideia é oferecer uma correspondência instantânea.

É aqui que entra o SEO. Quando o conteúdo é bem trabalhado, seu site fica bem ranqueado e fica nos primeiros resultados da SERP.

Isso é importante, porque atrai mais visitantes para o seu site ou seu blog. Para ter uma ideia, uma pesquisa da Hubspot indica que 75% dos usuários acessam os resultados apenas da primeira página. O que fica além disso, é pouco acessado — a cada página que passa, os resultados caem.

Como fazer para trabalhar o algoritmo do Google a seu favor? É preciso entender que, qualquer que seja a atualização, existem três fatores que interferem na análise de relevância.

Rastreamento

crawling é o processo de mapear tudo que está na internet e adicionar os conteúdos à base de dados do Google. O rastreamento ocorre de maneira contínua, porque o Googlebot busca novas URLs a serem indexadas.

A partir do momento que elas forem encontradas, o crawler do Google segue um novo caminho. Por isso, é fundamental garantir que seu site e seu blog sejam encontrados.

Como fazer isso? A resposta está em ter códigos e conteúdos passíveis de leitura e indexação. Há várias regras aqui. Uma delas é evitar o uso de flash, já que essa linguagem de programação é impossível de rastrear.

O foco é trabalhar com HTML e manter o código simples e limpo. Isso facilita o acesso do conteúdo pelo algoritmo.

Indexação

Essa segunda etapa também acontece de maneira ininterrupta. Assim que o crawler do Google encontra URLs novas, elas são indexadas ao banco de dados. Esse processo ainda inclui a organização dos conteúdos de acordo com sua relevância para o usuário.

Nesse momento,  que interessa é o conteúdo, porque a página é vista dessa forma pelo algoritmo. Caso queira ter uma ideia de como funciona, basta fazer qualquer pesquisa no Google, acessar a versão em cache e clicar em “versão somente texto”.

O que vale mesmo, nesse momento, é atentar à palavra-chave. É ela que vai mostrar qual a relevância do seu conteúdo. Por isso, invista nas boas práticas, como o Latent Semantic Index (LSI), a famosa semântica.

E-book SEO onpage

A partir das keywords, os conteúdos serão organizados e apresentados ao usuário. Quando ele pesquisar um termo específico, o algoritmo já apresentará todos os resultados relacionados.

Ranqueamento

A próxima etapa é entender como os resultados são ranqueados. Afinal, depois de todo esse trabalho, é impossível deixar a ordem de entrega aleatória, certo?

O foco é reunir todos os conteúdos que respondem ao questionamento e classificá-los de acordo com sua relevância. O trabalho do SEO, portanto, é mais concentrado nesse ponto.

Quais são as variáveis consideradas pelo Google algorithm para fazer o ranqueamento? Algumas delas são:

  • velocidade de carregamento das páginas;
  • responsividade;
  • usabilidade;
  • qualidade dos backlinks;
  • taxa de cliques na SERP;
  • tempo de permanência;
  • uso das palavras-chave.

Perceba que todos esses elementos podem ser respondidos com três palavras: experiência do usuário. A ideia é torná-la melhor.

Para chegar a esse resultado, o Google usa modelos linguísticos para encontrar as palavras esperadas pela pesquisa. Parece simples, certo? No entanto, o LSI faz com que essa atividade seja bastante complexa.

O algoritmo do buscador precisa entender erros de digitação, qual é o tipo de consulta — aqui, é usado o Processamento da Linguagem Natural (PNL) —, quais são os sinônimos etc.

Hoje, se a palavra-chave é “usar o sapato”, o Google entende como sinônimos “uso do sapato”, usar o calçado”, “uso do calçado”, “utilizar o sapato”, “utilização do sapato”, “utilizar o calçado”, “utilização do calçado”, “usar sapato”, “usar calçado” e por aí vai.

Viu como é possível variar a mesma palavra-chave, mesmo ela sendo simples? O algoritmo do Google também considera as categorias de informação, se a pesquisa é muito específica — por exemplo, uma consulta sobre horário de funcionamento —, se existe alguma empresa perto da sua casa etc.

Todos esses dados mostram que o Google crawler e o algoritmo são cada vez mais exigentes e complexos. Isso porque eles sofrem updates frequentes, a fim de fornecer o melhor resultado.

As atualizações mais recentes do algoritmo do Google

A melhoria da experiência do usuário é complexa e o algoritmo precisa entender isso. Ninguém sabe exatamente como o Google funciona, porque as atualizações são enormes — a previsão é de que sejam feitas mais de 500 por ano.

Então, como trabalhar o SEO? O ideal é sempre pensar no usuário e acompanhar os grandes updates. Além disso, fazer testes é essencial, já que o público de uma empresa é diferente do de outra. Isso significa que o que surte efeito para uma pesquisa, pode não ter resultados positivos para outra.

Entre as principais atualizações do algoritmo do Google, estão:

  • Panda (2011): o Google puniu conteúdos de baixa qualidade, o que levou a um impacto de 12% nos resultados da busca;
  • Penguin (2012): o foco foi impedir o black hat, ou seja, formas de ludibriar o algoritmo. O impacto foi em 3% dos resultados;
  • Hummingbird (2013): o objetivo foi aprimorar os resultados. Foi inserido o campo semântico nas pesquisas;
  • Pigeon (2014): o trabalho foi a apresentação de resultados de busca local. O impacto foi significativo. A estimativa foi de que metade dos sites caíram na SERP, enquanto os pequenos e médios ganharam força;
  • Mobilegeddon (2015): os sites responsivos passaram a ficar mais bem posicionados na SERP;
  • RankBrain (2015): a inteligência artificial e o machine learning passaram a ser usados para entender a busca do usuário.

Em 2019, vários foram os updates do algoritmo. A mais recente, efetivada em novembro de 2019, e de maior impacto é a Bidirectional Encoder Representatios from Transformers (BERT). Essa é uma tecnologia de rede neural que melhorou o processamento de linguagem natural.

Para entender melhor, veja o exemplo da pesquisa pela palavra-chave “2019 brazil traveler to USA need a visa“, ou “2019 brasil turista para EUA precisa de visto”. A palavra “to” (para) é importante para entender que o turista é do Brasil e vai para os Estados Unidos.

No entanto, antes da BERT, o algoritmo do Google não entendia essa relação e trazia resultados sobre americanos com interesse em voltar para o Brasil. Agora isso não vai mais acontecer. Outras atualizações recentes são:

  • core: ocorrida em 24 de setembro de 2019, impactou sites já afetados por outros updates, mas não foram fornecidas mais informações;
  • site diversity: aconteceu em 6 de junho de 2019 para melhorar os sites com mais de duas listas orgânicas. O impacto foi pequeno, mas melhorou de 3 a 5 sites duplicados na primeira página;
  • core update: realizada em 3 de junho de 2019, foi um começo da mudança de setembro. Alguns sites relataram um impacto maior;
  • indexing bugs: foi feita em 23 de maio de 2019 para melhorar os bugs de indexação. O primeiro impedia novos conteúdos de serem indexados de forma apropriada. Agora foi resolvido.

Com essas informações, fica mais fácil entender o crawler e seu processo de indexação. O mais importante, porém, é compreender o trabalho do algoritmo do Google para deixar seu site mais bem posicionado e atrair visitantes.

Gostou de entender melhor esse funcionamento e quer implantar o marketing de performance? Siga nossos perfis nas redes sociais e receba as principais informações! Estamos no Facebook, Instagram e LinkedIn.

Posts Relacionados