Nos momentos que ofereço cursos ou pequenas palestras relacionado a SEO, sempre surge pequenas dúvidas relacionadas a indexação do Google. Como é feito? Como funciona? O que é o robox.txt?
E mesmo sendo um assunto específico da área de SEO, a indexação na verdade se trata da base de estruturação do marketing digital como um todo do Ecommerce. Ou seja, se seu ecommerce não é visto corretamente pelo Google que é uma mídia de alto nível de aquisição e faturamento, quem dirá de outras mídias.
É interessante pensar que a partir da aquisição orgânica em um site, esse acesso que foi gerado pelos buscadores acaba fomentando outras mídias de marketing e qualificando usuários para compra. Por exemplo, um usuário pode ter entrado organicamente não efetuou a compra do produto ou serviço mas obteve um engajamento com a marca, entrou em uma lista de remarketing no Google Ads, curtiu a fan page no Facebook, se cadastrou na lista de emails e etc. Ou seja, a aquisição organica acaba fomentando e fortalecendo outras mídias com grande potencial de faturamento.
E se a aquisição orgânica em geral auxilia nas mídias em geral do site, consequentemente uma indexação de qualidade com certeza também ajuda.
A problemática da indexação do Ecommerce
A partir do momento que começamos a trabalhar com SEO e pensar em indexação do Google, logo pensamos em sitemap e robots. Ou seja, os arquivos base de comunicação sobre a arquitetura do site. Um de certa forma mostra o que os buscadores devem indexar para aparecer nos resultados de busca, e o outro auxilia os buscadores a ter um melhor entendimento sobre a arquitetura em geral do Ecommerce. Arquivos essenciais em qualquer site de qualquer setor e área.
A grande questão que grande parte dos ecommerces nem possui esses arquivos configurados de forma adequada. Na verdade grande parte nem sabem que eles existem, nem ao menos conhecem. Na minha visão totamente crítico essa visão no Brasil.
Arquivos simples e fáceis de configurar que geram grandes resultados a longo prazo não possuem grande atenção.
Por isso, você que está lendo esse artigo recomendo muito de alguma forma se você possui um Ecommerce, analisar como estão seus arquivos de leitura do Google, robots e sitemap.
Mas você agora deve estar pensando: Ok beleza, realmente interessante, mas se é tão importante e essencial assim, porque a gente não ouve falar tanto, porque os especialistas de marketing não comentam de forma profunda sobre isso. Bom, aqui vai minha teoria, para ter um entendimento de resultados desse arquivos é necessário ter conhecimento tecnico de TI, ou seja, entender da semantica dos arquivos como também ter uma visão de marketing clara de como configurar esses arquivos para o Google gerar mais resultados.
O marketing digital como um todo funciona dessa forma mas especificamente em SEO se tem uma mais importância esses fatores. É necessário ter conhecimento interdisciplinar sobre alguns fatores tecnicos de TI como também configurações em plataforma de marketing como o Google Search Console
Estudo de caso real sobre problemas de indexação em um Ecommerce
Estava eu começando a trabalhar em um grupo de empresas que possuem vários Ecommerce ao redor do mundo e é claro como toda multinacional de respeito tínhamos grandes metas. Tínhamos que gerar milhões de reais, dolares por mês, dependendo da região e país.
Enfim, antes de eu entrar na empresa já tinha começado por volta de um ano um Ecommerce em um novo país. E simplesmente ninguém entendia como o Ecommerce não gerava resultados, não gerava vendas, as pessoas não compravam, as metas estavam totalmente no vermelho.
E como todo um profissional de SEO metódico fui começando a fazer as integrações primeiramente com as ferramentas de SEO, Google Analytics, Google Search Console, GTM e etc… E quando fui verificar o arquivo Robots.txt estava com a seguinte semântica:
User-agent: *
Disallow: /
E o que realmente significa isso? significa simplesmente para bloquear todas as páginas do site para todos os buscadores.