Muitos donos de sites e agências buscam trabalhar com sites de alta qualidade para fazer site bom para o Google, afinal, ter bons posicionamentos é garantia de pelo menos muitos acessos e visibilidade para usuários de todo o Brasil, e dependendo do nicho de mercado, quem sabe para o mundo todo. Essa é a terceira e última seção do Google Academy, que ensina como fazer site de qualidade para boa indexação.
Você pode ler também o módulo 1 que fala sobre como criar site para Google e também o módulo 2 que aborda como fazer SEO de forma correta, escolhendo bons profissionais do ramo.
Sempre acompanhe a lista de erros de acessos do Googlebot. Essas informações estão sempre disponíveis no Google Webmasters Tools, que é capaz de indicar datas precisas quando o robô tiver dificuldades ao acessar algumas ou todas as páginas de seu site. Os erros mais comuns são:
Essas são apenas algumas das recomendação básicas e iniciais na hora de pensar em fazer um site bom para Google, que seja amigável. Os bons posicionamentos só acontecem com o tempo, e principalmente com auxílio de um analista de SEO. Contrate Paulo Sebin para fazer projeto de SEO em seu site. Produza conteúdos de qualidade para que a sua reputação aumente. Divulgue seu site na rede. Quanto mais pessoas o conhecerem, maiores são as chances de outras pessoas criarem links para o seu negócio online.
Você pode ler também o módulo 1 que fala sobre como criar site para Google e também o módulo 2 que aborda como fazer SEO de forma correta, escolhendo bons profissionais do ramo.
Módulo 3: Faça site bom para Google com alta qualidade
A primeira coisa que temos com que preocupar é se o site está de fácil indexação para o mecanismo de pesquisa. Às vezes o site pode funcionar bem nos navegadores mas apresenta outro comportamento para os robôs de busca. Existem muitas maneiras para se descobrir se realmente as páginas estão com sendo indexadas corretamente.3.1 - Saiba como o Google está indexando suas páginas
- Comando cache: no campo de busca do Google digite cache: seguido pela URL da página a ser verificada. O resultado será uma cópia que o Google armazenou caso tenha indexado. No lado direito superior acesse o link "Versão somente texto". Isso fará com que seja exibido apenas os textos indexados. Compare com a versão real da página e verifique se todos os textos estão realmente guardados em cache. Caso contrário, aplique melhorias de HTML para corrigir esse problema
- Buscar como Google: esse comando está dentro da sua conta do Google Webmaster Tools. Caso seu site ainda não tenha uma conta configurada, saiba por que é importante instalar e configurar em seu site. Ele mostra todo o código fonte que o mecanismo consegue ler. Basta pegar o código fonte de seu site e comparar com a versão lida pelo Google. Se houver muitas divergências, separe as diferenças e estude na programação como resolver partes não indexáveis para os robôs de pesquisa.
- BrowSEO: essa é uma ferramenta online que simula como os robôs fazem captura de páginas, eliminando por exemplo efeitos de CSS no seu navegador. É uma opção interessante por que você consegue visualizar de forma limpa e otimizada toda essa leitura.
3.2 - Acompanhe erros de rastreamento
- Erros do site: são problemas internos no site que impedem o acesso do robô e geralmente os usuários também não conseguiriam acessar. O servidor pode estar com problemas ou não suportando vários acessos simultâneos. É necessário melhorar a memória e resposta do servidor para que esse tipo de problema não venha a acontecer.
- Erros de URL: quando alguma coisa bloqueia o acesso do robô ou há link quebrado, ou seja, um link de uma página não está funcionando e o Google tenta rastrear mas não consegue exatamente por que o link indicado não existe mais.
- Erro 404: páginas podem ser apagadas para adequações, certo? Nesse caso é necessário que quando o usuário tentar acesso a uma página inexistente, deverá aparecer uma página personalizada e ideal para navegação, para que o usuário possa ter a oportunidade de continuar a navegação.
3.3 - Como está a segurança e qualidade do seu site?
Esse é um caso cada vez mais levado a sério no Google. Sites que foram invadidos por hacker ou tenha entrado em lista de spam perdem a relevância. O Webmasters Tools tem recursos que monitoram esses tipos de problemas.
- Ataque de hacker ou malwares: se o Google identificar a presença de malware em seu site, que são programas maliciosos com vírus ou que manipulam o funcionamento das páginas para prejudicar usuários, logo é indicado no Webmasters Tools e se o problema não for corrigido, logo perderá a relevância.
- Melhorias de HTML: O Google dá sugestões de como melhorar o site evitando tags duplicadas ou quando essas tags são de baixa qualidade.
- Remova páginas do índice: se você bloqueou via Robots.txt algumas páginas já indexadas por serem de baixa qualidade, o ideal é pedir via Webmaster Tools a remoção delas nos índices de pesquisa. Isso evita páginas lixo no mecanismo.
Comentários
Postar um comentário