Já ouviu falar sobre o Robots.txt? Podemos definí-lo como um arquivo .txt (bloco de notas) que basicamente é um filtro para que os robôs dos sites buscadores possam realizar seus acessos e buscas. Através do robots.txt é possível bloquear algumas páginas no qual não deseja que sejam indexadas e apresentadas nos sites buscadores.
Atualmente, o Robots.txt é gerado automaticamente pela plataforma Tray, porém se desejar poderá incluir um arquivo próprio, para que assim possa “bloquear” o acesso de tais robôs a certas páginas. Ou seja, se deseja que a página X e Y não sejam indexadas e apresentadas nos sites buscadores como o Google, será através do arquivo robots.txt que será feito tal “restrição”.
É importante lembrar que algumas páginas das lojas virtuais Tray já vêm “bloqueadas” através do arquivo que é gerado automaticamente, páginas como carrinho, checkout, entre outras. Neste link você verá como criar o robots.txt, e até mesmo a uma ferramenta para testar seu arquivo.
Caso tenha optado por utilizar um arquivo robots.txt próprio, deverá acessar "Configurações> Em "SEO" clique em "Robots:
No centro da tela, haverá a opção para subir seu arquivo. Mas lembre-se que se criado de maneira incorreta, o robots.txt poderá influenciar negativamente na indexação de sua loja:
O arquivo robots.txt gerado automaticamente pela plataforma Tray possui todas as configurações necessárias, permitindo assim o acesso dos Robôs às páginas de produtos, home, institucional entre outras, como também a restrição de acesso conforme mencionado acima à página de login, registro, checkout, carrinho dentre outras. É possível evitar o trabalho de criar um arquivo próprio apenas por utilizar o já existente, e é claro, isto também evita que possíveis erros como não indexar a Home, ou mesmo não indexar páginas de produtos dentre outros aconteçam.
Boas Vendas!
Equipe Tray.