Robots.txt é um editor visual para exclusão Robot Arquivos e um software analisador de log. Ele permite que um usuário para criar os arquivos robots.txt necessários para instruir mecanismo de busca, que são partes de um site não estão a ser indexados e pesquisáveis pelo público em geral Web de forma rápida e facilmente e, em seguida, para identificar aranhas, o que não fazer manter a essas instruções. O programa oferece ao usuário uma maneira de registrar em seu servidor FTP ou rede local e, em seguida, selecione os documentos e diretórios que não são para ser feitos pesquisáveis. Por meio deste programa você será capaz de gerar visualmente indústria arquivos robots.txt padrão; identificar aranhas maliciosos e indesejados e bani-los do seu site; motor de pesquisa indexadores diretos para as páginas apropriadas para sites multilíngües; manter aranhas fora de zonas sensíveis e privadas de seu site; controlar as visitas de aranha e muito mais. Program`s atualizações e upgrades livre irrestrito no tempo; . número ilimitado de sites da Web para trabalhar com
Requisitos :
Windows 98 / Me / NT / 2000 / XP / Server 2003
Comentários não encontrado