Django-Robots

Solicitud de exclusión de robots para Django, complementarios Mapa del sitio.
Descargar ahora

Django-Robots Clasificación y resumen

Anuncio publicitario

  • Rating:
  • Licencia:
  • BSD License
  • Precio:
  • FREE
  • Nombre del editor:
  • Jannis Leidel
  • Sitio web del editor:
  • http://github.com/jezdez/

Django-Robots Etiquetas


Django-Robots Descripción

solicitud de exclusión de robots para Django, complementando Sitemaps. django-robots es una aplicación Django básico para gestionar archivos robots.txt siguiendo el protocolo de exclusión de robots, complementando la aplicación de exclusión de robots Django mapa del sitio contrib app.The consta de dos modelos de base de datos que se atan juntos con una relación M2M: * Reglas * URLsInstallationGet la fuente del sitio de aplicación en: http: //code.google.com/p/django-robots/To instalar la aplicación mapa del sitio, siga estos pasos: 1. Siga las instrucciones en el archivo 2 archivo INSTALL.txt. Añadir 'robots' a su setting.3 INSTALLED_APPS. Asegúrese 'django.template.loaders.app_directories.load_template_source' está en la configuración de TEMPLATE_LOADERS. Es allí de forma predeterminada, por lo que sólo tendrá que cambiar esto si ha cambiado de que setting.4. Asegúrese de que ha instalado los sitios framework.InitializationTo activan la generación de robots.txt en su sitio Django, añadir esta línea a tu URLconf: (r '^ $ robots.txt', include ( 'robots.urls')), Esto le dice Django para construir un robots.txt cuando un robot accede /robots.txt. Entonces, por favor sincronizar su base de datos para crear las tablas necesarias y crear objetos de Regla en la interfaz de administración oa través de la shell.RulesRule - define una regla abstracta que se utiliza para responder a gatear robots web, utilizando el protocolo de exclusión de robots, también conocido como robots.txt Usted puede vincular patrón de URL múltiple para permite o no el robot identificado por su agente de usuario para el acceso se apoya el campo de retardo de rastreo URLs.The propuesta por algunos motores de búsqueda y define el retardo entre accesos de cadenas sucesivas en segundos. Si la tasa de rastreador es un problema para su servidor, puede configurar el retardo hasta un 5 o un 10 o un valor cómodo para su servidor, pero se sugiere comenzar con valores pequeños (0,5-1), y aumentar según sea necesario a un nivel aceptable valor por su servidor. valores de retardo más grandes añaden más retraso entre accesos de arrastre sucesivos y disminuyen la frecuencia de rastreo máxima a su web sitios marco server.The se utiliza para activar robots.txt múltiple por cada instancia de Django. Si existe ninguna regla que automáticamente permite que cada robot de la red de acceso a todos los URL.Please echar un vistazo a la base de datos de robots web para obtener una lista completa de los robots web existentes agente de usuario strings.URLsUrl - define un patrón de URL mayúsculas y minúsculas y que es exacta se utiliza para permitir o no permitir el acceso de los robots web. Caso-sensitive.A barra de arrastre no faltan también coincide con los archivos que comienzan con el nombre del patrón dado, por ejemplo, '/ admin' coincidencias /admin.html too.Some principales motores de búsqueda permiten un asterisco (*) como comodín para partido cualquier secuencia de caracteres y un signo de dólar ($) para que coincida con el final de la URL, por ejemplo, '/*.jpg$' se puede utilizar para que coincida con todos jpeg files.CachingYou opcionalmente puede almacenar en caché la generación del archivo robots.txt. Agregar o cambiar la configuración ROBOTS_CACHE_TIMEOUT con un valor en segundos en el archivo de configuración de su Django: ROBOTS_CACHE_TIMEOUT = 60 * 60 * 24This le dice a Django en caché el robots.txt durante 24 horas (86.400 segundos). El valor predeterminado es Ninguno (sin almacenamiento en caché). Requisitos: · Django · Python


Django-Robots Software relacionado