lunes, 30 de mayo de 2011
Cómo utilizar el. Htaccess Para Mantener Los spammers a cabo
Cómo utilizar el. Htaccess Para Mantener Los spammers a cabo
Contar palabras:
1136
Resumen:
Los spammers tienen un don para el desarrollo "reemplaza" incluso el aspecto más segura del sistema, incluidas las que no son
fácilmente reconocidas como posibles objetivos. El archivo htaccess. Puede ser usado para mantener recolectores de e-mail de
distancia. Esto se considera muy eficaz ya que todas estas cosechadoras llegar a identificarse de alguna manera con los archivos de
agente de usuario que da. Htaccess la capacidad para bloquearlas.
Spam contrarrestada por. Htaccess
contra los robots malos son las arañas que se c. ..
Palabras clave:
Internet, SEO, Internet Negocios, Tecnología, correo no deseado
Cuerpo del artículo:
Los spammers tienen un don para el desarrollo "reemplaza" incluso el aspecto más segura del sistema, incluidas las que no son
fácilmente reconocidas como posibles objetivos. El archivo htaccess. Puede ser usado para mantener recolectores de e-mail de
distancia. Esto se considera muy eficaz ya que todas estas cosechadoras llegar a identificarse de alguna manera con los archivos de
agente de usuario que da. Htaccess la capacidad para bloquearlas.
Spam contrarrestada por. Htaccess
contra los robots malos son las arañas que se consideran para hacer mucho más daño que bien a un sitio como un recolector de correo
electrónico. destripadores del sitio son los programas de navegación fuera de línea que un internauta puede desencadenar en un sitio
para rastrear y descargar cada una de sus páginas para verlas sin conexión. En ambos casos se daría lugar a un secuestro de ancho de
banda de un sitio y el uso de recursos, incluso hasta el punto de estrellarse el servidor del sitio. Puesto que los robots malos
normalmente ignoran los deseos de los robots.txtfile 'que se les puede prohibir el uso del htaccess. Esencialmente mediante la
identificación de los robots malos.
Hay un bloque de código útil que puede ser insertado en el archivo. Htaccess para bloquear muchos de los robots malos conocidos y
desgarradores sitio actualmente existentes. contra los robots de afectados recibirán un error 403 Forbidden cuando intenta ver un
sitio protegido. Esto usualmente resulta en un ahorro de ancho de banda importante y disminución en el uso de recursos del servidor.
Ancho de banda de robo o lo que comúnmente se conoce como hot linking en la web de la Comunidad se refiere a la vinculación directa
a los objetos que no sean HTML que no están en un propio servidor, tales como imágenes y archivos CSS. servidor de la víctima es
despojada de ancho de banda y el dinero como el autor disfruta mostrando contenido sin tener que pagar por su entrega.
Caliente ligarse a un propio servidor puede ser anulado con el uso de. Htaccess. Los que se intenta vincular una imagen o un archivo
CSS en un sitio protegido o bloqueado o se sirve un contenido diferente. Siendo bloqueado por lo general significa un error en la
solicitud en la forma de una imagen dañada, mientras que un ejemplo de un contenido diferente sería una imagen de un hombre enojado,
presumiblemente para enviar un mensaje claro a los violadores. Es necesario que el Ministerio de Defensa reescribir está habilitado
en una de servidor para que este aspecto de. Htaccess para trabajar.
Deshabilitar caliente vinculación de ciertos tipos de archivos en un sitio que necesita un código para el archivo. Htaccess que será
cargado en el directorio raíz o un subdirectorio determinado, para localizar el efecto de una sola sección del sitio. Un servidor se
establece normalmente para prevenir lista de directorios. Si este no es el caso, el vínculo necesario se debe almacenar en los
archivos. Htaccess del directorio de la imagen para que nada en este directorio podrán ser listados.
El archivo htaccess. También es capaz de proteger con contraseña de forma fiable los directorios de sitios web. Otras opciones se
pueden utilizar, pero sólo. htaccess ofrece total seguridad. Cualquier persona que desee entrar en el directorio debe conocer la
contraseña y no hay "puertas traseras" se proporcionan. La protección por contraseña usando. htaccess requiere la adición de los
enlaces que se aproximan a la htaccess. en el directorio que está siendo objeto de protección.
Protegiendo un directorio es una de las funciones de. Htaccess que toma un poco más de trabajo que los demás. Esto se debe a un
archivo que contiene los nombres de usuario y contraseñas que se les permite tener acceso al sitio tiene que ser creado. Se coloca
en cualquier lugar dentro del sitio web, aunque es recomendable guardarlo fuera de la raíz web, de modo que no se puede acceder
desde la web.
Las prácticas recomendadas para desalentar Spam
Evitar la publicación de los referentes es una manera de disuadir a los spammers. No tendría sentido que preocuparse de enviar
peticiones imitan a los blogs cuando esta información no se conoce. Desafortunadamente, la mayoría de los bloggers creen que ser
capaz de hacer clic en un enlace como "sitios de referencia para mí" y similares es una característica interesante y no han evaluado
su efecto perjudicial en la blogosfera entera.
Si se publica en los referentes es una necesidad definida, debe haber un soporte integrado para una lista negra de spam de
referencia e incluir la página en el archivo robots.txt. En concreto, indica a Googlebot y sus familiares no indexar la página del
remitente. De esta manera, los spammers no pueden obtener la página rango que buscan. Esto sólo funcionaría sin embargo, cuando los
referentes se publican por separado de los restos de los contenidos del sitio.
El uso de rel = "no seguir" también niega a los spammers de su rango de página deseado en el nivel de enlace y no sólo el nivel de
página mediante robots.txt. Todos sección remitente vínculo de la página web de enlaces a sitios web externos debería llevar a este
atributo. Esto se hace, sin excepción, con el fin de ofrecer la máxima protección.
Referente estadísticas se reunieron a partir de imágenes faro de carga a través de documento de JavaScript, escribir frases que son
más fiables que lo que el servidor web de troncos sin procesar se contienen. Hay una opción de ignorar completamente la sección del
remitente de servidor de un sitio de los registros. Una lista más clara de los referentes se desprende de la utilización de
JavaScript y las imágenes faro de estadísticas referencia.
La corriente principal del archivo de lista negra puede ser un arma potente y eficaz contra el spam. Un programa de análisis de
archivo de registro que los filtros de los referentes en contra de esta lista puede ayudar a erradicar el spam. La lista negra
Master es un simple archivo de texto que puede ser descargado de un sitio web o simplemente refleja. Está lejos de ser perfecto ya
que un cheque en el expediente contra los remitentes que se muestra a través de que pocos o ninguno de ellos se enumeran.
La idea de la lucha contra el spam en los comentarios mediante el aprovechamiento de las listas de negro basado en DNS orificio
podría utilizarse también para descubrir otras formas de spam como el spam de referencia. La propuesta es en realidad bastante
simple y sugiere consultar el período de investigación en contra de una "lista negra" de una solicitud con una referencia. Si el
período de investigación es la lista negra o tiene un alto puntaje entre una multitud de "lista negra", la lista de las URL de
referencia en cualquier sección de estadísticas web de un sitio debe ser abstuvo de. Una vez que un sitio determinado ha sido
identificado como un nombre de referencia de acogida de spam, consultar la lista negra de nuevo por cualquier IP con el mismo nombre
de host en la petición HTTP que no debe hacerse como una cuestión de eficiencia.
Hay varias formas de spam que ha crecido de manera exponencial, junto con la popularidad de los blogs. Esto es probablemente debido
a las restricciones muy poco que se señalan para los que se puede publicar un comentario. Esto es fácilmente explotada por spammers
que están decididos a llevar sus productos al frente de vista de la gente. Los spammers han automatizado las herramientas en un
constante acecho de los blogs que pueden ser correo basura. Spamming en todas sus formas, llevar a graves consecuencias para
aquellos que tratan de utilizar el Internet y la World Wide Web de una manera productiva.