|
|
Moderador del foro: ZorG |
Foro uCoz Otro Comunicación entre los usuarios Derechos de autor: problema |
Derechos de autor: problema |
Buenas, me ha surgido una duda, estaba pensando en añadir archivos desde mi pc a la pagina cuando me empece a hacer preguntas sobre la proteccion de dichos archivos, en fin, el problema es:
Tengo miedo de que cuando suba algun archivo personas malas copien dichos archivos o apartir de ellos creen otros similares para beneficiarse, en eso, se me ocurrio que hay derechos de autor que prohiben eso, pero como no conosco dichas leyes y demas no puedo hacer nada, porfavor, alguien me podria orientar en esto, es decir, que me digan como puedo proteger mis archivos para que nadie los copie (de todas las maneras posibles) y puedan utilizarlos en un futuro sin mi autorización. Atte. Maxi |
Ahi muchas formas de proteger tus archivos pero es imposible impedir que los demas te copien. Si no tienes muchas visitas no creo que te copiara alguien pero si lo hace trata de denunciarlo a Google y hablar con el que te copie.
Saludos. |
Yo uno no conosco ninguna ley sobre este tipo pero seguromente que ahi. Pero de momento puedes examinar cual de esta si te conviene: http://creativecommons.org/
Voy a examinar un poco sobre el tema y te dejare un respuesta mas clara ok. Saludos. |
Mira te puedo recomendar un articol sobre el enlace que te deje en un blog bastante importante en el mundo hispano,
http://www.maestrosdelweb.com/editorial/creativecommons/ Podras leer opiniones de otros webmaster y ver de que va el tema. Pero eso de protejer el contenido en la red no es tan facil. Saludos. |
Me alegro de poder ayudarte amigo, y no dudes de preguntar lo que te interesa para poder desarollar tu siteo en la red de redes.
Saludos. |
Si lo recibi y te mande una respuesta, pero dejamos esto para el privado porque puede molestar a nuestro administardor o a los usuarios.
|
Web Scrappers (Evitar robo de contenido)
Los Web Scrappers o ladrones de contenido son un tipo de robot o crawler que indexa contenido recopilando información y artículos de otras webs para - generalmente - duplicarlo, añadiendo bloques de publicidad y lucrarse con el esfuerzo de otros ( cosa que vulnera licencias, todo sea dicho ). Este tipo de técnicas habitualmente generan mucha controversia , ya que a algunas personas les parece totalmente lícito, mientras que a otras les parece una estrategia abyecta. Entrando un poco más en este tema encontramos los llamados planetas , que no son más que (en ámbitos web) un sitio web que recopila a través de feeds RSS los artículos de diferentes blogs o webs (normalmente siguiendo una misma temática o criterio). Es una idea genial. Hay multitud de planetas muy interesantes que personalmente sigo (aunque siempre suelo leerlos desde la página original). Sin embargo, hay varios puntos que considero importantes como no permitir comentarios en el planeta, dirigir al lector a la web original, no incorporar publicidad , citar la fuente de los artículos u otros detalles que estarían restando mérito al autor del escrito. ¿Cómo puedo localizar web scrappers?
Quote egrep "/index.xml" access_log | cut -d" " -f1,12- | sort | uniq -c | sort -n | tail -25 Con este comando conseguiremos separar los accesos al feed RSS, obteniendo la IP y el User Agent , ordenándolo por número de accesos. Finalmente, obtendremos un listado de los 25 accesos más frecuentes. Hay que hacer notar que del listado resultante, varios accesos serán de usuarios desde navegadores o agregadores como Bloglines o Google reader. Añadiendo el siguiente pipe al comando anterior podríamos filtrar la mayoría de agregadores, quedando:
Quote egrep "/index.xml" access.log | egrep -v "subscribers|Gecko|Liferea|Google Desktop|Akregator|Vienna|Tumblr|Feedshow|Gregarius|Googlebot|Feedreader" | cut -d" " -f1,12- | sort | uniq -c | sort -n | tail -25 Después de esto, obtendríamos - ahora si - un listado más aproximado de usuarios «sin identificar» y posibles scrappers. Hay que ser muy cuidadoso e ir investigando cada entrada. Una serie de consejos: Si no estás seguro de que el usuario que miras sea un robot, siempre podrías investigar más en tus logs a ver en que otras páginas ha estado, a parte del feed RSS:
Quote grep " IP " access_log | cut -d" " -f7 Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
|
htaccess: Bloqueando a la fuerza El último día hablaba sobre las recomendaciones para robots y crawlers mediante el robots.txt. Este sistema es un conjunto de indicaciones para que los crawlers no se «pierdan» y sepan en todo momento por donde pueden y deben ir. ¿Qué es lo que ocurre? Que cualquier persona me puede indicar que debo y que no debo tocar en su casa, pero en todo momento yo tengo la opción de hacerlo, aunque no deba. De eso vamos a tratar en este artículo, ¿Que ocurre si llega un crawler «listillo» que pasa olímpicamente de las recomendaciones que le hemos hecho? Pues que lo echamos a patadas de nuestra casa... Existe un fichero en los servidores web Apache llamado .htaccess, en el que puedes incluir información de control para dictar al servidor que hacer con tus visitantes y otro tipo de acciones. Lo primero que necesitamos es un sistema de estadísticas o mejor aún, acceso a nuestro fichero access.log, registro donde se guardan todos los accesos a nuestro servidor. Bien con un sistema de estadísticas, o con nuestro fichero access.log, nos interesa observar los accesos por petición (request), navegador o agente (user agent) o por ip. Desde una consola SSH podemos conseguir un listado de las IPs que más peticiones realizan: Esta secuencia de comandos nos muestra las últimas 10.000 llamadas a nuestro servidor, agrupándolas por IPs y mostrando el número de peticiones realizado. Esto nos servirá para tener una idea de que crawlers, robots o usuarios pueden estar sobrecargando nuestro servidor con demasiadas peticiones. Existe un programa bastante útil que que se utilizz para analizar los access.log, llamado Apache Log Viewer. La única y «minúscula» pega es que está en japonés. Este no es un ejemplo real, pero imaginemos que esos son los resultados obtenidos. Tendríamos 84 peticiones de la IP que figura a su derecha. Si vamos a Inicio / Ejecutar / cmd y escribir nslookup IP podremos obtener el DNS inverso y saber a que compañía pertenece, o investigar un poco más con un analizador de logs o estadísticas y ver que accesos ha hecho. ¡Ojo! Que haga muchas peticiones no significa que sea un robot malvado. Puede que se trate de nuestro más fiel visitante o nuestro querido buscador de Google. Mucho cuidado con bloquear IPs sin pensárselo. En nuestro caso resultó que la IP 81.177.8.166 realizaba bastantes peticiones, e investigando un poco más pude ver que eran a antiguos ficheros de un formulario que ya no existían. Probablemente un robot spam que sigue torpemente intentando enviar comentarios de SPAM, generando peticiones inútiles. Bloqueando por IPs Si estamos completamente seguros de que la IP que hemos encontrado en nuestros logs nos está realizando ataques DoS o algún tipo de sobrecarga de peticiones, vamos a bloquearla. Para ello tenemos que editar el fichero .htaccess en la carpeta raíz de nuestro sitio vía SSH o FTP y escribir o modificar su contenido añadiendo: Y no solo bloquear IPs, sino también rangos de IPs mediante sus clases: Deny from 81.0.0.0/8. Esto también es aplicable a crawlers que hemos añadido en el robots.txt y vemos días o semanas después (ojo, a veces no leen el robots.txt instantáneamente) que no hacen caso. Ahora toca que hagan caso a la fuerza mostrando un código de error 403 (prohibido) en lugar de lo que esperaban. Bloqueando con SetEnvIfNoCase Se nos plantea otra dificultad. Los robots que acceden ahora nunca tienen la misma IP, siempre son totalmente diferentes y sin relación: ¿Cómo los bloqueamos? Con este código estamos identificando los criterios de los tres bots anteriores para asignarles una variable llamada spambot si casa con los criterios, y que si es así, bloqueará. Bloqueando con ModRewrite En primer lugar activamos el motor del ModRewrite, y usamos los tres casos anteriores como condiciones con el RewriteCond. En caso de ser afirmativa, reescribimos mostrando un error 403, o también podemos usar un error 410 (Eliminado permanentemente) escribiendo [G] en lugar de [F]. En la página de documentación de ModRewrite hay mucha información para profundizar. Ahora ya sabemos como bloquear. Hay que usarlo con mucho cuidado para no bloquear a usuarios legítimos y perder visitas. Las vírgenes tienen muchas navidades pero ninguna Nochebuena.
|
| |||
| |||