[Previo por Fecha] [Siguiente por Fecha] [Previo por Hilo] [Siguiente por Hilo]
[Hilos de Discusión] [Fecha] [Tema] [Autor]Saludos > Aunque puede ser una solución, muchos programas (aquí solo como ejemplo > wget) tienen la opción o simplemente no respetan `robots.txt` por lo que no > resuelve del todo el problema. :-S Tienes razo'n, tambie'n lo habia pensado y olvide mencionarlo. Aunque pense que el no queria evitar que alguien obtuviera su contenido de la red, sino m'as bien que las personas con spiders no se terminara'n el ancho de banda de su hosting. Por lo que esa solucion podr'ia funcionar m'as o menos bien para la mayoria de los usuarios que posiblemente se detendrian ante esto. y bueno, el uso de quotas o scripts tambie'n me parece una buena soluci'on como dijo Hugo J. Ordonez-Rodriguez. Aunque si lo que quiere el usuario es que no se pueda obtener la informaci'on lo mas seguro es quitar el contenido de un RED PUBLICA como dijo Hugo. Hasta la vista. -- Antonio Téllez Flores Ciencias de la Computación Facultad de Ciencias - UNAM
Attachment:
signature.asc
Description: Esta parte del mensaje =?ISO-8859-1?Q?est=E1?= firmada digitalmente