我有一个“内容”网站,一些leechers和419骗子喜欢积极地爬行,这也会产生成本和性能问题. :(我别无选择:我需要阻止他们访问站点地图文件和索引.:(
我和Facebook一样:我动态生成站点地图索引(/sitemap.PHP).我使用DNS反向查找(PHP)和代理检查(与Stackoverflow相同)将“好”爬虫列入白名单.为了防止列入白名单的引擎使站点地图索引内容公开,我添加了该标题(Stackoverflow忘记了它):
header('Content-type: application/xml; charset="UTF-8"',true); header('Pragma: no-cache'); header('X-Robots-Tag: NOARCHIVE');
问题2:问题来自生成的静态站点地图(.xml.gz)文件.我该如何保护他们?即使他们有一个“难以猜测”的名称,也可以通过简单的谷歌查询轻松找到它们(例如:“site:stackoverflow.com filetype:xml”),我对.htaccess的访问权限非常有限.
编辑:这不是服务器配置问题.首选语言是PHP.
编辑2:对不起,这是纯编程问题,但它已从SO转移,我无法关闭/删除它. 原文链接:https://www.f2er.com/php/139212.html