如何防止网站被镜像?
2021-08-19建筑期刊
镜像网站也就是所谓的恶意克隆别人网站,在域名记录里填上别人空间的Ip地址,以此达到恶意克隆被人的网站,当浏览者打开两个截然不同网址,但网站内容却是一模一样。常见的镜像网站
镜像网站也就是所谓的恶意克隆别人网站,在域名记录里填上别人空间的Ip地址,以此达到恶意克隆被人的网站,当浏览者打开两个截然不同网址,但网站内容却是一模一样。
2、为内容完全相同的网站制定多套不同风格的页面模板,再绑定多个域名。
3、数据采集网站,网站中所有的内容都是通过采集程序采集的。
1.更换IP或空间。
2.改变网站程序位置,由根目录换到一级目录。如果该方案可以实施的话,可以有效解决网站恶意镜像问题,因为恶意镜像只能解析IP,而无法与目录进行绑定。
3.服务器端操作。如果你的服务器可以设置禁止直接通过IP访问,必须使用某个域名访问,那么设置好它。
通过这几个的渠道可以反馈问题:jubao.baidu.com ,tousu.baidu.com , zhanzhang.baidu.com/feedback
二、屏蔽镜像网站服务器IP
镜像网站看似一个完整的站点,其实每次用户访问网站的时候,程序还是调用的原网站的数据,所以我们可以屏蔽这个服务器的IP,禁止抓取我们的网站数据。如果是LINUX主机可以通过以下方法获取和屏蔽镜像网站服务器IP。
1、获取镜像网站IP,复制如下代码,新建一个php文件,并命名为“ip.php”上传到你的网站根目录。
<?php
$file = "ip.txt";//保存的文件名
$ip = $_SERVER['REMOTE_ADDR'];
$handle =fopen($file,'a');
fwrite($handle,"IP Address:");
fwrite($handle,"$ip");
fwrite($handle," ");
fclose($handele);
?>
2、访问镜像网站,在地址后面加.../ip.php,如:http://www.xx.com/ip.php,然后网站根目录下会生成一个ip.txt的文件,打开复制里面的ip地址。
查找服务器IP地址还可以通过站长工具的HTTP状态码查询
3、屏蔽镜像站点IP,打开.htaccess文件,加上如下代码
Linux下 规则文件.htaccess(没有可以手工创建.htaccess文件到站点根目录),自行修改红字中的IP地址
<IfModule mod_rewrite.c>
RewriteEngine On
#Block ip
RewriteCond %{http:X-Forwarded-For}&%{REMOTE_ADDR} (188.129.143.73) [NC]
RewriteRule (.*) - [F]
</IfModule>
然后再次访问或者刷新镜像网站,这时候就会出现403错误(禁止访问),现在就可以等着蜘蛛删除了
4.、添加跳转代码
这个办法就简单粗暴了,直接在网站head下加入一段JS代码,就可以实现镜像站自动跳转到我们的主站,代码如下:
<script type="text/javascript">if (document.location.protocol != "https:" && navigator.userAgent.indexOf("MSIE 6.0") < 0 ) { location.href = location.href.replace(/^http:/,"https:");}if (document.location.host != "www.xx.com") { location.href = location.href.replace(document.location.host,'www.xx.com);} </script>
5.发一篇文章试探,然后去镜像网站查看,再到网站日志立马查,刚刚爬取发文章的页面的IP有哪个?最终筛选几个出来,一一排除,找出了爬取的后端IP,然后封禁对方ip,而且点击镜像网站,直接就是打不开.
镜像的原理:其实镜像就是去访问他网站页面的时候,他会立马派1个IP来抓取我网站的内容,展现给用户看,这样才实现了什么叫镜像,和镜子一样,人动,镜子立马的也在动。镜像网站也是这个原理,所以我封禁了他爬取的IP,我访问他,他无法派IP来抓取我,导致他网站打不开。
常见的镜像网站有以下几种:
1、克隆网站,指在内容完全相同的网站上绑定多个域名(这些内容可能在同一服务器上,也可能是在不同的服务器上)。2、为内容完全相同的网站制定多套不同风格的页面模板,再绑定多个域名。
3、数据采集网站,网站中所有的内容都是通过采集程序采集的。
以下来介绍如何预防:
1.更换IP或空间。
2.改变网站程序位置,由根目录换到一级目录。如果该方案可以实施的话,可以有效解决网站恶意镜像问题,因为恶意镜像只能解析IP,而无法与目录进行绑定。
3.服务器端操作。如果你的服务器可以设置禁止直接通过IP访问,必须使用某个域名访问,那么设置好它。
如果网站被镜像:
一、百度站长平台投诉通过这几个的渠道可以反馈问题:jubao.baidu.com ,tousu.baidu.com , zhanzhang.baidu.com/feedback
二、屏蔽镜像网站服务器IP
镜像网站看似一个完整的站点,其实每次用户访问网站的时候,程序还是调用的原网站的数据,所以我们可以屏蔽这个服务器的IP,禁止抓取我们的网站数据。如果是LINUX主机可以通过以下方法获取和屏蔽镜像网站服务器IP。
1、获取镜像网站IP,复制如下代码,新建一个php文件,并命名为“ip.php”上传到你的网站根目录。
<?php
$file = "ip.txt";//保存的文件名
$ip = $_SERVER['REMOTE_ADDR'];
$handle =fopen($file,'a');
fwrite($handle,"IP Address:");
fwrite($handle,"$ip");
fwrite($handle," ");
fclose($handele);
?>
2、访问镜像网站,在地址后面加.../ip.php,如:http://www.xx.com/ip.php,然后网站根目录下会生成一个ip.txt的文件,打开复制里面的ip地址。
查找服务器IP地址还可以通过站长工具的HTTP状态码查询
3、屏蔽镜像站点IP,打开.htaccess文件,加上如下代码
Linux下 规则文件.htaccess(没有可以手工创建.htaccess文件到站点根目录),自行修改红字中的IP地址
<IfModule mod_rewrite.c>
RewriteEngine On
#Block ip
RewriteCond %{http:X-Forwarded-For}&%{REMOTE_ADDR} (188.129.143.73) [NC]
RewriteRule (.*) - [F]
</IfModule>
然后再次访问或者刷新镜像网站,这时候就会出现403错误(禁止访问),现在就可以等着蜘蛛删除了
4.、添加跳转代码
这个办法就简单粗暴了,直接在网站head下加入一段JS代码,就可以实现镜像站自动跳转到我们的主站,代码如下:
<script type="text/javascript">if (document.location.protocol != "https:" && navigator.userAgent.indexOf("MSIE 6.0") < 0 ) { location.href = location.href.replace(/^http:/,"https:");}if (document.location.host != "www.xx.com") { location.href = location.href.replace(document.location.host,'www.xx.com);} </script>
5.发一篇文章试探,然后去镜像网站查看,再到网站日志立马查,刚刚爬取发文章的页面的IP有哪个?最终筛选几个出来,一一排除,找出了爬取的后端IP,然后封禁对方ip,而且点击镜像网站,直接就是打不开.
镜像的原理:其实镜像就是去访问他网站页面的时候,他会立马派1个IP来抓取我网站的内容,展现给用户看,这样才实现了什么叫镜像,和镜子一样,人动,镜子立马的也在动。镜像网站也是这个原理,所以我封禁了他爬取的IP,我访问他,他无法派IP来抓取我,导致他网站打不开。
启微网络专注网站建设,欢迎联系
很赞哦! ()