xiaohua77 | 发表于:11-08-04 10:28 [添加收藏] 楼主 [回复] #Top# |
---|---|
人气:11
积分:24
金币:142
|
用kingCMS for PHP做了一个网站,经常有人把网站复制过去,用dedeCMS后台自带的采集功能进行采集,导致网站风格跟内容都是一模一样的。首先,严重鄙视下这种不劳而获的人。 求救高手:有什么办法可以在kingCMS里面设置文章能够防采集,或者加入随机字符串,网址。但是又要对搜索引擎影响不大的一种做法没有?
Ta最近还发表过
[疑问]
文章添加时出现错误:Warning: simplexml_load_file()
(13-03-12)
[疑问]
经常有人复制我们制作的网站,有什么办法可以防采集?
(11-08-09)
[疑问]
php数据库被人删了。求解!!!
(11-05-11)
随机阅读
[错误]
K9 精简价格选项后发布房屋分类信息时提示价格不能为空
(14-08-27)
[使用]
安装Kingcms时出现问题,大神帮忙啊
(13-04-19)
[疑问]
什么时候发布回复不用再审核了啊?
(12-09-17)
[使用]
找个美工不错的建个普通企业网站
(12-06-25)
[分享]
有效突破地方论坛的流量瓶颈
(12-04-12)
|
xiaohua77 | 发表于:11-08-04 10:34 沙发 [回复] #Top# |
---|---|
人气:11
积分:24
金币:142
|
求解!
|
xiaohua77 | 发表于:11-08-04 10:37 板凳 [回复] #Top# |
---|---|
人气:11
积分:24
金币:142
|
网上找了一些防采集的利弊分析:
一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问 弊端: 1、此方法只适用于动态页面,如:aspjspphp等...静态页面无法判断某个IP一定时间访问本站页面的次数。 2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件 采集对策:只能放慢采集速度,或者不采 建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。 评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。 二、用javascript加密内容页面 弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容 采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。 建议:目前没有好的改良建议 评论:建议指望搜索引擎带流量的站长不要使用此方法。 三、把内容页面里的特定标记替换为"特定标记+隐藏版权文字" 弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集 采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。 建议:目前没有好的改良建议 评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。 四、只允许用户登陆后才可以浏览 弊端:此方法会严重影响搜索引擎蜘蛛对其收录 采集对策:目前落伍已经有人发了对策文章 ,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》 建议:目前没有好的改良建议 评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。 五、用javascript、vbscript脚本做分页 弊端:影响搜索引擎对其收录 采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。 建议:目前没有好的改良建议 评论:感觉懂点脚本语言的人都能找出其分页规则 六、只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER") 弊端:影响搜索引擎对其收录 采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策 建议:目前没有好的改良建议 评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。 |
xiaohua77 | 发表于:11-08-04 10:52 4楼 [回复] #Top# |
---|---|
人气:11
积分:24
金币:142
|
从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。
一、分页文件名规则防采集对策 大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。 实现方法: 我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。 我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分 如果I代表分页的页码,那么我们不要这样加密 page_name=Md5(I,16)&".htm" 最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&"任意一个或几个字母",16)&".htm" 因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在 I 后面跟进的字母是什么,除非他用暴力****MD5,不过不太现实。 二、页面代码规则防采集对策 如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。 所以我们要的这一步做到防采集,就要使代码无规则。 实现方法: 使对方需要提取的标记随机化 1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。 2、如果嫌上面的方法太麻烦,把网页里的重要HTML标记随机化,也可以。 做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这此人就是因为懒,才会采集别人网站数据嘛~~~再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。 还有些简单的思路提供给大家: 1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示 2、把一页数据,分为N个页面显示,也是加大采集难度的方法 3、用更深层的连接,因为目前大部分采集程序只能采集到网站内容的前3层,如果内容所在的连接层更深,也可以避免被采集。不过这样可能会给客户造成浏览上的不便。 如: 大多网站都是 首页----内容索引分页----内容页 如果改成: 首页----内容索引分页----内容页入口----内容页 注:内容页入口最好能加上自动转入内容页的代码 |
xiaohua77 | 发表于:11-08-04 10:52 5楼 [回复] #Top# |
---|---|
人气:11
积分:24
金币:142
|
把分页文件加密么??
|
Gougliang | 发表于:11-08-04 11:25 6楼 [回复] #Top# |
---|---|
人气:1401
积分:11242
金币:13771
|
如果是从搜索引擎角度出发,就什么不用干,让采的人采去吧,只要自己的不是采的,惩罚的只会是它,不会是你。如果不考虑搜索引擎的话,就做内部制呗。
|
wuchunkai | 发表于:11-08-08 16:12 8楼 [回复] #Top# |
---|---|
人气:472
积分:6
金币:19338
|
还是让他吧。仿也是出了时间精力的。
|
flowin | 发表于:11-08-08 16:40 9楼 [回复] #Top# |
---|---|
人气:111
积分:755
金币:4074
|
希望以后能把生成的代码绑定封装到DLL里面!加上反编译!这样他们就考不到了,不知道php可不可以!
|
wuchunkai | 发表于:11-08-08 16:50 10楼 [回复] #Top# |
---|---|
人气:472
积分:6
金币:19338
|
Reply: 9楼
这招很牛B |
Gougliang | 发表于:11-08-08 17:03 11楼 [回复] #Top# |
---|---|
人气:1401
积分:11242
金币:13771
|
Reply: 9楼
最终总要被浏览器编译出来html才行的…… |