SEO优化

网站不收录成为SEO主要问题,解析搜索引擎不收录的原因

浏览量:次 ?? 作者:?扶余SEO??本文来源:?夏天SEO

本文有669个文字,大小约为3KB,预计阅读时间2分钟

一般来说,阻止搜索引擎收录也可能成为一个SEO问题,尽量让搜索引擎抓取和索引更多内容是SEO们经常头疼的一个问题,没有收录、索引就无从谈排名、尤其对达到一定规模的网站来说,使上海seo的网站充分收录是个颇令人费神的SEO技术,当页面达到比如说几十万,无论网站架构怎么设计、多么优化,100%收录都是不可能的,只能尽量提高收录率、  

但有时候怎么阻止搜索引擎收录也可能成为一个问题,网站不收录近几年越来越成为SEO问题、需要阻止收录的情况如保密信息、复制内容、广告链接等、过去常用的阻止收录方法包括密码保护、把内容放在表格后面、使用JS/Ajax、使用Flash等、  

使用Flash  

Google几年前就开始尝试抓取Flash内容了,简单文字性内容已经能抓取、Flash里面的链接也能被跟踪、  

表格  

Google蜘蛛也能填表,也能抓取POST请求页面、这个早就能从日志中看到、  

JS/Ajax  

使用JS链接一直以来被当作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但两三年前我就看到JS链接不能阻止Google蜘蛛抓取,不仅JS中出现的URL会被爬,简单的JS还能被执行找到更多URL、  

网站不收录成为SEO主要问题,解析搜索引擎不收录的原因

上图为:阻止搜索引擎收录的原因

前几天有人发现很多网站优化使用的Facebook评论插件里的评论被爬、被收录,插件本身是个AJAX、这是个好消息、我的一个实验电子商务网站产品评论功能就因为这个费了不少心思,用Facebookcomments插件好处大大的,具体什么好处以后有时间再说,唯一的问题就是评论是AJAX实现的,不能被抓取,而产品评论被收录是目的之一(产生原创内容)、我当时想了半天也没有解决方法,只好先傻傻地既放上Facebookcomments插件又打开购物车本身的评论功能、现在好了,Facebookcomments里的评论能被收录,就不用两套评论功能了、  

Robots文件  

目前唯一确保内容不被收录的方法是robots文件禁止、但也有个坏处,会流失权重,虽然内容是不能收录了,但页面成了只接受链接权重、不流出权重的无底洞、  

Nofollow  

Nofollow并不能保证不被收录、就算自己网站所有指向页面的链接都加了NF,也不能保证别人高端网站建设不给这个页面弄个链接,搜索引擎还是能发现这个页面、  

MetaNoindex+Follow  

为防止收录又能传递权重,可以在页面上使用metanoindex和metafollow,这样页面不收录,但能流出权重、确实如此,也是个比较好的方法、也有一个问题,还是会浪费蜘蛛爬行时间、哪位读者有能防止收录、又没有权重流失、又不浪费爬行时间的方法,请留言,对SEO界功德无量、

百度关键词优化找广州网站优化公司


[声明]:本文:网站不收录成为SEO主要问题,解析搜索引擎不收录的原因转载网络媒体稿件是为了传播更多的信息,此类稿件不代表本网观点,本网不承担此类稿件侵权行为的连带责任。故此,如果您发现本网站的内容侵犯了您的版权,请您的相关内容发至此邮箱【summer819xt@163.com】,我们在确认后,会立即删除,保证您的版权。

XML 地图 | Sitemap 地图