热门搜索词

301重定向:以及域名重定向对SEO影响!-重定向-学习网-域名-SEO

2025-09-05

在日常SEO工作中,我们经常遇到各种问题需要利用301重定向解决链接结构问题,比如:网站改版,复内容呈现,域名更换等。如果你站点基于搜索营销,当你遇到上述问题的时候,避免造成过多缺失,了解301重定向很有必要。什么是301重定向?简陋理解:301重定向从SEO角度,是通知搜索引擎将一个URL全部资源重定向到另外一个新URL,并且试图促使搜索引擎对新URL进行有效收录,并且给予同等。而域名重定向,则是将该域名下所有URL全部重定向到新域名下,并且尽量维持整站权重的迁移。301重定向与302重定向的关系①301重定向代表永久性的定向转移,言外之意就是当网站改版后,旧链接结构,将完全不复存在。②302重定向代表是暂时性的定向跳转,比较常见形式是短网址,302重定向并不能转移权,并且对搜索引擎不是十分友好。301重定向的作用①有利于权整合我们经常发现一个站点收录多个首页变体,比如:index.html,顶级域名,带www二级域名。为了避免权流失,我们需要选首选域,比如带www二级域名,并且将顶级域名以及附带域名后默认文档index.html,利用301重定向到二级域名。值得提醒是,如果你做了HTTPS改造,那么一要将HTTP重定向到HTTPS。②避免复内容诞生如果你站点使用了伪静态,并且没有合理处理好动态url,它同样会诞生复页面的问题,因此,你可以借助301重定向解决这个问题,当然最好办法,你可以在Robots.txt中屏蔽动态参数。301重定向的注意事项①在做301重定向的过程中,我们需要确保新旧URL内容,高度相关,如果两篇内容不具备相关性,那么很可能会影响重定向的效果。②如果你试图利用多个内容相关域名,301重定向到一个目标域名,让网站排名提高,这是一种相对危险操作,很容易判断为作弊。301重定向的设置方法针对网站301重定向设置方法主要是通过如下途径:①Apache.htaccess实现301重定向。②微软主机可利用IIS重定向。③利用程序代码,在网站头部使用代码进行301重定向。具体相关配置方法,有很多不同服务器也有很大差距,站长可以让程序员或主机商来协助完成。总结:301重定向是网站优化过程中,不可或缺部分,当你遇到相关问题的时候,需要仔细研究。        绿泡泡堂SEO学习网https://www.绿泡泡堂seo.com

url重定向-怎么做url重定向(举例说明)-网站推广大熊猫优化-重定向-怎么做-大熊猫-网站推广-学习网

2025-09-05

URL主要是针对虚拟空间而言,因为不是自己独立治理服务器,所以无法正常进行常规操作。但是自己又不渴望通过主域名二级目录进行访,而是渴望通过主域名二级域名进行访。所以这个时候就会用到URL重定向。一、url重定向是什么URL重定向主要是指主域名主域名www.xusseo.com下二级目录,如www.xusseo.com/wap,但是由于wap是一个新站点,所以正确域名应该是应该是wap.xusseo.com。但是访问的文件夹却是www.xusseo.com/wap,这种访则被称之为重定向。二、url重定向怎么做常见的重定向分为301重定向和302重定向重定向是一种比较特殊优化方式,因为需要通过代码来实现,从而变相提高权值。所以在特别情况下,如果使用重定向过于严,则会被搜索引擎判断为不是正当优化。①301重定向301重定向被称之为永久性重定向,主要是针对一些永久性更改网站,而且这种重定向一旦做好,将会对网站优化大有好处。举例1:通过.htaccess配置文件进行重定向。具体可查看徐三SEO博客(301重定向是什么,如何去做操作)相关信息。②302重定向302重定向的使用并不多见,它通常被称之为临时性转移。302重定向的使用常见于meta重定向和JavaScript重定向。而这种重定向是典型不正当行为,很容易被搜索引擎发现,并将其重定向的网址义为不合法网站,做出惩罚。举例1:meta重定向meta重定向通常是在首页头部标签处进行重定向,最常见是网址跳转。如果我们想要通过A网站跳转到B网站,那么可以在头部标签处加入以下代码:<metahttp-equiv=”refresh”content=”3″;url=”http://此处填写你目标网站”>该代码意思是当访A网站3秒之后,通过302重定向进行网站跳转,并跳转到URL中填入自己目标网站,也就是B网站。举例2:JavaScript重定向JavaScript是前端常用一种代码语句,主要实现特效功能,同样在这里也可以实现302的重定向。JavaScript类型的重定向并不像meta类型的重定向那么明确地跳转,只是简陋地传递,可以造成一种搜索引擎爬行假象。想要实现该功能,可以加入以下代码:总结:URL重定向一般来说使用并不多,尤其是对于新手站长而言。但是针对一些公司运营SEO熟手或者技术人员则有必要把握,通过使用重定向可以节省更多时间和精力,来保障优化顺利进行。推举阅读:详解网站url地址优化

seo屌丝浅谈关于排名8个问题-浅谈-学习网-问题-seo-SEO

2025-09-05

当我首先次开始做SEO时,我会不断检查我排名。我每周都生成报告数据,有时也会去百度并输入我一直在优化关键字。回想起来,我意识到我失去了很多本来可以用得更好时间,但排名是我当时迷恋。虽然直至2019年我仍旧迷恋于排名报告…我有点不好意思承认它但我仍旧渴望看到每周排名报告。但是,我不会一直检查排名(我想我已经习惯了这一点)。现在和以前最大区别在于,虽然我仍旧渴望期看到排名,但我不仅仅是停留在那里:随着我成长为营销人员和分析师,我学会了提出一些有趣的问题。以下是您可能会发现有用一些内容。1.为什么我要优化此关键字?大多数关键字列表都是由分析数据,直觉本能和治理“建议”组合而成。就个人而言,我更爱慕从数据开始工作,但你不应该忽视从多年体会中收集到见识。有时,销售代表或撰稿人或客户服务代表将深入了解人们如何实际谈论您产品或服务。关键是流量是达到目的的手段,如果关键字没有转换或支持您品牌位,那么可能不适合您。2.排名诞生每月访次数是多少?检查您分析关键字报告。3.我从这个关键字获得了多少次转换?检查您分析关键字报告。4.我在X位置获得每月搜索流量百分比是多少?您也可以将其视为点击率,将您每月访次数除以关键字全球每月搜索量:  ([关键字每月访次数]/[每月全球搜索量]=搜索百分比)5.关键字是否将流量指正确页面?排名很高,但如果您将流量发送到次优页面会怎么样?6.当他/她输入此关键字时,搜索者意图是什么?这个可能很棘手。您需要查看跳出率,网页浏览量,转化率和导航路径,以真正了解搜索者想要内容。再看看问题#1,然后问问自己这是否是某人用来购物,浏览或研究关键词。另请注意,某些关键字可能与多个主相关。 您可能会在搜索者心中为与您业务无关关键字进行排名。7.不断提升某个关键字排名,是否值得?您需要查看问题#3中搜索百分比,然后查看它获得转换类型。如果您在搜索结果中低于第1页,并且这些关键字仍在推动销售,甚至只是稳固流量,那么可能需要投入一些时间进行优化。8.我应该关注哪些相关关键词?所以你看到“ SEO”结果。您正在接收访者,订阅者,销售商等。但您注意到您转化率低于1%且您跳出率介于70-80%之间。也许你会更好地优化“ SEO教程”关于目标和投资回报率如您所见,所有这些问题都归结为位和投资回报率,如果您正在追求关键字排名,那么您应该知道这将显示出积极投资回报。您也应该情愿寻求可能创造更好回报替代方案。相关文章推举友情链接购买有什么风险?购买友链需要注意这些问题  几乎所有做SEO人都想过要在某个时间购买友情链接,在友情链接买卖斗争中,你并不孤单。尽管如此,友情链接买卖[…]...为什么SEO服务如此昂贵?  昨天下午2点,博主在某家咖啡店中与客户闲聊,虽然客户表达了想要做SEO决心,但是在“SEO服务费用”如此高昂[…]...如何在短时间内为新关键词进行排名?  用正确方法抉择关键词实际上是打破内容和SEO策略核心,抉择一个过于宽泛词,你会迷失在人群中,抉择一个具体[…]...SEO并不难,远离黑帽并运作有效策略  SEO很难,不是吗?您是否想知道为什么即使在撰写了1000篇博文之后您也没有从百度获得足够流量?我知道即[…]...SEO学习:3年SEO学习心得分享  拥有一个充分利用SEO最佳实践网站是保障其最佳性能的重要部分。了解如何学习搜索引擎优化及其背后基础见识对于[…]...seo屌丝浅谈关于排名8个问题

seo联盟我们怎么解决网站分权的问题呢?-学习网-联盟-问题-网站-seo

2025-09-05

什么是网站分权,正常情况下网站首页或者栏目页面是最高,如果网站栏目超过了网站首页,或者是文章超过了网站首页或栏目权,这种情况我们通常都说是网站分权了。对于这种情况往往会导致首页比较低,seo每天一贴教你怎么解决网站分权的问题。  我们知道,对于新站,seo每日一贴搜索引擎没有任何信赖,所以我们需要在早期阶段提升站点。seo联盟因此我们必须注意新站一些提示。许多网站治理员抉择更新多个文章,或者每天都更新内容,但由于能力有限,每次只能每天更新一篇或几篇文章,最后提升网站优化更加困难,并且很长时间内很难提升上去。  很长一段时间,seo每日一贴即使最后效果仍旧相对较差。seo联盟网站分权最根本原因是页面分类相关性差,网站页面有过多以及网站结构不合理。网站不合理结构是最麻烦事情,我们需要优化网站结构,新调整网站结构,甚至可能需要修改网站,从根本上解决这个问题。如果由于页面分权而导致外部链接太多,请减少链接或添加noflow标记。如果页面相关性较差,增添页面文章布局和网站关键字密度。

seo排名点击中我们容易遇到哪些问题?-学习网-容易-问题-seo-SEO

2025-09-05

我们做任何事情时候,都会遇上大大小小的问题,做seocnm优化中也不例外,很多小伙伴为了做好seo排名点击,努力学习新东西,往往在这个过程中遇到各种的问题,那么都有哪些问题呢?下面我们简陋说几个吧。网站准备包括战略分析,如前期位,seocnm内容区分和页面互通。在这些之后,域名,租赁空间,seo排名点击网站样式设计、网站内容和网站代码生成分为五个部分。此过程需要网站规划人员。网站设计师和网络程序员一起工作。网站是企业展现自己形象,发布产品信息,seocnm联系在线客户,通过电子商务开拓新市场,seo排名点击以极少投资获得巨大利益和利润新平台。做网站需要购买空间,顾名思义,空间是存储网站内容地方,程序数据和所有网站都放在此。如果您是新手,建议先学习网站空间搭建。先进服务器是是VPS,抉择空间业务要注意售后服务,稳固性,访速度等其他情况。

tag正确用途是什么-这些问题不可小视-seo术语-学习网-术语-用途-正确-问题

2025-09-05

tag作为一个网页常用到聚合页面,是非常受欢迎滴,不管是用户体验,还是页面相关度,都能给用户一个很好粘性,从而深度浏览,可能不是朋友也能发现,庆SEO徐三博客中tag标签,很多是不规范及不相干滴,因为启动了自动添加tag标签,所以是有那么不堪入目。当然还是建议大家自己手动添加,这样此页面tag会更能体现出质量。那么tag正确用途是什么呢?TAG页面聚合,其实一般网站如果有TAG标签话都可以运用,但是这里需要解决一个问题就是网页收录。我们发出来这些TAG页面很多时候如果自己网站本身质量不好,就非常容易造成收录不佳,像很多大型网站基本上收录是非常快,差不多都是当天收录,对于SEO整个优化过程,如果要解决收录还可以借助百度站长平台链接实时推送功能并用,这样效果会更加好。最后,我在总结下关于这累TAG页面操作。因为这些特别条件如果不具备话,那么很难通过TAG页面诞生一个很好SEO效果出来。1、优质站点这个可以说是做TAG排名核心所在,如果我们网站是一个新站,本身百度来蜘蛛就非常少,那么发文章就很难被收录,需要大量时间来养站。但是如果是一个数月或者数年优质网站话,一般发文章收录都是比较快时候,那么这个时候就已经满足了TAG页面首先个要求点。2、内容质量过关这里只说明一点,就是发文章尽可能优质原创发布,本身TAG是一个聚合,如果聚合内容都是垃圾内容话,非常容易让自己网站降权。3、网站具备TAG标签对于一般企业网站来说,这种操作是不适合。尤其是一些网站做博客、论坛、门户这类垂直站点来说,大多数网站程序都具备TAG标签功能,如果不具备话,手动去做这种所谓TAG就非常麻烦,所以关于这点也是SEO优化必备条件。要想做好这类关键词排名并不难,点在于去发现一些SEO细节,尤其是最近熊掌号出来非常多,如果结合熊掌号来操作话,收录和排名这块会更加好一些。tag正确用途与注意事项1、TAG标签使用和设置必须与文章内容相关、而且又是网站核心关键词&长尾词。可能大家就有点奇特,直接把tag标签修改成网站核心词不是更好嘛,这里庆SEO徐三解释下:整理网站中你想优化所有长尾词,当然不包括首页或者频道页优化推广相关关键词,一个长尾词写至少5篇文章以上,固设置成相同tag标签,即你整理出来长尾词。保障每个页面2tag标签列表页下面有至少五篇文章。这样你TAG标签不被收录都不行。2、网站文章tag标签标准设置:一篇文章TAG标签设置应该控制在3个左右不宜过多,过多就使主过于分散。3、tag字数限制:每个TAG标签字数控制在6个汉字之内,tag标签不宜过长。4、tag标签不宜设置太热门核心关键词,尤其是网站首页或者是网站频道页主要优化推广关键词,这样如果推广是网站关键词话,这样操作会和首页以及频道页抢权,一个热门词一个网站在百度很少能有多个排名,而每个页面都是有限,导出链接越多就越分散网站,所以tag标签应该设置为主站或者频道页涉及不到关键词。这样才干起到互补作用。点评:tag正确用途是什么,相信大家通过上文,应该知道如何去部署tag标签,尤其是图文较多地一些网站更适合tag标签,这样能把所有点聚合在一起,也方便用户再次浏览。其实seo排名只是一个窍门,只有把思维及细节做好,那么这才是一个有技术有实力seo营销人员。tag正确用途是什么,这些问题不可小视-seo术语

百度飓风算法3.0即将上线-控制跨领域采集及站群问题-飓风-学习网-算法-上线-领域

2025-09-05

2018年9月13日,百度对飓风算法进行升级,发布飓风算法2.0,主要打击采集痕迹明显、内容拼接、站点存在大量采集内容、跨领域采集等五类采集行为。以下是详细说明:一.跨领域采集:首先类:主站或主页内容/标/关键词/摘要等信息显示该站有明确领域或行业,但发布内容与该领域不相关,或相关性较低。问题示例:美食类智能小程序发布足球相关内容第二类:站点/智能小程序没有明确领域或行业,内容涉及多个领域或行业,领域朦胧、领域专注度低。问题示例:智能小程序内容涉及多个领域指批量构造多个站点/智能小程序,获取搜索流量行为。站群中站点/智能小程序大多质量低、资源稀缺性低、内容相似度高、甚至复用相同模板,难以满足搜索用户需求。以上就是飓风算法3.0相关说明,算法预计在8月内陆续上线。请大家及时查收站内信、短信等渠道提醒,积极自查完成整改,避免不必要缺失。

百度蜘蛛是什么-常见百度爬虫有那些问题--seo在线优化工具-在线-爬虫-学习网-蜘蛛-常见

2025-09-05

大家所使用搜索引擎基本上每一天都会有上百亿抓取处理,不管是个人,还是SEO网站推广团队都习惯性去了解百度搜索引擎抓取原理,然而百度对于自身算法是非常看重的,这就需要所做SEO人员时刻关注官方文档,深入了解文档内真正含义。通常来讲,搜索引擎抓取原理主要包括:抓取建库、过滤、存储、结果展示,这四个流程,其中抓取建库与站长经常谈论百度蜘蛛抓取规则有直接关系。那么,什么是百度蜘蛛?简陋理解,百度蜘蛛又名百度爬虫,主要工作职能是抓取互联网上现有URL,并对页面质量进行评估,给出基础性。通常百度蜘蛛抓取规则是:种子URL->待抓取页面->提取URL->过滤复URL->解析网页链接特点->进入链接总库->等待提取。1、如何识别百度蜘蛛快速识别百度蜘蛛方式有两种:①网站蜘蛛日志分析,可以通过识别百度蜘蛛UA,来判蜘蛛来访记录,相对便利方式是利用SEO软件去自动识别。关于百度UA识别,你也可以查看官方文档:https://ziyuan.baidu.com/college/articleinfo?id=1002②CMS程序插件,自动嵌入识别百度爬虫,当蜘蛛来访时候,它会记录相关访轨迹。2、百度蜘蛛收录网站规则有那些?并不是每一个网站蜘蛛来爬寻抓取就会被收录,这样就会形成一个搜索引擎主要流程,这个流程主要分为,抓取、筛选、对比、索引最后就是释放,也技术展示出来页面。抓取:爬虫是根据网站URL连接来爬寻,它主要目是抓取网站上所以文字连接,一层一层有规则爬寻。筛选:当抓取完成后,筛选这个步骤主要是筛选出垃圾文章,比如翻译、近义词替换、伪原创文章等,搜索引擎都能够识别出来,而是通过这一步骤识别。对比:对比主要是实行百度星火计划,维持文章原创度。通常情况下,经过对比步骤时候,搜索引擎会对你站点进行下载,一来对比,二来创建快照,所以搜索引擎蜘蛛已经访网站,所以网站日志中会有百度IP。索引:通过确你网站没有问题的时候,才会对你网站创建索引,如果创建索引了,这也说明你站点被收录了,有时候我们在百度搜索还是不出来,可能原因是还没有被释放出来,需要等待。3、关于百度爬虫一些常见问题:①如何提高百度抓取频率,抓取频率暴涨是什么原因早期,由于收录相对困难,大家非常视百度抓取频率,但随着百度战略方向的调整,从目前来看,我们并不需要刻意追求抓取频率提升,当然影响抓取频次因素主要包括:网站速度、安全性、内容质量、社会影响力等内容。如果你发现站点抓取频率骤然暴涨,可能是因为:存在链接陷阱,蜘蛛不能很好抓取页面,或者内容质量过低,需要从新抓取,也可能是网站不稳固,遭遇负面SEO攻击。②如何判,百度蜘蛛是否正常抓取很多站长新站上线,总是所发布文章不收录,于是担心百度爬虫是否可以正常抓取,这里官方提供两个简陋工具:百度抓取诊断:https://ziyuan.baidu.com/crawltools/index百度Robots.txt检测:https://ziyuan.baidu.com/robots/index你可以根据这两个页面,检测网页连通性,以及是否屏蔽了百度蜘蛛抓取。③百度爬虫连续抓取,为什么百度快照不更新快照长时间不更新并没有代表任何问题,你只需要关注是否网站流量骤然下降,如果各方面指标都正常,蜘蛛频繁来访,只能代表你页面质量较高,外部链接非常志愿。④网站防止侵权,制止右键,百度蜘蛛是否可以识别内容如果你在查看网页源代码时候,可以很好看到页面内容,理论上百度蜘蛛就是可以正常抓取页面,这个你同样可以利用百度抓取诊断去解析一下看看。⑤百度蜘蛛,真有降权蜘蛛吗?早期,很多SEO人员爱慕分析百度蜘蛛IP段,实际上官方已经明确表示,并没有说明哪些蜘蛛爬行代表降权,所以这个问题不攻自破。⑥屏蔽百度蜘蛛,还会收录吗?常规来说屏蔽百度蜘蛛是没办法收录,虽然会收录首页,但是内页却不能收录,就好比“淘宝”基本上都是屏蔽了百度蜘蛛,只有首页但是依然排名很好。总结:很多市面上就会出现一个蜘蛛池这样字眼出现,这是一种并不好一种变现方式,并不建议大家使用,上述仅供大家参考。百度蜘蛛是什么

北京市住房公积金联名卡问题-百度录入-北京市-住房公积金-学习网-联名卡-问题

2025-09-05

在北京几乎每家单位都会为员工缴纳五险一金,这里所说一金就是住房公积金,跟住房公积金紧密相关无疑就是公积金联名卡了。  很多人就会,公积金联名卡是做什么用呢?可能如果你不做公积金提取,这个卡只是个简陋储蓄卡,但是只要你做提取,公积金账户里面钱做完相应手续后就会转到你公积金联名卡里面,当然,公积金钱也并不是你想提就能提取哦。  下面说说关于这个公积金联名卡的问题。  首先个问题,新入职到一家公司后,多久我就可以料理公积金联名卡了呢?新入职一家公司,公司会为你缴纳公积金,在缴纳次月开始你就可以料理公积金联名卡了。  第二个问题,公积金联名卡是公司给我料理还是我自己也能料理呢?一般情况下公积金个人料理即可,因为牵扯到密码等信息,所以个人料理也会比较方便。  第三个问题,公积金联名卡如何料理呢?本人带上自己有效身份证去银行柜台直接料理即可,料理时候告诉工作人员你是来料理公积金联名卡就可以了,当然,并不是所有银行都有这个料理资格,目前在北京只有中国银行,北京银行,招商银行,交通银行,工商银行这五家银行是可以料理,具体料理哪家银行以公司人力部门给到建议为准。

常见搜索引擎优化问题,以及解决方法-长沙网络推广公司-长沙-解决方法-网络推广-学习网-搜索引擎优化

2025-09-05

现在很多人都在做搜索引擎优化,大每个人都懂:内容,标,关键字,外链等等。但是要想比别人做得更好,就需要看细节东西了。本文列出了一些常见搜索引擎优化问题,以及具体解决方案,渴望对相关人员有所帮助。1. URL大小写这个问题常见于使用.NET技术网站,事实上是因为网站服务器在配置上就是要响应大写URL,它不会重定向或者写小写版本。随着搜索引擎在识别标准版本和忽略复版本技术上有了很大进步,我们也常常不关注这个问题。但是,搜索引擎并不完美,所以我们必须要自己动手。如何解决:在IIS 7服务器上有一个URL写模块,可以帮助解决这个问题。在这个工具界面上,你可以执行小写URL,之后这条规则就会加到网站配置文件中,从而解决问题。2. 首页有多个版本这个问题也是经常会在.NET网站上碰到,当然其他平台也会有。举个例子,我们通常会碰到这种URL:www.example.com/default.aspxwww.example.com/index.htmlwww.example.com/home当然,现在搜索引擎也会帮你解决这个问题,但是最好做法是首先时间自己解决。如何解决:要发现这些网页可能会有点棘手,因为不同平台有不同URL结构,所以解决方法有点像猜谜。你可以用工具摹仿蜘蛛爬行你网站,导出excel表爬行记录,筛选Meta标签,搜索网站首页标,很容易就可以找到首页。我比较倾于301转,将其他复页面指到我们确定的那个首页,你也可以通过添加rel=canonical标签来解决这个问题。另一种方案是使用工具,例如Screaming Frog,来摹仿蜘蛛爬行,找出指向重复页面链接。然后你可以编辑这些页面,指正确URL,这样就不需要通过301转而担心链接权重的降低。小提示:你可以查看每条URL谷歌缓存,来看是否有问题。如果谷歌没有发现URL是一样,你可以看到这写URL不同PR和缓存日期。3. URL结尾查询参数在有数据库驱动电子商务网站,这种问题很常见。也并不是说其他类型网站没有,但是一般电子商务网站上有大量产品属性和筛选选项,如颜色,大小等。在这种情况下,用户点击URL在搜索引擎优化方面都比较友好,但是可以常常看到有很多链接结尾是像我下面例子这样:www.example.com/product-category?colour=12在这个例子中,某种颜色是作为筛选产品类别依据。这种筛选方法对于用户来说是很好,但是对搜索引擎就不好了,尤其是有时候客户并不是用颜色来搜索某个特定的产品。在这种情况下,对某些关键词来说,这个URL就不是一个好登陆页。当很多参数结合起来时候,可能会导致蜘蛛资源被用尽。更糟糕是,有时候尽管参数位置不一样,但是却返回相同内容,例如:www.example.com/product-category?colour=12&size=5www.example.com/product-category?size=5&colour=12尽管路径不一样,但是这两个URL返回是相同内容,搜索引擎会认为这些页面是复内容。请记住,谷歌是根据你网站PR值来分配蜘蛛资源。请确保这些蜘蛛资源有充分利用。如何解决:在继续之前,我们要解决另外一种常见相关问题:URL可能对搜索引擎不友好是因为他们不是数据库驱动。在这个特别情况下,我并不担心以上的问题,我更担心是蜘蛛资源浪费和一些不需要页面被索引了。第一要解决是哪些页面是要蜘蛛爬取和索引,这个取决于你关键字研究,你需要交叉引用数据库中核心关键词属性。在电子商务网站,每个产品都有其关联属性,这也是数据库一部分。下面是一些常见例子:Size (i.e. Large)  尺寸(大)Colour (i.e. Black) 颜色(黑色)Price (i.e. £49.99) 价格 (£49.99)Brand (i.e. North Face) 品牌(North Face)你工作是要找出哪些属性是关键词一部分,用户可以找到这个产品。还要确用户需要使用哪些属性组合。这样做后,你可能会发现一个搜索量很高关键词是North Face + waterproof jackets(防水夹克)。这时,你需要做一个被爬行和索引North Face + waterproof jackets登陆页。还要确保数据库属性中有一个对搜索引擎友好URL,不是"waterproof-jackets/?brand=5" 而是"waterproof-jackets/north-face/."还要将这些URL添加在网站导航结构中,PR值可以传递,用户也很容易找到。另一方面,你可能会发现Northface+Black这个组合关键词搜索量很低。你也就不会想要Northface+Black这两个属性页面被爬行和索引。如果你已经清晰哪些属性是要被索引,哪些不需要,下一步行动要不要开始取决于URL有没有被索引。如果URL还没有被索引,最简陋方法是把URL结构添加到robots.txt文件中。要完成这个可能需要多尝试一下RegEx,请确保RegEx是正确来以防万一。此外一要使用谷歌治理员工具Fetch, 需要注意是,把已经被索引URL添加到Robots.txt文件中不会让 他们从索引库中被删除。如果URL已经被索引,我们需要用rel=canonical标签来解决。如果不巧网站正在开发中,你不能进行修改工作,你会像上面遇到情况一样不能解决核心问题,这时候,rel=canonical标签可以帮助你延迟一点解决问题。把rel=canonical标签添加到你不想被索引URL上,然后指不想被索引相关URL。4. 软404错误这种情况通常不在预料中,用户没有觉得什么不一样,但是搜索引擎蜘蛛知道不同之处。软404页面意味着你发现不了真正错误页面,也找不到网站上那些地方对用户体验不好。从链接建设角度看,哪个方法都不是最佳抉择。可能你有过来链接链到了坏URL上,但是却很难追踪这些链接,然后重定向到正确页面。如何解决:幸运是,对于网站开发人员来说,返回一个404状态比200要相对简陋很多。设计一个很酷404页面对于你自己和用户来说都是一种享受。用谷歌治理员工具中一些功能可以帮助你找到软404页面,它会告诉你已经检测到软404页面。你也可以自己手动检测,随便用一个坏链接来测试,看看你得到返回状态是什么。我很爱慕用Web Sniffer这个工具来检测,如果你是用Chrome浏览器话,也可以用Ayima这个工具。5. 302重定向而不是301重定向网站开发人员很容易将这个重定向弄错,因为从用户角度来看,两者没有区别,但是搜索引擎确实分别对待。301重定向是永久性,搜索引擎认为它会传递权到新页面。302重定向是暂时,搜索引擎认为它不会传递权,因为搜索引擎觉得某天这个页面又会回来。如何解决:要找到302重定向的URL,我建议用Screaming Frog或者是IIS SEO Toolkit这两个工具,它们可以进行深度爬行。然后检查看它们是应该用302重定向还是301.要解决这个问题,你可以要求网站开发人员改变规则,用301重定向而不是302。6. 坏/旧SitemapXML网站地图对于搜索引擎蜘蛛爬取网站所有链接是非常有用,虽然有时候它不是非常必要。Sitemap可以正确引导搜索引擎。但是,一些XML sitemaps是一次性,很快就过时了,导致一些坏链接还在里面,但是新链接却没有。志愿状态是,要期更新XML sitemap,删除坏链接并添加新链接。对于一个大网站来说,经常添加新页面是很。Bing也说过,他们对于sitemap“脏乱”也是有一个临界值,如果超出了这个临界值,他们就不那么信赖这个网站。如何解决:第一,审核你当前sitemap,找出坏链接。可以用Mike King这个工具。其次,告诉网站开发人员网站动态,以便期更新。根据你资源来确周期:每天一次,每周一次或者是每月一次。这些更新绘画一些时间,但是从长远来说会节约你很多时间。这里有个额外提示:你可以尝试创建一些sitemap,只包含最新产品,然后以更高频率来更新这些特定的sitemap。如果你有足够开发资源,也可以创建一个sitemap,只包含没有索引URL。7. 给robots.txt文件错误指令最近遇到一些例子,很多页面被爬取和索引是因为他们被锁在robots.txt文件中。这些页面之所以会被爬取是因为robots.txt文件中指令是错误。单独命令是正确,但是结合在一起是就是错误。如何解决:谨慎使用robots命令,如果有单独指令,要确认接下来其他指令是什么,即使是这些指令已经被提到过。充分利用谷歌治理员工具测试功能,它会告诉你它对你robots.txt文件反应。8. robots.txt中有隐蔽字符我最近帮客户做了一个技术审核,发现谷歌治理员工具给我一个告诫:“语法不理解”。我检查了一遍文件,然后测试了一下,一切都很正常。最后我同事诊断出了问题:在文件中发现了一个隐蔽字符。如何解决:解决这个问题很简陋。简陋写robots.txt文件,然后运行一遍命令,再新检查。9. 谷歌爬行 base64 URL这个问题很有趣,最近一个客户发现在治理员工具中发现404错误在大量增添。我们一看,发现几乎所有错误都是这个格式URL:/AWYgeW91IGhhdmUgZGVjb2RlZA0KdGhpcyB5b3Ugc2hvdWxkIGRlZmluaXRlbHkNCmdldCBhIGxpZmU/。治理员工具会告诉你这些404来源,我们就去页面找这个URL是怎样生成。经过大量发掘,我们发现这些信赖凭证(authentication tokens)都是Ruby on Rails生成,是为了防止跨站点请求。在网页代码中有一些,谷歌蜘蛛还试图去爬取这些信息!更大的问题是,这些信赖凭证(authentication tokens)是动态生成,并且独一无二,因此我们找不到。如何解决:针对这个情况,很幸运,我们可以通过添加Regex到robots.txt文件中,告诉蜘蛛不要爬行这些URL。10. 服务器配置不当我遇到了一个问题,某个网站主登录页没有排名。这个页面以前是有排名,但是在某个时候掉下来了。所有页面看起来都不错,看不出有任何作弊嫌疑。经过大量调查和发掘,最后发现原先是由于服务器错误配置,一个小小错误造成,这个服务器是HTTP标头。通常,客户端(浏览器)会发送接受标头,指出它能理解文件类型,这几乎不会修改服务器操作。服务器端会发送内容形式标头,来识别文件是HTML,PDF或者是JPEG之类。这家网站服务器返回是文件类型标头。如果你发送接受标头是以text/html开头,那是服务器作为内容类型标头返回内容。这种行为很特殊,但是很难注意到,因为浏览器总是发送以text/html开头接受标头。但是,Googlebot在爬行时候会发送"Accept:*/*"(表示它接受所有东西)。我发现,如果我发送*/*标头,服务器就会挂掉,因为*/*不是一个有效内容类型,服务器会崩溃,发送错误响应。把浏览器用户代理改成Googlebot并不会影响HTTP标头,像websniffer这种工具不会发送跟Googlebot一样标头,因此,你根本不会注意到这个问题。改掉这个问题几天后,页面又新被索引了。常见搜索引擎优化问题,以及解决方法-长沙网络推广公司