在日常SEO工作中,我们经常遇到各种问题需要利用301重定向解决链接结构问题,比如:网站的改版,重复内容的呈现,域名的更换等。如果你的站点基于搜索营销,当你遇到上述问题的时候,避免造成过多的缺失,了解301重定向很有必要。什么是301重定向?简陋理解:301重定向从SEO的角度,是通知搜索引擎将一个URL的全部资源重定向到另外一个新的URL,并且试图促使搜索引擎对新的URL进行有效收录,并且给予同等的权重。而域名重定向,则是将该域名下所有的URL全部重定向到新域名下,并且尽量维持整站权重的迁移。301重定向与302重定向的关系①301重定向代表永久性的定向转移,言外之意就是当网站改版后,旧的链接结构,将完全不复存在。②302重定向代表的是暂时性的定向跳转,比较常见的形式是短网址,302重定向并不能转移权重,并且对搜索引擎不是十分友好。301重定向的作用①有利于权重整合我们经常发现一个站点收录多个首页变体,比如:index.html,顶级域名,带www的二级域名。为了避免权重流失,我们需要选定首选域,比如带www的二级域名,并且将顶级域名以及附带域名后的默认文档index.html,利用301重定向到二级域名。值得提醒的是,如果你做了HTTPS改造,那么一定要将HTTP重定向到HTTPS。②避免重复内容诞生如果你的站点使用了伪静态,并且没有合理的处理好动态url,它同样会诞生重复页面的问题,因此,你可以借助301重定向解决这个问题,当然最好的办法,你可以在Robots.txt中屏蔽动态参数。301重定向的注意事项①在做301重定向的过程中,我们需要确保新旧URL的内容,高度相关,如果两篇内容不具备相关性,那么很可能会影响重定向的效果。②如果你试图利用多个内容相关的域名,301重定向到一个目标域名,让网站排名提高,这是一种相对危险的操作,很容易判断为作弊。301重定向的设置方法针对网站301重定向设置的方法主要是通过如下途径:①Apache的.htaccess实现301重定向。②微软主机可利用IIS重定向。③利用程序代码,在网站头部使用代码进行301重定向。具体相关的配置方法,有很多不同的服务器也有很大的差距,站长可以让程序员或主机商来协助完成。总结:301重定向是网站优化过程中,不可或缺的部分,当你遇到相关问题的时候,需要仔细研究。 绿泡泡堂SEO学习网https://www.绿泡泡堂seo.com
URL主要是针对虚拟空间而言,因为不是自己独立治理的服务器,所以无法正常进行常规的操作。但是自己又不渴望通过主域名的二级目录进行访问,而是渴望通过主域名的二级域名进行访问。所以这个时候就会用到URL重定向。一、url重定向是什么URL重定向主要是指主域名主域名www.xusseo.com下的二级目录,如www.xusseo.com/wap,但是由于wap是一个新的站点,所以正确的域名应该是应该是wap.xusseo.com。但是访问的文件夹却是www.xusseo.com/wap,这种访问则被称之为重定向。二、url重定向怎么做常见的重定向分为301重定向和302重定向。重定向是一种比较特殊的优化方式,因为需要通过代码来实现,从而变相提高权重值。所以在特别情况下,如果使用重定向过于严重,则会被搜索引擎判断为不是正当的优化。①301重定向301重定向被称之为永久性重定向,主要是针对一些永久性更改的网站,而且这种重定向一旦做好,将会对网站的优化大有好处。举例1:通过.htaccess配置文件进行重定向。具体可查看徐三SEO博客(301重定向是什么,如何去做操作)相关信息。②302重定向302重定向的使用并不多见,它通常被称之为临时性的转移。302重定向的使用常见于meta重定向和JavaScript重定向。而这种重定向是典型的不正当行为,很容易被搜索引擎发现,并将其重定向的网址定义为不合法网站,做出惩罚。举例1:meta重定向meta重定向通常是在首页的头部标签处进行重定向,最常见的是网址跳转。如果我们想要通过A网站跳转到B网站,那么可以在头部标签处加入以下代码:<metahttp-equiv=”refresh”content=”3″;url=”http://此处填写你的目标网站”>该代码的意思是当访问A网站3秒之后,通过302重定向进行网站跳转,并跳转到URL中填入自己的目标网站,也就是B网站。举例2:JavaScript重定向JavaScript是前端常用的一种代码语句,主要实现特效功能,同样在这里也可以实现302的重定向。JavaScript类型的重定向并不像meta类型的重定向那么明确地跳转,只是简陋地传递,可以造成一种搜索引擎爬行的假象。想要实现该功能,可以加入以下代码:总结:URL重定向一般来说使用的并不多,尤其是对于新手站长而言。但是针对一些公司运营的SEO熟手或者技术人员则有必要把握,通过使用重定向可以节省更多的时间和精力,来保障优化的顺利进行。推举阅读:详解网站url地址优化
当我首先次开始做SEO时,我会不断检查我的排名。我每周都生成报告数据,有时也会去百度并输入我一直在优化的关键字。回想起来,我意识到我失去了很多本来可以用得更好的时间,但排名是我当时的迷恋。虽然直至2019年我仍旧迷恋于排名报告…我有点不好意思承认它但我仍旧渴望看到每周排名报告。但是,我不会一直检查排名(我想我已经习惯了这一点)。现在和以前最大的区别在于,虽然我仍旧渴望定期看到排名,但我不仅仅是停留在那里:随着我成长为营销人员和分析师,我学会了提出一些有趣的问题。以下是您可能会发现有用的一些内容。1.为什么我要优化此关键字?大多数关键字列表都是由分析数据,直觉本能和治理“建议”组合而成。就个人而言,我更爱慕从数据开始工作,但你不应该忽视从多年体会中收集到的见识。有时,销售代表或撰稿人或客户服务代表将深入了解人们如何实际谈论您的产品或服务。关键是流量是达到目的的手段,如果关键字没有转换或支持您的品牌定位,那么可能不适合您。2.排名诞生的每月访问次数是多少?检查您的分析关键字报告。3.我从这个关键字获得了多少次转换?检查您的分析关键字报告。4.我在X位置获得的每月搜索流量的百分比是多少?您也可以将其视为点击率,将您的每月访问次数除以关键字的全球每月搜索量: ([关键字每月访问次数]/[每月全球搜索量]=搜索百分比)5.关键字是否将流量指向正确的页面?排名很高,但如果您将流量发送到次优页面会怎么样?6.当他/她输入此关键字时,搜索者的意图是什么?这个可能很棘手。您需要查看跳出率,网页浏览量,转化率和导航路径,以真正了解搜索者想要的内容。再看看问题#1,然后问问自己这是否是某人用来购物,浏览或研究的关键词。另请注意,某些关键字可能与多个主题相关。 您可能会在搜索者心中为与您的业务无关的关键字进行排名。7.不断提升某个关键字的排名,是否值得?您需要查看问题#3中的搜索百分比,然后查看它获得的转换类型。如果您在搜索结果中低于第1页,并且这些关键字仍在推动销售,甚至只是稳固的流量,那么可能需要投入一些时间进行优化。8.我应该关注哪些相关的关键词?所以你看到“ SEO”的结果。您正在接收访问者,订阅者,销售商等。但您注意到您的转化率低于1%且您的跳出率介于70-80%之间。也许你会更好地优化“ SEO教程”关于目标和投资回报率如您所见,所有这些问题都归结为定位和投资回报率,如果您正在追求关键字的排名,那么您应该知道这将显示出积极的投资回报。您也应该情愿寻求可能创造更好回报的替代方案。相关文章推举友情链接购买有什么风险?购买友链需要注意这些问题 几乎所有做SEO的人都想过要在某个时间购买友情链接,在友情链接买卖的斗争中,你并不孤单。尽管如此,友情链接买卖[…]...为什么SEO服务如此昂贵? 昨天下午2点,博主在某家咖啡店中与客户闲聊,虽然客户表达了想要做SEO的决心,但是在“SEO服务费用”如此高昂[…]...如何在短时间内为新关键词进行排名? 用正确的方法抉择关键词实际上是打破内容和SEO策略的核心,抉择一个过于宽泛的词,你会迷失在人群中,抉择一个具体[…]...SEO并不难,远离黑帽并运作有效的策略 SEO很难,不是吗?您是否想知道为什么即使在撰写了1000篇博文之后您也没有从百度获得足够的流量?我知道即[…]...SEO学习:3年SEO学习心得分享 拥有一个充分利用SEO最佳实践的网站是保障其最佳性能的重要部分。了解如何学习搜索引擎优化及其背后的基础见识对于[…]...seo屌丝浅谈关于排名的8个问题
什么是网站分权的,正常情况下网站的首页或者栏目页面的权重是最高的,如果网站栏目的权重超过了网站首页的权重,或者是文章的权重超过了网站首页或栏目权重,这种情况我们通常都说是网站分权了。对于这种情况往往会导致首页的权重比较低,seo每天一贴教你怎么解决网站分权的问题。 我们知道,对于新站,seo每日一贴搜索引擎没有任何信赖,所以我们需要在早期阶段提升站点。seo联盟因此我们必须注意新站的一些提示。许多网站治理员抉择更新多个文章,或者每天都更新内容,但由于能力有限,每次只能每天更新一篇或几篇文章,最后提升网站优化更加困难,并且很长时间内很难提升上去。 很长一段时间,seo每日一贴即使最后的效果仍旧相对较差。seo联盟网站分权的最根本原因是页面分类的相关性差,网站页面有过多以及网站结构不合理。网站的不合理结构是最麻烦的事情,我们需要优化网站结构,重新调整网站结构,甚至可能需要修改网站,从根本上解决这个问题。如果由于页面分权而导致外部链接太多,请减少链接或添加noflow标记。如果页面的相关性较差,增添页面文章的布局和网站的关键字密度。
我们做任何事情的时候,都会遇上大大小小的问题,做seocnm优化中也不例外,很多小伙伴为了做好seo排名点击,努力学习新东西,往往在这个过程中遇到各种的问题,那么都有哪些问题呢?下面我们简陋的说几个吧。网站的准备包括战略分析,如前期定位,seocnm内容区分和页面互通。在这些之后,域名,租赁空间,seo排名点击网站样式设计、网站内容和网站代码生成分为五个部分。此过程需要网站规划人员。网站设计师和网络程序员一起工作。网站是企业展现自己形象,发布产品信息,seocnm联系在线客户,通过电子商务开拓新市场,seo排名点击以极少的投资获得巨大的利益和利润的新平台。做网站需要购买空间,顾名思义,空间是存储网站内容的地方,程序数据和所有网站都放在此。如果您是新手,建议先学习网站空间的搭建。先进的服务器是是VPS,抉择空间业务要注意售后服务,稳固性,访问速度等其他情况。
tag作为一个网页常用到的聚合页面,是非常受欢迎滴,不管是用户体验,还是页面相关度,都能给用户一个很好粘性,从而深度浏览,可能不是朋友也能发现,重庆SEO徐三博客中tag标签,很多是不规范及不相干滴,因为启动了自动添加tag标签,所以是有那么不堪入目。当然还是建议大家自己手动添加,这样此页面的tag会更能体现出质量。那么tag的正确用途是什么呢?TAG页面聚合,其实一般的网站如果有TAG标签的话都可以运用,但是这里需要解决一个问题就是网页收录。我们发出来的这些TAG页面很多时候如果自己网站本身质量不好,就非常容易造成收录不佳,像很多大型的网站基本上收录是非常快的,差不多都是当天收录,对于SEO的整个优化过程,如果要解决收录还可以借助百度站长平台的链接实时推送功能并用,这样的效果会更加好。最后,我在总结下关于这累TAG页面的操作。因为这些特别条件如果不具备的话,那么很难通过TAG页面诞生一个很好的SEO效果出来。1、优质站点这个可以说是做TAG排名的核心所在,如果我们的网站是一个新站,本身百度来的蜘蛛就非常少,那么发的文章就很难被收录,需要大量的时间来养站。但是如果是一个数月或者数年的优质网站的话,一般发的文章收录都是比较快的时候,那么这个时候就已经满足了TAG页面的首先个要求点。2、内容质量过关这里只说明一点,就是发的文章尽可能优质原创发布,本身TAG是一个聚合,如果聚合的内容都是垃圾内容的话,非常容易让自己的网站降权。3、网站具备TAG标签对于一般的企业网站来说,这种操作是不适合的。尤其是一些网站做博客、论坛、门户这类垂直站点来说,大多数的网站程序都具备TAG标签功能,如果不具备的话,手动去做这种所谓的TAG就非常麻烦,所以关于这点也是SEO优化的必备条件。要想做好这类关键词排名并不难,重点在于去发现一些SEO的细节,尤其是最近的熊掌号出来的非常多,如果结合熊掌号来操作的话,收录和排名这块会更加好一些。tag的正确用途与注意事项1、TAG标签的使用和设置必须与文章内容相关、而且又是网站的核心关键词&长尾词。可能大家就有点奇特,直接把tag标签修改成网站核心词不是更好嘛,这里重庆SEO徐三解释下:整理网站中你想优化的所有长尾词,当然不包括首页或者频道页优化推广的相关的关键词,一个长尾词写至少5篇文章以上,固定设置成相同的tag标签,即你整理出来的长尾词。保障每个页面2tag标签列表页下面有至少五篇文章。这样你的TAG标签不被收录都不行。2、网站文章tag标签的标准设置:一篇文章的TAG标签的设置应该控制在3个左右不宜过多,过多就使主题过于分散。3、tag字数限制:每个TAG标签字数控制在6个汉字之内,tag标签不宜过长。4、tag标签不宜设置太热门的核心关键词,尤其是网站首页或者是网站频道页主要优化推广的关键词,这样如果推广的是网站的关键词的话,这样操作的会和首页以及频道页抢权重,一个热门词一个网站在百度很少能有多个排名,而每个页面的权重都是有限的,导出链接越多就越分散网站的权重,所以tag标签应该设置为主站或者频道页涉及不到的关键词。这样才干起到互补的作用。点评:tag的正确用途是什么,相信大家通过上文,应该知道如何去部署tag标签,尤其是图文较多地一些网站更适合tag标签,这样能把所有重点聚合在一起,也方便用户再次浏览。其实seo排名只是一个窍门,只有把思维及细节做好,那么这才是一个有技术有实力的seo营销人员。tag的正确用途是什么,这些问题不可小视-seo术语
2018年9月13日,百度对飓风算法进行升级,发布飓风算法2.0,主要打击采集痕迹明显、内容拼接、站点存在大量采集内容、跨领域采集等五类采集行为。以下是详细说明:一.跨领域采集:首先类:主站或主页的内容/标题/关键词/摘要等信息显示该站有明确的领域或行业,但发布内容与该领域不相关,或相关性较低。问题示例:美食类智能小程序发布足球相关内容第二类:站点/智能小程序没有明确的领域或行业,内容涉及多个领域或行业,领域朦胧、领域专注度低。问题示例:智能小程序内容涉及多个领域指批量构造多个站点/智能小程序,获取搜索流量的行为。站群中的站点/智能小程序大多质量低、资源稀缺性低、内容相似度高、甚至复用相同模板,难以满足搜索用户的需求。以上就是飓风算法3.0的相关说明,算法预计在8月内陆续上线。请大家及时查收站内信、短信等渠道的提醒,积极自查完成整改,避免不必要的缺失。
大家所使用的搜索引擎基本上每一天都会有上百亿的抓取处理,不管是个人,还是SEO网站推广团队都习惯性的去了解百度搜索引擎抓取原理,然而百度对于自身的算法是非常看重的,这就需要所做SEO人员时刻关注官方文档,深入了解文档内的真正含义。通常来讲,搜索引擎抓取原理主要包括:抓取建库、过滤、存储、结果展示,这四个流程,其中抓取建库与站长经常谈论的百度蜘蛛抓取规则有直接关系。那么,什么是百度蜘蛛?简陋理解,百度蜘蛛又名百度爬虫,主要的工作职能是抓取互联网上现有的URL,并对页面质量进行评估,给出基础性的判定。通常百度蜘蛛抓取规则是:种子URL->待抓取页面->提取URL->过滤重复URL->解析网页链接特点->进入链接总库->等待提取。1、如何识别百度蜘蛛快速识别百度蜘蛛的方式有两种:①网站蜘蛛日志分析,可以通过识别百度蜘蛛UA,来判定蜘蛛来访记录,相对便利的方式是利用SEO软件去自动识别。关于百度UA的识别,你也可以查看官方文档:https://ziyuan.baidu.com/college/articleinfo?id=1002②CMS程序插件,自动嵌入识别百度爬虫,当蜘蛛来访的时候,它会记录相关访问轨迹。2、百度蜘蛛收录网站规则有那些?并不是每一个网站的蜘蛛来爬寻抓取就会被收录的,这样就会形成一个搜索引擎主要流程,这个流程主要分为,抓取、筛选、对比、索引最后就是释放,也技术展示出来的页面。抓取:爬虫是根据网站URL连接来爬寻的,它的主要目的是抓取网站上所以文字连接,一层一层有规则的爬寻。筛选:当抓取完成后,筛选这个步骤主要是筛选出垃圾文章,比如翻译、近义词替换、伪原创文章等,搜索引擎都能够识别出来,而是通过这一步骤识别。对比:对比主要是实行百度的星火计划,维持文章的原创度。通常情况下,经过对比的步骤的时候,搜索引擎会对你站点进行下载,一来对比,二来创建快照,所以搜索引擎蜘蛛已经访问你的网站,所以网站日志中会有百度的IP。索引:通过确定你网站没有问题的时候,才会对你网站创建索引,如果创建索引了,这也说明你的站点被收录了,有时候我们在百度搜索还是不出来,可能原因是还没有被释放出来,需要等待。3、关于百度爬虫一些常见问题:①如何提高百度抓取频率,抓取频率暴涨是什么原因早期,由于收录相对困难,大家非常重视百度抓取频率,但随着百度战略方向的调整,从目前来看,我们并不需要刻意追求抓取频率的提升,当然影响抓取频次的因素主要包括:网站速度、安全性、内容质量、社会影响力等内容。如果你发现站点抓取频率骤然暴涨,可能是因为:存在链接陷阱,蜘蛛不能很好抓取页面,或者内容质量过低,需要从新抓取,也可能是网站不稳固,遭遇负面SEO攻击。②如何判定,百度蜘蛛是否正常抓取很多站长新站上线,总是所发布的文章不收录,于是担心百度爬虫是否可以正常抓取,这里官方提供两个简陋的工具:百度抓取诊断:https://ziyuan.baidu.com/crawltools/index百度Robots.txt检测:https://ziyuan.baidu.com/robots/index你可以根据这两个页面,检测网页的连通性,以及是否屏蔽了百度蜘蛛抓取。③百度爬虫连续抓取,为什么百度快照不更新快照长时间不更新并没有代表任何问题,你只需要关注是否网站流量骤然下降,如果各方面指标都正常,蜘蛛频繁来访,只能代表你的页面质量较高,外部链接非常志愿。④网站防止侵权,制止右键,百度蜘蛛是否可以识别内容如果你在查看网页源代码的时候,可以很好的看到页面内容,理论上百度蜘蛛就是可以正常抓取页面的,这个你同样可以利用百度抓取诊断去解析一下看看。⑤百度蜘蛛,真的有降权蜘蛛吗?早期,很多SEO人员爱慕分析百度蜘蛛IP段,实际上官方已经明确表示,并没有说明哪些蜘蛛的爬行代表降权,所以这个问题不攻自破。⑥屏蔽百度蜘蛛,还会收录吗?常规来说屏蔽百度蜘蛛是没办法收录,虽然会收录首页,但是内页却不能收录的,就好比“淘宝”基本上都是屏蔽了百度蜘蛛,只有首页但是依然排名很好。总结:很多市面上就会出现一个蜘蛛池这样的字眼出现,这是一种并不好的一种变现的方式,并不建议大家使用,上述仅供大家参考。百度蜘蛛是什么
在北京几乎每家单位都会为员工缴纳五险一金,这里所说的一金就是住房公积金,跟住房公积金紧密相关的无疑就是公积金联名卡了。 很多人就会问,公积金联名卡是做什么用的呢?可能如果你不做公积金提取,这个卡只是个简陋的储蓄卡,但是只要你做提取,公积金账户里面的钱做完相应手续后就会转到你的公积金联名卡里面,当然,公积金的钱也并不是你想提就能提取的哦。 下面说说关于这个公积金联名卡的问题。 首先个问题,新入职到一家公司后,多久我就可以料理公积金联名卡了呢?新入职一家公司,公司会为你缴纳公积金,在缴纳的次月开始你就可以料理公积金联名卡了。 第二个问题,公积金联名卡是公司给我料理还是我自己也能料理呢?一般情况下公积金个人料理即可,因为牵扯到密码等信息,所以个人料理也会比较方便。 第三个问题,公积金联名卡如何料理呢?本人带上自己的有效身份证去银行柜台直接料理即可,料理的时候告诉工作人员你是来料理公积金联名卡就可以了,当然,并不是所有银行都有这个料理资格的,目前在北京只有中国银行,北京银行,招商银行,交通银行,工商银行这五家银行是可以料理的,具体料理哪家银行的以公司人力部门给到的建议为准。
现在很多人都在做搜索引擎优化,大的方向每个人都懂:内容,标题,关键字,外链等等。但是要想比别人做得更好,就需要看细节的东西了。本文列出了一些常见搜索引擎优化问题,以及具体的解决方案,渴望对相关的人员有所帮助。1. URL的大小写这个问题常见于使用.NET技术的网站,事实上是因为网站服务器在配置上就是要响应大写的URL,它不会重定向或者重写小写的版本。随着搜索引擎在识别标准版本和忽略重复版本的技术上有了很大的进步,我们也常常不关注这个问题。但是,搜索引擎并不完美,所以我们必须要自己动手。如何解决:在IIS 7服务器上有一个URL重写模块,可以帮助解决这个问题。在这个工具的界面上,你可以执行小写的URL,之后这条规则就会加到网站的配置文件中,从而解决问题。2. 首页有多个版本这个问题也是经常会在.NET的网站上碰到,当然其他的平台也会有。举个例子,我们通常会碰到这种URL:www.example.com/default.aspxwww.example.com/index.htmlwww.example.com/home当然,现在搜索引擎也会帮你解决这个问题,但是最好的做法是首先时间自己解决。如何解决:要发现这些网页可能会有点棘手,因为不同的平台有不同的URL结构,所以解决方法有点像猜谜。你可以用工具摹仿蜘蛛爬行你的网站,导出excel表的爬行记录,筛选Meta标签,搜索网站首页标题,很容易就可以找到重复的首页。我比较倾向于301转向,将其他重复页面指向到我们确定的那个首页,你也可以通过添加rel=canonical标签来解决这个问题。另一种方案是使用工具,例如Screaming Frog,来摹仿蜘蛛爬行,找出指向重复页面的链接。然后你可以编辑这些重复的页面,指向正确的URL,这样就不需要通过301转向而担心链接权重的降低。小提示:你可以查看每条URL的谷歌缓存,来看是否有问题。如果谷歌没有发现重复的URL是一样的,你可以看到这写URL不同的PR和缓存日期。3. URL结尾的查询参数在有数据库驱动的电子商务网站,这种问题很常见。也并不是说其他类型的网站没有,但是一般电子商务网站上有大量的产品属性和筛选选项,如颜色,大小等。在这种情况下,用户点击的URL在搜索引擎优化方面都比较友好,但是可以常常看到有很多链接的结尾是像我下面的例子这样的:www.example.com/product-category?colour=12在这个例子中,某种颜色是作为筛选产品类别的依据。这种筛选方法对于用户来说是很好的,但是对搜索引擎就不好了,尤其是有时候客户并不是用颜色来搜索某个特定的产品。在这种情况下,对某些关键词来说,这个URL就不是一个好的登陆页。当很多的参数结合起来的时候,可能会导致蜘蛛资源被用尽。更糟糕的是,有时候尽管参数的位置不一样,但是却返回相同的内容,例如:www.example.com/product-category?colour=12&size=5www.example.com/product-category?size=5&colour=12尽管路径不一样,但是这两个URL返回的是相同内容,搜索引擎会认为这些页面是重复内容。请记住,谷歌是根据你网站的PR值来分配蜘蛛资源的。请确保这些蜘蛛资源有充分的利用。如何解决:在继续之前,我们要解决另外一种常见的相关问题:URL可能对搜索引擎不友好是因为他们不是数据库驱动的。在这个特别情况下,我并不担心以上的问题,我更担心的是蜘蛛资源浪费和一些不需要的页面被索引了。第一要解决的是哪些页面是要蜘蛛爬取和索引的,这个取决于你的关键字研究,你需要交叉引用数据库中核心关键词的属性。在电子商务网站,每个产品都有其关联的属性,这也是数据库的一部分。下面是一些常见的例子:Size (i.e. Large) 尺寸(大)Colour (i.e. Black) 颜色(黑色)Price (i.e. £49.99) 价格 (£49.99)Brand (i.e. North Face) 品牌(North Face)你的工作是要找出哪些属性是关键词的一部分,用户可以找到这个产品。还要确定用户需要使用哪些属性的组合。这样做后,你可能会发现一个搜索量很高的关键词是North Face + waterproof jackets(防水夹克)。这时,你需要做一个被爬行和索引的North Face + waterproof jackets登陆页。还要确保数据库属性中有一个对搜索引擎友好的URL,不是"waterproof-jackets/?brand=5" 而是"waterproof-jackets/north-face/."还要将这些URL添加在网站的导航结构中,PR值可以传递,用户也很容易找到。另一方面,你可能会发现Northface+Black这个组合的关键词搜索量很低。你也就不会想要Northface+Black这两个属性的页面被爬行和索引。如果你已经清晰哪些属性是要被索引的,哪些不需要,下一步行动要不要开始取决于URL有没有被索引。如果URL还没有被索引,最简陋的方法是把URL结构添加到robots.txt文件中。要完成这个可能需要多尝试一下RegEx,请确保RegEx是正确的来以防万一。此外一定要使用谷歌的治理员工具Fetch, 需要注意的是,把已经被索引的URL添加到Robots.txt文件中不会让 他们从索引库中被删除。如果URL已经被索引,我们需要用rel=canonical标签来解决。如果不巧网站正在开发中,你不能进行修改的工作,你会像上面遇到的情况一样不能解决核心问题,这时候,rel=canonical标签可以帮助你延迟一点解决问题。把rel=canonical标签添加到你不想被索引的URL上,然后指向不想被索引的相关URL。4. 软404错误这种情况通常不在预料中,用户没有觉得什么不一样,但是搜索引擎蜘蛛知道不同之处。软404页面意味着你发现不了真正的错误页面,也找不到网站上那些地方对用户体验不好。从链接建设的角度看,哪个方法都不是最佳抉择。可能你有过来的链接链到了坏的URL上,但是却很难追踪这些链接,然后重定向到正确的页面。如何解决:幸运的是,对于网站开发人员来说,返回一个404状态比200要相对简陋很多。设计一个很酷的404页面对于你自己和用户来说都是一种享受。用谷歌治理员工具中的一些功能可以帮助你找到软404页面,它会告诉你已经检测到的软404页面。你也可以自己手动检测,随便用一个坏链接来测试,看看你得到的返回状态是什么。我很爱慕用Web Sniffer这个工具来检测,如果你是用Chrome浏览器的话,也可以用Ayima这个工具。5. 302重定向而不是301重定向网站开发人员很容易将这个重定向弄错,因为从用户的角度来看,两者没有区别,但是搜索引擎确实分别对待的。301重定向是永久性的,搜索引擎认为它会传递权重到新的页面。302重定向是暂时的,搜索引擎认为它不会传递权重,因为搜索引擎觉得某天这个页面又会回来。如何解决:要找到302重定向的URL,我建议用Screaming Frog或者是IIS SEO Toolkit这两个工具,它们可以进行深度爬行。然后检查看它们是应该用302重定向还是301.要解决这个问题,你可以要求网站开发人员改变规则,用301重定向而不是302。6. 坏的/旧的SitemapXML网站地图对于搜索引擎蜘蛛爬取网站的所有链接是非常有用的,虽然有时候它不是非常必要。Sitemap可以正确引导搜索引擎。但是,一些XML sitemaps是一次性的,很快就过时了,导致一些坏链接还在里面,但是新的链接却没有。志愿的状态是,要定期更新XML sitemap,删除坏链接并添加新链接。对于一个大的网站来说,经常添加新页面是很重要的。Bing也说过,他们对于sitemap的“脏乱”也是有一个临界值的,如果超出了这个临界值,他们就不那么信赖这个网站。如何解决:第一,审核你当前的sitemap,找出坏链接。可以用Mike King这个工具。其次,告诉网站开发人员网站的动态,以便定期更新。根据你的资源来确定周期:每天一次,每周一次或者是每月一次。这些更新绘画一些时间,但是从长远来说会节约你很多时间的。这里有个额外的提示:你可以尝试创建一些sitemap,只包含最新的产品,然后以更高的频率来更新这些特定的sitemap。如果你有足够的开发资源,也可以创建一个sitemap,只包含没有索引的URL。7. 给robots.txt文件错误的指令最近遇到一些例子,很多页面被爬取和索引是因为他们被锁定在robots.txt文件中。这些页面之所以会被爬取是因为robots.txt文件中的指令是错误的。单独的命令是正确的,但是结合在一起是就是错误的。如何解决:谨慎使用robots命令,如果有单独的指令,要确认接下来的其他指令是什么,即使是这些指令已经被提到过。充分利用谷歌治理员工具的测试功能,它会告诉你它对你的robots.txt文件的反应。8. robots.txt中有隐蔽字符我最近帮客户做了一个技术审核,发现谷歌治理员工具给我一个告诫:“语法不理解”。我检查了一遍文件,然后测试了一下,一切都很正常。最后我的同事诊断出了问题:在文件中发现了一个隐蔽字符。如何解决:解决这个问题很简陋。简陋重写robots.txt文件,然后运行一遍命令,再重新检查。9. 谷歌爬行 base64 URL这个问题很有趣,最近一个客户发现在治理员工具中发现404错误在大量增添。我们一看,发现几乎所有的错误都是这个格式的URL:/AWYgeW91IGhhdmUgZGVjb2RlZA0KdGhpcyB5b3Ugc2hvdWxkIGRlZmluaXRlbHkNCmdldCBhIGxpZmU/。治理员工具会告诉你这些404的来源,我们就去页面找这个URL是怎样生成的。经过大量的发掘,我们发现这些信赖凭证(authentication tokens)都是Ruby on Rails生成的,是为了防止跨站点请求。在网页的代码中有一些,谷歌蜘蛛还试图去爬取这些信息!更大的问题是,这些信赖凭证(authentication tokens)是动态生成的,并且独一无二,因此我们找不到。如何解决:针对这个情况,很幸运,我们可以通过添加Regex到robots.txt文件中,告诉蜘蛛不要爬行这些URL。10. 服务器配置不当我遇到了一个问题,某个网站的主登录页没有排名。这个页面以前是有排名的,但是在某个时候掉下来了。所有的页面看起来都不错,看不出有任何的作弊嫌疑。经过大量的调查和发掘,最后发现原先是由于服务器的错误配置,一个小小的错误造成的,这个服务器是HTTP标头的。通常,客户端(浏览器)会发送接受标头,指出它能理解的文件类型,这几乎不会修改服务器的操作。服务器端会发送内容形式标头,来识别文件是HTML,PDF或者是JPEG之类的。这家网站的服务器返回的是文件类型标头。如果你发送的接受标头是以text/html开头,那是服务器作为内容类型标头返回的内容。这种行为很特殊,但是很难注意到,因为浏览器总是发送以text/html开头的接受标头。但是,Googlebot在爬行的时候会发送"Accept:*/*"(表示它接受所有的东西)。我发现,如果我发送*/*标头,服务器就会挂掉,因为*/*不是一个有效的内容类型,服务器会崩溃,发送错误的响应。把浏览器的用户代理改成Googlebot并不会影响HTTP标头,像websniffer这种工具不会发送跟Googlebot一样的标头,因此,你根本不会注意到这个问题。改掉这个问题几天后,页面又重新被索引了。常见的搜索引擎优化问题,以及解决方法-长沙网络推广公司