SEO常见问题百度站长平台回复汇总.doc

上传人:hw****26 文档编号:3552766 上传时间:2019-06-04 格式:DOC 页数:9 大小:52.50KB
下载 相关 举报
SEO常见问题百度站长平台回复汇总.doc_第1页
第1页 / 共9页
SEO常见问题百度站长平台回复汇总.doc_第2页
第2页 / 共9页
SEO常见问题百度站长平台回复汇总.doc_第3页
第3页 / 共9页
SEO常见问题百度站长平台回复汇总.doc_第4页
第4页 / 共9页
SEO常见问题百度站长平台回复汇总.doc_第5页
第5页 / 共9页
点击查看更多>>
资源描述

1、SEO 常见问题 百度站长平台答复汇总整理收集,童衣网,http:/1、买来的域名以前有作弊,是否会影响?常见问题:一个网站,文章资讯由数个编辑编辑人工增加(少部分原创) ,百度蜘蛛每日来爬,就是页面一页不收录,已经一个月了。 该域名系拍卖而来,不知是否以前有过被惩罚记录,抑或其他原因?请教!百度官方回复:对于域名转手,我们有一套判断机制,正常的域名转手,域名会被当做一个全新的域名看待,无论此前是否有过作弊被惩罚,前帐一笔勾销。2、关于 301 跳转的权重继承问题常见问题: 域名 A 曾经 301 至域名 B,如果现在又将域名 B 301 回 A,是否还能保持原来权重?百度官方回复:还能保持原

2、来的权重,但会有一段时间的考查和权值转移期3、网站被黑导致 K 站该如何处理?常见问题:网站在 9.19 被恶意攻击,被加入了大量不良信息,之后被百度收录。网站工作人员及时清理了那些信息,但是百度在 10.17 把本站给 K 了。本站为工业类正规站,并且无任何作弊记录。该如何处理?百度官方回复:黑客恶意攻击网站以后,会在网站中插入大量的作弊内容。建议尽快清理黑客插入的不良信息并在 Baiduspider 抓取这些内容时返回 404 代码,这样我们才能迅速的发现网站已经恢复正常。4、 robots.txt 到底能不能屏蔽百度蜘蛛?常见问题:我在 robots.txt 中设置了禁止百度收录我网站的

3、内容,为何还出现在百度搜索结果中?百度官方回复:如果其他网站链接了您 robots.txt 文件中设置的禁止收录的网页,那么这些网页仍然可能会出现在百度的搜索结果中,但您的网页上的内容不会被抓取、建入索引和显示,百度搜索结果中展示的仅是其他网站对您相关网页的描述。5、没做竞价网站会被 K 吗?常见问题:Baiduspider-sfkr 来过之后,当天网站收录就被 K 为 0 了,然后百度蜘蛛还是正常爬取,但就不收录。请问这是怎么回事,没有做竞价的站,居然来了竞价蜘蛛,发现没做竞价就 K 站?百度官方回复:百度的商业推广和自然搜索,是由完全独立的两个部门分别运营两套独立系统。Baiduspide

4、r-sfkr 的抓取,和网页自然搜索无关,也不会对网页自然搜索产生任何影响。6、百度下的 301 是将权重替换还是叠加?常见问题:新域名在百度下的权重比旧域名高的情况下,将旧域名 301 重定向到了新域名会有什么影响?或者说百度下的 301 是将权重替换还是叠加的呢?百度官方回复:将旧域名 301 重定向到新域名,旧域名的权值会叠加到新域名上。7、220.181.51.* 这个 ip 段是百度蜘蛛吗?常见问题:220.181.51.* 这个 ip 段是百度蜘蛛吗?官方回复:如何判断是否冒充 Baiduspider 的抓取?百度帮助中有详细的描述http:/ 关于使用多域名实现资源并行下载对网站

5、的影响常见问题:很多网站为了提高网站访问速度,网站对静态资源文件使用了独立的无 cookie域名。虽然提升了网站的性能,但同时也在网站页面上产生了大量的不属于该网站域名的资源调用链接。例如: 网站将 域名做为其图片资源调用的域名来使用,这时在 的页面上调用的图片 HTML 代码为请问 Lee 对于这类的 URL 是如何判断的呢?是否会将其做为该页面的一个出站链接来判断?如果页面上这类的链接过多,是否会对网站的 SEO 效果产生影响呢?百度官方回复:这是一种非常正当的做法,从网页搜索的角度来看,没有任何直接的影响,和调用本站的资源是一样的。9、 关于重复网页判断与代码语义化常见问题:某房地产

6、网站,该网站主要包括一些房子的数据,格式如下:房子的实际面积:90 平方房子可用面积:100 平方房子是否抵押:否房子是否过户:是.一套房子有大概二十多条类似的属性数据,网站有十几万套房子数据,全部都用 table 标签布局显示。数据的内容大多是一些数字,文字比较少。它们的排版格式基本一样,只是数据的内容不同。问题 1、请问这样的网页百度是否会把这些页面当成雷同或重复页面拒绝收录呢? 但实际上那些数据都是不一样的,都是有用的。问题 2、从网页代码语义化的角度来说,用什么样的 html 标签才能让百度更容易理解我的数据呢?百度官方回复:问题 1、这些页面不会当做重复页面拒绝收,百度可以识别问题

7、2、从网页代码语义化的角度来说,用什么样的 html 标签才能让百度更容易理解我的数据呢?百度官方回复:问题 1、这些页面不会当做重复页面拒绝收,百度可以识别问题 2、可参考百度搜索引擎优化指南 2.010、 搜索引擎如何处理一个页面有多个重复的链接?常见问题:问题 1:一个页面有多个重复的链接,并且链接文字相同,搜索引擎在传递权重时,只传递一次权重,还是每个链接都要传递权重?另外,这几个重复的链接获得的权重一样么?问题 2:如果链接文字不同,搜索引擎会怎么分配链接的权重?百度官方回复:回复 1:重复的链接不会增加链接权重;回复 2:链接的权重判断是个极其复杂的系统,我们不推荐关注技术细节。我

8、们系统中的任何策略,都是以“对用户是否有价值”为判断原则和标准。这不仅仅是个口号,在这个链接的话题上不妨套用一下:一个页面出现了许多文字不同,指向相同的链接,它们对用户有价值吗?11、 关于 nofollow 属性的链接常见问题:我们知道,锚文本链接如果没有 nofollow 属性,搜索引擎会给于权重,站长们一般也通过这个方式进行推广,但是现在用锚文本链接推广越来越难,很多地方只支持发文本链接, 我想问的是: 1.文本链接 url 地址,百度是否会发现他是一个 url 地址并通过这个地址到相应的 url 地址上去抓取?2.不带 nofollow 属性的链接,一般蜘蛛会认为他给于了这个地址以权重

9、. 那么文本链接 url 地址,是否也会给于相应的 url 地址权重呢?以上二个问题想从百度得到一个确定答案, 因为站长群里有很多说法,不知道哪个是真的?官方回复:1.文本链接 url 地址,百度会发现他是一个 url 地址并通过这个地址到相应的 url 地址上去抓取 2.我们对链接是否应该传递权重,唯一的判断标准是:这个链接是否用户 or 对方网站真心推荐你的网站、这个推荐,是否对用户有价值。12、 网站改版后收录下降?常见问题:自从我的网站改版后,百度流量就急骤下降,百度收录也不断下降,我每天更新文章百度都会在当天收录一些内容,我 site 下百度收录量有所添加,但过 1-2 天再 sit

10、e下网站百度收录量就下降了,而且百度还有网站改版之前的链接,请问是什么原因导致了这种情况?官方回复:首先,site 查询的值仅作参考,详细查索引量需使用站长平台索引量查询工具 http:/ 网站的 gzip 压缩对网站的收录和权重有没有影响?常见问题:网站的 gzip 压缩对网站的收录和权重有没有影响?官方回复:gzip 对收录和权重没有影响。对搜索引擎唯一的影响,是抓取速度会快一些。14、 百度蜘蛛现在可以抓取 HTML5 的标签吗?常见问题:百度蜘蛛现在可以抓取 HTML5 的标签吗?官方回复:百度可以解析 HTML5 的标签。15、网站上线一个月,百度为何只抓取首页?常见问题:网站离上线

11、到现在已经一个月左右了,百度只抓取首页,也不见放出来,这是为何?官方回复:建议参考百度搜索引擎优化指南 2.0中“子域名与目录选择”部分。16、 搜索引擎对 .cn .org .com 有偏好吗?常见问题:搜索引擎对 .cn .org .com 有偏好吗?官方回复:没有偏好17、 限制抓取速度的 robots 协议该如何写?原问题出处:http:/ 提问到:因其站点每天被搜狗和 SOSO 疯狂抓取,站点一天流量中有 5 个多 G 全是蜘蛛,希望通过 robots 协议进行控制,只允许百度抓取,对其他搜索引擎的抓取间隔控制为一小时,以此来减少虚拟机的压力站长平台回复:目前除 yahoo 外的所有

12、搜索引擎都没有任何限制抓取速度的 robots 协议,对 Visit-time、 Request-rate 百度都不支持,所以楼主提的问题暂无法解决robots 的书写,建议可以参考 robots 工具 http:/ 、百度查询外链的命令是什么?常见问题:百度查询外链的命令是什么?官方回复:百度目前没有查询外链的查询命令,但我们已经计划在站长平台中支持外链查询。19、 服务器加了硬防之后会不会影响蜘蛛抓取?常见问题: 服务器加了硬防之后,会不会一定程度上影响蜘蛛的爬行与抓取?如果有影响,那么该如何解决为好?官方回复:不会,只要是不封禁百度的抓取,以及不写 robots,就不会影响。20、 百度

13、如何定义站群?常见问题:想知道百度如何定义站群?官方回复:互联网是在不断变化的,站群在每个时期的定义也不一样。不必纠结于概念,建议认真的思考一下,为何要做一堆的网站,这些网站是否对用户有价值,如果没有搜索引擎,还会不会这样做。提醒大家真正重视起“对用户的价值” ,这是我们的处事原则。像站群,我们并没有严格、一成不变的定义,也不会仅根据“是不是站群”就决定如何处理这些网站。我们的系统和策略会根据这些网站对普通用户的价值如何,做出评估和判断。当然,目前还有一些漏网之鱼,正是我们改进策略的动力和目标。我们一直有一个很好的反馈途径,有问题可以来下面的地址提交反馈,当然,请尽量清晰的描述问题,虽然我们无

14、法具体一一回复,但我们有专人负责收集、分类,并转给相关的负责人分析,并会成为算法改进的依据。http:/ ,这正是我们致力改进的,但罗马不是一天建成的,我们需要时间来逐步的完善,各位的意见和建议,对完善的过程有很大的促进作用,有什么意见,尽管提吧。21、 网站被多个域名 301 后的问题常见问题:我是 的站长,在启用 301 之前是 zxroujian.info,建站时间快一年了,每天更新网站内容以及稳定增长外链。在今年的 2 月 28 号更换了 VPS 主机,一直习惯性的将独立 IP 作为主机头,后来发现新的 VPS IP 有站长使用过,而且是很多个域名指向同个网站空间,在 3-4 时快照

15、不更新时才发现日志里有很多不知名的访问路径,后来经过排查才得知这一情况,由于百度 SE 蜘蛛已经按照这种方式爬了一个星期了,为了不出现其他异常情况,本人将 IP 主机头分离域名,并重新开始了以 IP 为主机头的空间,将原来的 VPS 使用站长网站全部采用 301 重定向到 zxroujian.info,网站百度快照一直停滞在3-3,由于很多做站群的朋友都使用 info,加上原先的域名并不好记,所以本人于 4-17 启用新域名 ,并另购了一个 IP,也将之前的网站数据全部搬移到新域名,将老域名做了整站 301 重定向到新域名,网站每天坚持更新一篇原创以及增加外链,新域名在当天就被百度收录并索引,

16、在 4-28 时老域名快照更新到 4-23,之后一直没更新后,直到今天老域名快照更新到 4-29,新域名快照更新至 4.18,网站百度快照还是跟不上,但发现有一个域名 301 重定向到新域名的站百度快照一直是隔天快照的,网址是 。当然在此期间还有少数竞争对手将某些域名 301 重定向到本站,也都做了 robots 和 404 页面处理,网站至今已经降权 2 个月了,快照也一直跟不上,希望给出答复!官方回复:不用在其他地方找原因了,建议认真看一下百度关于网站质量方面的建议:http:/ 1、网站的内容应该是面向用户的,搜索引擎也只是网站的一个普通访客,放置任何用户不可见、或者欺骗用户的内容,都可

17、能被搜索引擎当做作弊行为,这些行为包括但不仅限于:在网页中加入隐藏文字或隐藏链接;在网页中加入与网页内容不相关的关键词;具有欺骗性跳转或重定向;专门针对搜索引擎制作桥页;针对搜索引擎利用程序生成的内容;具有大量重复无价值内容;充斥大量恶意广告或恶意代码等。2、百度更喜欢独特的原创内容,如果您的站点内容只是从各处采集复制而成,很可能不会被百度收录。3、谨慎设置您的友情链接,如果您网站上的友情链接,多是指向一些垃圾站点,那么您的站点可能会受到一些负面影响。4、谨慎加入频道共建、内容联盟等不能产生或很少产生原创内容的计划,除非您能为内容联盟创造原创的内容。5、百度会尽量收录提供不同信息的网页,如果您

18、网站上相同的内容可以通过不同形式展现(如论坛的简版页面、打印页) ,可以使用 robots.txt 禁止 spider 抓取您不想向用户展现的形式,这也有助于节省您的带宽。22、robots 解除禁止抓取后的生效时间有多长?常见问题:案例:某网站域名注册时间:2011百度快照:不显示标题和描述网站上线测试的时候用 robots.txt 禁止抓取过,之后将 robots 限制解除,打开一段时间之后robots.txt 文件删除,删除之后几天又重新添加了 robots.txt 文件,经过 6.2-22 日日志观察,百度只访问 robots.txt,代码为:2011-06-16 06:27:11 W

19、3SVC46543651 61.155.161.183GET /robots.txt - 80 - 119.63.196.120 Baiduspider+(+http:/ 200 0 0robots 解除禁止抓取状态,需要一段时间生效的话,那这个周期又是多久呢,希望这个网站上的内容尽快恢复正常抓取、建立索引和显示!官方回复:百度发现 robots 设置并更新抓取状态,正常情况在 7 天以内。23、 关于蜘蛛抓取大量 ajax 异步调用页面链接的问题常见问题:最近一段时间发现百度蜘蛛大量抓取网站用于记录用户行为的链接,此链接属于 ajax 异步调用的链接,在页面 html 源码中是不存在的,链接

20、形式如下: /sys/visit.htm?ref=&T=gzmue1a3&ajax=true&jsoncallback=jsonp1331395306028&_=1331395306492&format=json此链接页面 html 响应信息结果为(其他链接响应结果类似):jsonp1331862444998(“result“:“success“,“client“:“c2lkPTAwMDAwMDAwNTE4MCZ2ZGF0ZT0yMDEyMDMxNiZ2aWQ9MTMzMTcxMjM2NDExODIyODg=“)我们很早已在 robots.txt 文件使用了Disallow: /sys/vis

21、it.htmDisallow: /sys/visit.htm?ref=*来屏蔽爬虫对该链接的抓取,但 apache 日志中任然能看到蜘蛛大量(每日三千左右)的抓取。请问,该如何减少百度蜘蛛对这类没有太多意义内容的抓取,以减少网站服务器负担,谢谢!官方回复:Baiduspider 肯定会遵守 robots 协议建议按照 http:/ 提供的方法检查一下是否冒充。http:/ 并用 robots 工具检查一下robots 的书写是否正确24、 是否有降权蜘蛛 IP,考核蜘蛛 IP,高权重蜘蛛 IP 这么一说?常见问题:百度蜘蛛的 IP,是否有降权蜘蛛 IP,考核蜘蛛 IP,高权重蜘蛛 IP 这么一说? 例如: 123.125.71.* 都说这个是降权蜘蛛 220.181.108.* 说这个是高权重蜘蛛官方回复:没有!25、 如何处理 404 页面?原问题出处:http:/ 提问到:如何处理站点中的 404 页面?站长平台回复:建议统一筛查全站近期的 404 页面,做成死链的 sitetmap 文件(制作帮助见http:/ ,登录站长平台,使用死链工具进行提交。此方法对降低 404 页面对网站造成的负面影响效果最优。

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 教育教学资料库 > 精品笔记

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。