写于 2018-12-21 02:16:00| w88优德官网| w88优德官网首页
<p>关于网站技术问题最令人沮丧的事情之一就是它们在搜索引擎中出现的方式通常是意外的或微妙的看起来像罚款实际上可能是网站的新版本或新功能引入的问题因为这些问题的真正原因通常并不明显,它们可能会导致与偏执狂相关的假设(“谷歌不喜欢我的网站”)或狂野的猜测:(“我被放入沙箱然后点击与熊猫我称之为Pandbox“)由于谷歌尚未生存并且没有情绪(我们),我们可以放心地(暂时)将任何搜索引擎拟人化并专注于寻找可能潜伏在其中的根本原因网站的技术基础设施网站覆盖问题的主要原因包括重复内容,允许抓取没有SEO值的网页,以及网络问题当您通过多个网址访问网页时会出现重复内容有时这是通过在另一个子域(例如http:// www1yoursitecom /)上或在IP地址(如http:// 19216811)上提供网站的完整副本而导致的重复内容也可能在页面级别发生,当页面可用时在这样的多个URL中:两种类型的重复内容都会减少索引中的页面数量,因为搜索引擎正在浪费时间来抓取网站的多个副本或页面搜索引擎会丢弃这些额外的副本,因为没有必要包含冗余索引中的页面这意味着在您的网站上抓取更多页面所花费的时间浪费了抓取无法使用的额外页面副本对于上面的示例页面,该网站必须至少抓取五次以获取每个页面网站如果您有一个重复的网站,您可以使用301永久地将任何访问者重定向到主站点修复页面级别的重复内容有点诡计从每组潜在的重复中选择一个规范URL URL并确保每个重复的网址永久重定向到规范网址如果无法做到这一点 - 例如,由于跟踪参数(如上面的referral_id = 1),请使用指向规范网址并配置Bing的链接rel = canonical标记和Google网站管理员工具忽略相应的参数允许抓取没有价值的网页意味着搜索引擎花费宝贵的资源来抓取API调用,日志文件或具有无限组合的网页,例如网页日历类似于重复内容,抓取效率低下意味着搜索引擎正在抓取无用的页面,代价是您要抓取的网页这些零价值网页不会导致任何转化,假设它们甚至被搜索引擎索引或排名很好for anything要解决这些类型的问题,请使用robotstxt文件排除这些类型的页面确保在Google Webma中测试对robotstxt文件的任何更改推送它们之前的工具网络问题可能非常难以捉摸我遇到的大多数网络问题涉及负载平衡或DNS负载平衡用于大型站点以在多个后端服务器之间传播Web请求有时它在一个错误配置中大多数爬虫请求转到一个后端服务器的方式,最终减慢到爬行DNS问题可能会使网站对首次访问者不必要地慢,或者在极端情况下,使其间歇性地不可用您可以轻松地检查您的DNS配置像IntoDNS这样的在线工具检查负载均衡器或后端网络的其他方面并不容易,因此最好向网络工程师询问基础设施最近的任何变化这些症状通常是由重要页面的重复副本引起的或搜索引擎无法理解您网站的链接结构重复内容可能会对排名产生负面影响因为到特定页面的入站链接 - 搜索引擎的一个非常重要的信号 - 分散在不同的URL之间因此,搜索引擎只知道它决定保留的页面的一个副本的入站链接数通过如上所述修复这些重复的URL,确保所有预期的入站链接都计入页面</p><p>搜索引擎的另一个重要信号是如何在站点内链接页面 例如,带有主页链接的页面将被视为比没有链接的站点上孤立的页面更重要的页面Flash,Silverlight或JavaScript中的编码站点导航元素可能使搜索引擎无法提取这些链接因此,他们缺少关于网站上哪些页面最重要的关键信息</p><p>这不是索引问题和流量丢失的根本原因的完整列表,但它确实包含了我见过的最常见问题我被要求审查的网站其他类似症状的原因是页面速度,缓存不友好,国际化问题,服务器配置错误和安全漏洞每个人都值得一篇文章本身我希望这提供一些额外的想法,在哪里寻找您的网站在搜索中的表现方式特别棘手的问题幸运的是,重定向您的网站的副本或修复DNS misc要容易得多配置,而不是影响谷歌或必应的算法虽然搜索引擎肯定会惩罚一些网站,并且网站可能会陷入算法变化,但在确定您对搜索引擎的任何结论有所了解之前,请务必仔细检查您的技术架构不要“喜欢”它本文中表达的意见是客座作者的意见,

作者:公冶铐