如何优化搜索引擎的单页网站

日期:2013-10-29 09:21:00

    当谷歌和其他搜索引擎索引网站,他们不执行JavaScript。这似乎把单页网站,其中许多依靠在一个巨大的劣势JavaScript相比传统的网站。

不在谷歌,可能意味着一个企业的死亡,和这个可怕的陷阱可以引诱不知情的***放弃单页网站。

然而,单页网站实际上已经在搜索引擎优化(SEO)传统网站优势,因为谷歌和其他公认的挑战。他们创造了一个单页网站不仅有其动态页面索引机制,而且还专门为优化网页爬虫。

在这篇文章中,我们将重点放在谷歌,但像雅虎这样的大型搜索引擎!并支持相同的机制。

    如何谷歌抓取一个单页面的站点

    当谷歌指标传统的网站,其网络爬虫(称为googlebot)***扫描和索引的***URI的内容(例如,www.myhome。com)。一旦完成,它那么所有的网页和索引页和链接。然后在随后的网页链接,等等。最终它索引网站上的所有内容及相关领域。

当Googlebot试图索引一个单页面的站点,所有它所看到的HTML是一个单一的空的容器(通常是一个空的div标签或身体),所以没有什么指标和没有链接爬行,和它索引的网站因此(在圆“文件夹”旁边的地板上的桌子)。

如果是故事的结束,这将是许多Web应用程序和网站的单页网站结束。幸运的是,谷歌和其他搜索引擎已经认识到单页网站的重要性和提供的工具,允许开发者的爬虫,可以比传统网站提供搜索信息。

如何做一个单页站点抓取

    为了使我们的单页网站抓取的***个关键是要认识到,我们的服务器能告诉如果一个请求是由一个履带式或由一人使用Web浏览器并作出相应的反应。当我们的客人是一个人使用Web浏览器,回复正常,但返回的网页爬虫,表明履带正是我们想要的,在一个格式的爬虫可以很容易阅读。

对于我们站点的主页,履带优化网页看起来像什么?这可能是我们的标志或其他初级图像我们希望出现在搜索结果中,一些SEO优化的文本解释的网站是什么或做什么,和一个列表的HTML链接,只有那些我们希望谷歌索引页面。什么样的页面没有任何CSS样式或复杂的HTML结构应用于它。也没有任何JavaScript,或者我们不希望谷歌网站区域的链接索引(如法律免责声明页面或其他页面,我们不想让人们进入通过谷歌搜索)。下面的图像显示一个页面可能提出一个浏览器(左)和爬虫(右)。

定制内容抓取工具

    通常,单页网站链接到不同的内容使用哈希爆炸(#!)。这些链接不遵循的人和爬虫一样。

例如,如果在我们单页站点链接到用户的页面看起来像/索引。HTM #!用户ID,123页,爬虫会看到#!并知道要找的URI / index.htm的网页?_escaped_fragment_ = =用户ID,123页。知道爬虫将遵循的模式和寻找这个URI,我们可以计划的服务器响应请求的HTML网页快照,通常会通过在浏览器中的JavaScript渲染。

照片将被谷歌,但只要点击我们在谷歌搜索结果列表将采取/索引。HTM #!用户ID,123页。单页网站的JavaScript将接管那里呈现页的预期。

这提供了单页网站开发者定制他们的网站专门为谷歌的机会,专门为用户。而不是写文字的清晰和吸引人的网页爬虫可以理解,可以优化每个无需担心其他。履带式的路径,通过我们的网站可以被控制,允许我们从谷歌搜索结果直接人一组特定的入口页面。这将需要的工程师开发的部分更多的工作,但它可以有大的工资从搜索结果位置和客户保持。

谷歌的网络爬虫的检测

    在写这篇文章的时候,Googlebot宣布自己的Googlebot / 2.1的用户代理字符串请求到服务器的履带(+ HTTP:/ / www.googlebot。COM/BOT。HTML)。一个js应用程序可以检查该用户代理字符串在中间件和发送回履带首页优化如果用户代理字符串匹配。否则,我们可以处理这个请求通常。



上一篇文章:
下一篇文章: