SEO 基础 base of seo
Dec 4

慎用伪原创及采集功能,只有内容才留住访客
Good website content to keep visitors
   做站长的都知道,原创的重要性,原创是搜索引擎最喜欢的,对网站的收录、收入都是相当的不错。
   但是不少新的站长建站,图一时的安逸舒服省功夫又能赚到钱。从培训机构中或者其他地方,一般都是用些程序自动采集自动伪原创自动更新,然后挂上广告联盟的代码。用这种心态这种方法建站做不长远,网站的寿命也很短,做了一年半载的网站也没多少忠实用户。
   网站和商城店铺一样,更看重的是网站的回头客,被网站的质量做好了。流量自热而然就来了

   如果通过伪原创的网站,流量随着百度的排名高低飘忽不定,时高时低,而且做到一定程度自然会被百度K了,每天零零星星的几点流量,网站的寿命也将近结束。如果运气好,在流量高峰期或许能赚到点钱。
   如果不懂的操作,对seo方面不够了解,或许连空间域名的费用都赚不回来,很多新手到这个时候就可能半途而废。

   所以站长建站得有个良好的心态,就算你不懂优化,不去刻意的做什么推广,踏踏实实的做好内容,百度也会看得到,自然会给你带来一些流量。一不小心用户来了,发现你的网站上,有很多他感兴趣的内容,自然会添加一个收藏,下次再来访。我们也是一个普普通通的网民,我们对待其他网站也是这样。从百度上搜索到该网站了,发现该网站上有不少自己感兴趣的内容,自然也会添加收藏,或者记下域名或站点名称,方便下次来访。反而,那些广告一大堆,进去弹窗,还连续弹好几个,退出又弹的网站,一般不会再次来访了。因为用户的体验不好,造成的用户反感。

   很多站长伪原创(不知道什么是伪原创??),采用同义词或者拼音等替换对文章进行伪原创的方法让文章的整体内容阅读起来感到很难理解。且先不说百度到底是否判定给篇文章属于原创文章还是复制粘贴而来的文章,能不能获得流量排名。不知道采用该方法的站长有没有读过进行同义词替换后的文章,可读性极差,用词方面都是乱七八糟的,采集回来,虽然版权留下了,不清楚的朋友阅读了该篇文章还以为作者小学没毕业。就像做生意比的是服务,比得是质量。做网站也是,用户体验和内容一样重要,内容丰富,网站让访客看起来舒服,用起来方便。

  采集虽然能让你省了不少功夫,但这只是给互联网制造更多垃圾。但如果你做的网站需要整理很多内容,就希望有自己的的特色,而不是把别人的网站重新复制一遍。少量采集可以丰富一下网站的内容。如果是以采集为主的网站,寿命也是有限的。

  如果你一个人精力有限,你可以更新少量文章,不是更新的越多,收录的越多流量来的也越多。只要你的文章能给人带来帮助,做好相关优化,排名自然也会得到提升。就像我的简单街网站(www.jiandanjie.com)和IT学习网(www.itlife365.com)一样,上线一个月零几天,文章也不到一百篇。平均每天也是三篇文章左右。但现在搜索简单街购物,百度已经稳居第一了,怎么在简单街购物省钱,百度排名第二。还有不少关键词都在首页前三。现在直接输入域名访问的访客比搜索引擎来的访客还多。每天都用心的更新着网站,整理和分享更多大家感兴趣的内容,

   在此所以希望用心做站的朋友慎用伪原创及采集,认认真真的做一个能给访客带来帮助的网站,这里有他们感兴趣的内容,这样的网站随着时间的推移,就会有越来越多的忠实访客了。
Good website content to keep visitors ,you know

Sep 15

简单街IT生活网教您怎么自己书写一个保护网站隐私的Robots协议(robots.txt)

      我相信很多刚接触网站建设推广的新站长都和IT生活我一样是从虚拟空间开始起家的,一开始的流量,带宽都是有限制的,而搜索引擎对网站的抓取必然也是要占用流量的,所以避免搜索引擎"无效的抓取"并指引其进行高效的抓取就显得十分重要了,那我们如何才能屏蔽掉这些目录呢?这时我们只需要书写一个国际互联网界通行的Robots协议(也就是robots.txt)便可解决这一难题!

先来一下基础的了解什么是Robots协议(robots.txt)?

     Robots协议是国际互联网界通行的道德规范,网站通过它告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。其目的是保护网站数据和敏感信息、确保用户个人信息和隐私不被侵犯。因其不是命令,故需要搜索引擎自觉遵守。

Robots协议(robots.txt)的基本语法是什么,它是如何奏效的?

      当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,各搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
百度官方建议,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。
如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。

编写robots的基本语法
robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。

User-agent: 定义搜索引擎的类型
Disallow: 定义禁止搜索引擎收录的URL地址
Allow: 定义允许搜索引擎收录的URL地址

说明
  设定禁止访问的部分,可以用完整url,也可以用相对路径,可以是单个文件,也可以是整个文件夹,也可以用通配符限定指定类型
  设定允许访问的部分,不过因为默认是全部允许的,这个语法通常是配合disallow使用的,用它来完成 如"除了xxx.html该目录下全部不能访问"这样的设定。
要注意的是allow和disallow的顺序是有讲究的,搜索引擎会以它先看到的规则为判断标准。

鉴于网络安全与隐私的考虑,搜索引擎遵循robots.txt协议。通过根目录中创建的纯文本文件robots.txt,网站可以声明不想被robots访问的部分。每个网站都可以自主控制网站是否愿意被搜索引擎收录,或者指定搜索引擎只收录指定的内容。当一个搜索引擎的爬虫访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果该文件不存在,那么爬虫就沿着链接抓取,如果存在,爬虫就会按照该文件中的内容来确定访问的范围。
简单街IT生活网教您怎么自己书写一个保护网站隐私的Robots协议(robots.txt)

我们常用的搜索引擎类型有:(User-agent区分大小写
google蜘蛛:Googlebot
百度蜘蛛:Baiduspider
360蜘蛛:360Spider
sogou蜘蛛:Sogou Web Spider
yahoo蜘蛛:Yahoo!slurp
alexa蜘蛛:ia_archiver
bing蜘蛛:MSNbot
Soso蜘蛛:Sosospider
Google Adsense蜘蛛:Mediapartners-Google
有道蜘蛛:YoudaoBot
泽许蜘蛛: Zexuwhte
altavista蜘蛛:scooter
lycos蜘蛛:lycos_spider_(t-rex)
alltheweb蜘蛛:fast-webcrawler
inktomi蜘蛛:slurp

robots.txt文件使用误区
   特别提示:robots里面内容的大小写不可更改,Disallow后面的冒号必须为英文状态的
误区一
   在robots.txt文件中设置所有的文件都可以被搜索蜘蛛抓取,这样可以增加网站的收录率。
网站中的脚本程序、样式表等文件即使被蜘蛛收录,也不会增加网站的收录率,还只会占用服务器存储空间。因此必须在robots.txt文件里设置不要让搜索蜘蛛索引脚本程序、样式表等文件,具体哪些文件需要排除,在robots.txt使用技巧一文中有详细介绍。

误区二
  搜索蜘蛛抓取网页太浪费服务器资源,在robots.txt文件中设置所有的搜索蜘蛛都不能抓取全部的网页。
如果这样的话,会导致整个网站不能被搜索引擎收录。

robots.txt文件字符编码
   robots.txt使用什么字符编码,并没有相关规定,都是各搜索引擎自已定义的。虽然google和其它搜索引擎建议大家使用 utf-8 字符编码格式的robots.txt,但几乎所有的搜索引擎都支持 ANSI 编码格式,而google自已对 utf-8 编码格式的robots.txt,会出现首字乱码。所以为了达到最大的兼容性,建议大家使用 ANSI 格式编码,或者使用 utf-8 编码格式,但需要空出首行。
还有一个建议就是robots.txt中最好不要出现中文,即使是注释也要使用英文。

robots.txt文件生效时间
robots.txt文件一般生效时间为7-15天,即1-2周。如果新网站源码中包含robots.txt文件,那样蜘蛛进行爬行时就会生效,如果是后来添加的,那样蜘蛛需要对数据进行更新,时间一般在7-15天。

Sitemap:指示蜘蛛去爬取网站的sitemap文件

关于通配符:"$" 匹配行结束符;"*"匹配0或多个任意字符。

我的网站示例:
  User-agent: *
  Disallow: /admin/
  Disallow:/install/
  sitemap:http://jiandanjie.com/sitemap.xml

更多的示例如下,收集于网络:
简单街IT生活网教您怎么自己书写一个保护网站隐私的Robots协议(robots.txt)

用法举例

例1.禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
例2.允许所有的robot访问
(或者也可以建一个空文件 "/robots.txt")
第1种写法
User-agent: *
Allow: /
第2种写法
User-agent: *
Allow:
第3种写法
User-agent: *
Disallow:
例3. 仅禁止Baiduspider访问您的网站
User-agent: Baiduspider
Disallow: /
例4. 仅允许Baiduspider访问您的网站
User-agent: Baiduspider
Allow: /
例5. 禁止spider访问特定目录
在这个例子中,该网站有三个目录对搜索引擎的访问做了限制,即robot不会访问这三个目录。需要注意的是对每一个目录必须分开声明,而不能写成 "Disallow: /cgi-bin/ /tmp/"。
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/
例6. 允许访问特定目录中的部分url
User-agent: *
Allow: /cgi-bin/see
Allow: /tmp/hi
Allow: /~joe/look
例7. 使用"*"限制访问url
禁止访问/cgi-bin/目录下的所有以".htm"为后缀的URL(包含子目录)。
User-agent: *
Disallow: /cgi-bin/*.htm
例8. 使用"$"限制访问url
仅允许访问以".htm"为后缀的URL。
User-agent: *
Allow: / .htm$
例9. 禁止访问网站中所有的动态页面
User-agent: *
Disallow: /*?*
例10. 禁止Baiduspider抓取网站上所有图片
仅允许抓取网页,禁止抓取任何图片。
User-agent: Baiduspider
Disallow: /*.jpg$
Disallow: /* .jpeg$
Disallow: /* .gif$
Disallow: /* .png$
Disallow: /*.bmp$
例11. 仅允许Baiduspider抓取网页和。gif格式图片
允许抓取网页和gif格式图片,不允许抓取其他格式图片
User-agent: Baiduspider
Allow: .gif$
Disallow: /.jpg$
Disallow: / .jpeg$
Disallow: / .png$
Disallow: /.bmp$
例12. 仅禁止Baiduspider抓取。jpg格式图片
User-agent: /Baiduspider
Disallow: /.jpg$

百度各个产品使用不同的user-agent:

无线搜索 Baiduspider-mobile
图片搜索 Baiduspider-image
视频搜索 Baiduspider-video
新闻搜索 Baiduspider-news
百度搜藏 Baiduspider-favo
百度联盟 Baiduspider-cpro
商务搜索 Baiduspider-ads
网页以及其他搜索 Baiduspider
简单街IT生活网教您怎么自己书写一个保护网站隐私的Robots协议(robots.txt)
Sep 14

IT生活网分享好站长要了解wordpress的插件之cbnet Ping Optimizer
wordpress防过度ping插件:cbnet Ping Optimizer
在中国两大比较出名的搜索引擎就是百度baidu.com和谷歌google,对应什么是ping,各自的说明如下:
  百度官方的解释:ping是基于XML_RPC标准协议的更新通告服务,是用于blog在内容更新时通知百度blogsearch及时进行抓取、更新的方式。百度blogsearch在成功接受到ping以后,会立刻进行抓取并更新。使用ping服务,可以让百度blogsearch在第一时间抓取到您博客上的新内容。

 谷歌官方的解释:通过 Google"博客搜索"Ping API, 用户可以程序化的方式将博客内容的更新通知给 Google"博客搜索"引擎。这对于经常更新博客内容的用户尤其有用。博客服务提供商的管理人员也可以利用此API将其平台上的博客内容变化向 Google 通告,以便 Google"博客搜索"及时抓取来自这一服务提供商的最新内容。为设置对 Google"博客搜索"的自动 Ping 机制,请按照如下所述设置XML-RPC客户端或REST客户端以发送请求。您可以任选一种方法进行通知;两者都将按照相同的方式进行处理。其实和百度差不多


Ping服务有什么用?说白了就是:假设我们的网站已经设置好Ping服务地址,Ping的是Google。
我们写好一篇文章,按下发布,Wordpress就会自动通知给 Google"博客搜索"引擎,省的爬虫过了很久才来你这边了…
怎么设置WordPress的ping的方法
步骤:设置→撰写→更新服务。

常用的ping服务有以下几个:
http://ping.baidu.com/ping/RPC2(百度的)
http://blogsearch.google.com/ping/RPC2(谷歌的)
http://api.my.yahoo.com/RPC2(雅虎的)
http://api.my.yahoo.com/rss/ping(雅虎的)
http://www.feedsky.com/api/RPC2(feedsky的)
这样一设置,FeedSky更新也快,读者可以在第一时间知道有新文章了。

但是如果用了过多的Ping就要用到插件:cbnet Ping Optimizer,这个插件使操作变得简单。
当然ping的地址有很多,过多的ping定制会影响网站的文章提交或者更新的速度的。
目前收集的ping地址可以参考IT生活网精选收集WordPress Ping地址和优化Ping清单http://itlife365.com/blog/post/pinglist.php

Sep 14

IT生活网收集精选WordPress Ping地址和优化Ping清单
精选WordPress Ping 地址和优化Ping列表是40条建立WordPress博客的最佳实践中的第7条, 更新ping地址非常重要,
只有将你的博客广播出去, 你的博客才会有人看.

Ping服务允许你自动通知博客目录和搜索引擎你的博客已经更新了. 你的ping列表越大, 接收到从这些源过来的流量的机会就越高.
WordPress Ping 地址添加方法

因此检查下面这个列表, 然后将它包含到你的博客, WordPress博客可以在后台-> 设置 -> 撰写 -> 更新服务 中添加ping地址.
Ping 列表注意事项

    需要注意的是ping地址也不宜太多, ping会减慢发布文章的速度, ping地址添加自己网站面向的人群就可以了. 当然博客初期可以多加一些, 把博客推广出去.
    不能Ping得太过频繁, 过度使用Ping的话, 你的域的Ping要求可能就会暂时性被拦截.

使用 WordPress Ping Optimizer 测试 Ping 列表

在下面我会提供一些地址, 但是如何知道哪个地址是有效的, 哪些地址已经失效呢, 对失效的Ping地址去Ping是浪费时间和资源.

怎么测试? 使用Wordpress Ping Optimizer插件即可实现. 这个插件会记录Ping的日志, 如果没有Ping成功, 那就代表这个地址有问题, 如果多次Ping都不成功, 那就可以从我们的Ping列表中果断地删除掉了.
中文博客 Ping 列表

中文博客的话建议添加以下列表就行了, 如:
http://ping.baidu.com/cgi-bin/blog
http://blogsearch.google.com/ping/RPC2
http://api.my.yahoo.com/RPC2
http://blog.iask.com/RPC2
http://www.feedsky.com/api/RPC2
http://www.zhuaxia.com/rpc/server.php
http://ping.weblogalot.com/rpc.php
http://ping.syndic8.com/xmlrpc.php
http://ping.weblogalot.com/rpc.php
http://www.xianguo.com/xmlrpc/ping.php
http://rpc.weblogs.com/RPC2
http://api.moreover.com/RPC2
http://bblog.com/ping.php
http://rpc.blogrolling.com/pinger/
http://rpc.pingomatic.com/


针对英文的博客Ping列表

要针对外文的话, 添加以下网站, 这个列表是从外国的网站转来,部分可能有更新,如:
http://blogsearch.google.com/ping/RPC2
http://rpc.pingomatic.com/
http://rpc.weblogs.com/RPC2
http://services.newsgator.com/ngws/xmlrpcping.aspx
http://ping.feedburner.com
http://www.blogpeople.net/servlet/weblogUpdates
http://api.my.yahoo.co.jp/RPC2
http://xmlrpc.bloggernetz.de/RPC2
http://rpc.weblogs.com/RPC2
http://rpc.weblogs.com/RPC2
http://www.blogpeople.net/servlet/weblogUpdates
http://xping.pubsub.com/ping
http://ping.myblog.jp
http://ping.blo.gs/
http://ping.fc2.com/
http://ping.blogs.yandex.ru/RPC2
http://rpc.twingly.com

据说现已失效的 Ping 地址

据说现已失效的Ping地址包含以下:
http://technorati.com/ping
http://pingomatic.com/ping/
http://api.my.yahoo.com/RPC2
http://api.feedster.com/ping
http://api.moreover.com/RPC2
http://1470.net/api/ping
http://bblog.com/ping.php
http://ping.syndic8.com/xmlrpc.php
http://technorati.com/ping
http://ping.weblogalot.com/rpc.php
http://ping.bloggers.jp/rpc/
http://bblog.com/ping.php
http://blog.goo.ne.jp/XMLRPC
http://homo-search.com/ping.php
http://www.holycowdude.com/rpc/ping/
http://ping.blogoon.net/
http://ping.kutsolog.net/
http://ping.weblogalot.com/rpc.php
http://rpc.blogrolling.com/pinger/
http://coreblog.org/ping/
http://bulkfeeds.net/rpc
http://trackback.bakeinu.jp/bakeping.php
http://ping.bitacoras.com
http://ping.bloggers.jp/rpc/
http://ping.namaan.net/rpc
http://ping.snap.com/ping/RPC2
http://ping.worldblog.de/
http://r.hetena.ne.jp/rpc
http://www.wasalive.com/ping/
http://rpc.icerocket.com:10080/
http://topicexchange.com/RPC2
http://www.blogdigger.com/RPC2
http://www.blogstreet.com/xrbin/xmlrpc.cgi
http://www.newsisfree.com/RPCCloud
http://ping.weblogs.se/
http://blogmatcher.com/u.php
http://xmlrpc.blogg.de

The best WordPress blog ping list
http://maxblogpress.com/wiki/other_pluginsmaxblogpress_ping_optimizerthe_best_wordpress_blog_ping_list/

Tags: , ,
Sep 14

你还不知道什么是ping服务吗?
没事。和IT生活网学习百度提供的什么是Ping服务
什么是Ping服务
百度ping是基于XML_RPC标准协议的更新通告服务,用于博客把内容更新快速通知给百度,以便百度及时进行抓取和更新。
百度Ping服务使用方法

你可以采取手动通知和自动通知两种方式使用百度ping服务:
手动百度ping:访问http://ping.baidu.com/ping.html页面,在输入框中输入博客地址或者feed地址,点击“提交博客”按钮即可。
自动百度ping:如果您的博客程序(bo-blog插件的网站IT生活网www.itlife365.com就支持了)支持自动ping功能,您只需把百度的Ping服务地址配置到你的Blog发布后台或者客户端程序中,就可以实现自动通知的功能。百度ping服务的地址为:http://ping.baidu.com/ping/RPC2
自动Ping的XML_RPC

发送给百度Ping服务的XML-RPC客户请求需要包含如下元素:
RPC端点:http://ping.baidu.com/ping/RPC2
调用方法名:weblogUpdates.extendedPing
参数:(应按照如下所列的相同顺序传送)
博客名称
博客首页地址
新发文章地址
博客rss地址

更多内容请访问
http://zhanzhang.baidu.com/tools/ping?site=http://www.jiandanjie.com/
Ping请求包的例子
weblogUpdates.extendedPing xml-rpc请求举例
ping-service响应举例(推送成功时的服务器响应包示例、推送失败时的服务器响应包示例)

Tags: ,
分页: 1/3 第一页 1 2 3 下页 最后页 [ 显示模式: 摘要 | 列表 ]