如何建立404页面?seo操作的核心是站内优化,站内优化的主要内容就是做好种种细节。——做好这些细节对网站排名可以起到意想不到的效果。
今天seo基础操作的细节是404页面的建立。
我们可以发现,好的网站,都会精心制作404页面的。而不会把404页面留给下图。
连这个细节都没有做好的网站,一定不值得信任。不管有心无心,对于没有404页面的网站,用户都会质疑的,搜索引擎更是如此。
如果你要让搜索引擎信任你,404页面是最起码的要求。
如何制作404页面呢?
404页面的页面内容,可以随便确定。你可以找任何一个比较有名的网站,把它的404页面另存为下来,然后修改上面的文字。
比如:www.f360f.com/404.html 你另存为下来,修改上面的文字后,上传到你的网站根目录。
注意点:404页面,不要直接跳转到首页,而是引导用户点击回到首页。后果是,可能导致首页被k。
如何让错误的链接直接跳转到404页面?
对于几乎所有的虚拟主机,都提供404页面跳转功能。 (如果不提供,则目前没有办法做。除非网站程序本身自带有404功能)
第一步:请登录虚拟主机后台,假设你是和万网买的虚拟主机,那么你要登陆www.net.cn,输入你在这个网站上用户名和密码。
同理,你和某某买的主机,就登陆它的网站。
第二步:找到你要设置的网站的主机,在设置404页面的地方正确填写404页面所在的地址。(请仔细找下,如果实在没找到,得问下空间商是否没提供404功能)
如下图:
对于独立服务器,请在.htaccess 文件中加入代码: errordocument 404 /404.html
注意点是:/404.html 前面不要带主域名,否者返回的状态码是302或200状态码。其他情况,请百度搜索下其他方式。
做完404页面之后,访问一个错误的链接会自动跳转到404页面,然后,请用以下工具检查那个错误链接,看是否返回404代码。
在网站改版或内容删除之后,网站可能存在大量错误链接,那么404页面是必要的。我们同学也发现,做了类似404页面这样的细节之后,对网站整体流量和排名都有所提高。(但不是一定)
与404页面相关的问题:
1、如果是iis的主机呢?
一样的,在主机空间后台可以设置404页面。
2、网站是否也有404页面的功能?
是的,一些开源的程序,比如wordpress、dedecms等,都有默认的404功能。
3、如果虚拟主机不支持,也不能上传.htaccess文件,怎么办?
具体情况,请你找下师兄或同学一起探讨下。同学里不乏程序或服务器方面的高手。
4、404页面要命名为什么呢?
可以设置为404.html,也可以设置为其他的。注意观察下,虚拟主机后台是否有相关的提示。如果碰到困难,可以请主机技术人员获得帮助。
5、我可以在404页面上放统计代码吗?
可以的。这样还可以统计多少人访问了404页面。
6、404页面上的锚文本是否有用?
没用。因为404页面搜索引擎不收录。一般情况下,我们也建议,采用robots.txt文件把404页面屏蔽。robots.txt文件是什么呢?请从这里去了解这个概念:这里再详细介绍下:
搜索引擎用来爬取网页内容的工具我们称之为搜索引擎机器人。
搜索引擎机器人每次来到要抓取的网站,都会先访问这个网站根目录下的一个文件(robots.txt),如果不存在该文件,则搜索引擎机器人默认这个网站允许其全部抓取。
robots.txt是一个简单的纯文本文件(记事本文件),搜索引擎机器人通过robots.txt里的“说明”,理解该网站是否可以全部抓取或部分抓取。
如果你希望搜索引擎收录你网站的全部网页,则你可以不设置robots.txt或上传一个命名为robots.txt的空记事本到根本目录。
上传你的robots.txt后,通过 你的域名/robots.txt 可以正常访问。 注意,robots.txt的命名,都应该是小写。
访问如:www.f360f.com/
robots.txt文件的内容主要就是一个代码:disallow:
注意,robots.txt文件中一般要包含至少一个disallow:
如果都允许收录,你可以写一行disallow:/search.html 这个文件(search.html)本来就不存在也没事。
格式如:
user-agent: *
disallow: /search.html
disallow: /index.php?
disallow: /tempweb/
说明:
user-agent: * 星号说明,允许所有的搜索引擎来收录,包括百度、google、yahoo等。
disallow: /search.html说明不允许收录 /search.html 这个文件。
disallow: /index.php?说明不允许收录以index.php?为前缀的链接如:index.php?122.html、index.php?=12、index.php?/baidu等等
disallow: /tempweb/说明不允许收录/tempweb/里的所有文件。但可以收录如:/tempwebtaim.html 的链接。
这里介绍的是常用的几个代码。
如果需要了解更多关于disallow:的用法,请了解百度官方的介绍:http://www.baidu.com/search/robots.html
但为什么seowhy的robots.txt那么复杂?
作为未来的seo精英,你需要深入了解并充分利用robots.txt。
1、当你的网页已被收录,但想用robots.txt删除掉,一般需要1-2个月。
2、结合google网站管理员工具,你可以马上删除被google收录的网页。
相关问题:
1、我发现有一个网站被k了,但它加了我的网站链接,我可以把它屏蔽吗?
被k的网站加你网站的链接,对你网站是没有太大影响的。通过robots.txt也没有办法屏蔽外部链接。
2、我的首页是index.html,我可以把index.php屏蔽吗?
理论上是没大问题,但为了安全起见,请不要屏蔽。不屏蔽是一定没事,但屏蔽了,可能存在隐患。
3、我不喜欢我网站的后台登陆地址被搜索引擎收录,同时也不希望放在robots.txt里被其他人知道。我怎么来屏蔽呢?
你可以在后台登陆地址的首页里,添加noindex标签。
4、如果我只是具体某一个页面不希望被收录,怎么办?
可以用robots.txt屏蔽这个页面,也可以用noindex标签在该页面里屏蔽这个页面。
5、有什么注意的经验?
1、我们看到一些同学,在robots.txt里屏蔽了首页文件。比如:index.html、index.php、default.php,原因是,他的首页可能是index.asp,但通过以上这几个也能访问首页,于是,他就想屏蔽了他们。这样的做法是不对的。首页,尽量都不要屏蔽。
2、如果网站上存在一些比较大的文件、比如:打包文件、大图片文件、音乐文件、或电影文件、日志文件夹等等,可以屏蔽掉,因为这些文件可能让你的流量过大,占用过多宽带。~
这里再详细介绍下:
搜索引擎用来爬取网页内容的工具我们称之为搜索引擎机器人。
搜索引擎机器人每次来到要抓取的网站,都会先访问这个网站根目录下的一个文件(robots.txt),如果不存在该文件,则搜索引擎机器人默认这个网站允许其全部抓取。
robots.txt是一个简单的纯文本文件(记事本文件),搜索引擎机器人通过robots.txt里的“说明”,理解该网站是否可以全部抓取或部分抓取。
如果你希望搜索引擎收录你网站的全部网页,则你可以不设置robots.txt或上传一个命名为robots.txt的空记事本到根本目录。
上传你的robots.txt后,通过 你的域名/robots.txt 可以正常访问。 注意,robots.txt的命名,都应该是小写
访问如:www.f360f.com/robots.txt
robots.txt文件的内容主要就是一个代码:disallow:
注意,robots.txt文件中一般要包含至少一个disallow:
如果都允许收录,你可以写一行disallow:/search.html 这个文件(search.html)本来就不存在也没事。
格式如:
user-agent: *
disallow: /search.html
disallow: /index.php?
disallow: /tempweb/
说明:
user-agent: * 星号说明,允许所有的搜索引擎来收录,包括百度、google、yahoo等。
disallow: /search.html说明不允许收录 /search.html 这个文件。
disallow: /index.php?说明不允许收录以index.php?为前缀的链接如:index.php?122.html、index.php?=12、index.php?/baidu等等