跨境论坛 - 跨境电商学习交流平台,发布最新最及时的跨境电商资讯及行业头条,分享海外电商平台招商政策,店铺运营经验,跨境实用工具资源以及跨境第三方业务合作信息。
查看: 2420|回复: 0

外贸网站中robots规则的一些作用

[复制链接]
发表于 2013-1-8 22:52:50 | 显示全部楼层 |阅读模式

在进行外贸网络营销中,最让自己开心的是通过在一些外贸论坛中学习资源不断的提高自己,对我这种电子商务专业学不精却又想学的人,SEO就是一个比较好的发展方向了,一些html结构、链接、数据库信息、alt信息等等都是网站的重要组成部分,而这类型的技术要求并不会很高。

下面分享的是搜索引擎中的robots一些规则,这些规则比较适用于初学者。robots规则是让一个偶素所引擎更方便的抓取网站发布的信息,大家都可以参考一下亚马逊的robots规则,如果我们完成了规则的设置,对于搜索引擎营销方面是有很大的帮助的。

User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符

第一,基本排除。利用robots规则来阻碍搜索引擎蜘蛛访问网站,最简单的规则设置是使用*号加页面的方式。比如我需要使用规则来阻止搜索以前宁访问/ secret.html页面的代码为:User-agent: * Disallow: /secret.html。

第二,对目录的阻止访问。使用“/”就是禁止目录内的所有页面被抓去,与第一的差不多,只是需要把不被搜索引擎抓取的页面改为阻止抓取的目录。比如织梦的后台目录就是不允许被抓取的所以一般使用的代码是User-agent: * Disallow: /dede/。则表示禁止抓取dede目录下的文件,而如果是Disallow: /dede则是禁止抓取dede目录下的所有文件和子目录。

第三:动态页面的抓取。一般是使用Disallow: /*?* ,对于SEO是有很大的帮助的,但是有的SEO前辈说,一个网站由动态和静态页面会比较好,这个我不予评价,我本人还是倾向于全站静态,毕竟伪静态收录速度的快并不是吹的。

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关于我们|小黑屋|发布政策|跨境外贸论坛

GMT+8, 2025-5-10 08:40 , Processed in 0.045621 second(s), 18 queries .

跨境外贸论坛 - 跨境电商学习交流社区

Powered by Discuz! X3.4

快速回复 返回顶部 返回列表