在进行外贸网络营销中,最让自己开心的是通过在一些外贸论坛中学习资源不断的提高自己,对我这种电子商务专业学不精却又想学的人,SEO就是一个比较好的发展方向了,一些html结构、链接、数据库信息、alt信息等等都是网站的重要组成部分,而这类型的技术要求并不会很高。 下面分享的是搜索引擎中的robots一些规则,这些规则比较适用于初学者。robots规则是让一个偶素所引擎更方便的抓取网站发布的信息,大家都可以参考一下亚马逊的robots规则,如果我们完成了规则的设置,对于搜索引擎营销方面是有很大的帮助的。 User-agent: * 这里的*代表的所有的搜索引擎种类,*是一个通配符 第一,基本排除。利用robots规则来阻碍搜索引擎蜘蛛访问网站,最简单的规则设置是使用*号加页面的方式。比如我需要使用规则来阻止搜索以前宁访问/ secret.html页面的代码为:User-agent: * Disallow: /secret.html。 第二,对目录的阻止访问。使用“/”就是禁止目录内的所有页面被抓去,与第一的差不多,只是需要把不被搜索引擎抓取的页面改为阻止抓取的目录。比如织梦的后台目录就是不允许被抓取的所以一般使用的代码是User-agent: * Disallow: /dede/。则表示禁止抓取dede目录下的文件,而如果是Disallow: /dede则是禁止抓取dede目录下的所有文件和子目录。 第三:动态页面的抓取。一般是使用Disallow: /*?* ,对于SEO是有很大的帮助的,但是有的SEO前辈说,一个网站由动态和静态页面会比较好,这个我不予评价,我本人还是倾向于全站静态,毕竟伪静态收录速度的快并不是吹的。 |