一、杜绝干扰
很明显,周遭的干扰足以让你在工作中心神不宁,那么你排除了这些干扰吗?不得不承认,运行自动收 信软件(译者注:如Gmail Notifier、MSN Messenger,一般电子邮件客户端也具有此项功能,如:Mozilla Thunderbird、Microsoft Outlook、Foxmail等)能保证你在第一时间阅读来信,开着即时通讯软件(译者注:IM即Instant Messenger,如ICQ、MSN Messenger、Gtalk等)有一句没一句地回复网友们的招呼能消减工作时的寂寞,但是它们都是随时能打断工作的干扰源,你需要杜绝它们。
一般进入专注状态需要15分钟时间,如果每5分钟就要被打断一次,你又如何能够聚精会神?所以,请特别安排划分一段时间以供查收和处理邮件,请尽量避免在电话及来访繁忙的时段安排工作,并告诉相关的人不要在你工作时打扰你。
二、安排合适的工作场合
工作环境对你能否专注工作有很大的影响。请把自己的座位安排在能方便够及干扰源的地方,比如正对门窗,比如让电话顺手可及,如此一来,简单无意的一瞥即可排除门窗产生的杂音,顺手一拿即可接听电话,这样才能使你的分心降低到最小程度。
三、明确目标
请在工作开始前就明确自己的目标。如果你对自己需要完成什么工作都不知道,这种困扰会严重影响专注程度。在作文之前,我会先想明白文章的主题并在脑里陈列提纲打个粗稿。少了“明确目标”这一步往往会导致部分工作的返工。
四、理出头绪
脑里七七八八的一大摞任务很难让你全神贯注。在工作开始前,除了要明确目标以外,你还应该花上几分钟时间为大堆的零碎任务理出头绪分清秩序,否则你就得在工作中浪费几个小时来处理任务间的混乱和冲突了。
五、弄清任务要求
请在处理任务之前弄清它的指标和要求,比如:任务的质量要求;任务的标准要求;以及任务进行过 程中会受到怎样的限制。如果你是个程序员,你需要搞清所写代码的注释语句密度标准(译者注:注释语句,是为了增加代码可读性的解释性语句,不会被编译器翻 译成可执行的机器代码。),需要调用哪些函数(译者注:函数,是程序的基本单元,是被封装起来能完成特定功能的代码段。对于C或者Fortran之类的非 高级编程语言,明确了需要调用的函数,你就可以在程序开始处将相关的函数文件包含进来,以提高编程效率。),程序的灵活性要求如何等等。如果你在作文,在 这之前就需首先为自己指定好行文风格并做出文书长度的规定。如果在任务开始之初没有弄清任务要求,就会引起无规则行事的混乱局面,那时你将在过程中不断考 虑和转变这些要求而不停返工,不但工作流程无法顺畅执行,这些停断也会使你无法专注。
六、指定时限
为自己强行指定时限完成任务对于工作专注度的影响有好也有坏。一个存在于意识中的时限能够使你忘记琐碎的小事并提升你的工作速度。如果你规定自己一小时之内必须完成一个徽标的设计,就能避免自己使用花里胡哨的废装赘饰,从而使徽标保持简洁清爽的面目并提高设计效率。
时限也会令你陷入无法按时完成工作的焦虑而难以专心于手头实际的工作,所以我建议只在这些情况下为自己设定时限:
1.任务时间有限。如果你需要在一天内完成一个可能花费几周时间的工作,就该为任务划分成块,分别设定时限,如此才能保证在短时间内完成任务的重要部分。
2.当你遇上那些非常容易扩展伸延的任务。如果你的任务很容易延伸扩展出其他的要求并不断产生子任务,时限可以使你更好地控制进度而不至于东奔西走陷入混乱。
3.避免拖延和耽搁。当你担心自己的困怠是否会耽误任务进度时,设定一个时限就是为自己安排了一个监工。
七、清除障碍
工作中遇到棘手的问题时难免就会碰上障碍,当你思路受阻时必定心烦意乱难以专注。这时你需要纸笔进行头脑风暴,即便在遇到障碍时灰心丧气,写下思路却能使你依然保持精神的集中而不至于心猿意马。
八、隔离自己
除非需要团队合作,否则请你在工作中做个隐士,在闹哄哄的工作环境中隔离自己,构筑一个私人空间,必要时给门贴上“工作中,拒绝打扰”的标识,拔掉电话线,直到工作完成再去与人闲聊攀谈。构建这样的工作环境才能使你更好地专注于工作。
九、健康能够驱动头脑飞转
身体状况决定了专注程度。没人会指望一个醉醺醺的家伙能百分百地投入工作。长期睡眠不足;过度 使用兴奋药物(比如咖啡因);酽饮浓食;摄入过多能量,这些都会影响你集中注意的能力。请戒绝其中某个不良的生活习惯,保持一个月,看看你的体质是否得到 改善,我的个人经验是,只需要改变一丁点儿生活行为,就可以大幅提高专心能力。
十、保持耐心
在把手指放上键盘开始作文之前,我通常会在座位上安坐15~20分钟以使自己心定气闲,在这期间我总有一股站起身来离开的冲动,但我会说服自己:只有保持耐心才能专心致志地卯定文题,思流顺畅,文路扩扬。
如果需要保持集中的心思专注,我建议你把工作以90~120分钟为界分割成段。这个分段的长短因人而异,需要根据自身特点进行设计,时间短了则会使你浪费过多时间来调节自己进入工作状态,反之则会因为工作时间太长而降低效率并分散注意力。
你是否肯定你的网站完全兼容各大浏览器?
是否知道多少秒可以打开你的网站?
是否可以自信地说你的网站根本就没有打不开的时候? 是否……
虽然它看似不重要,但这些在一定程度上也对你的网站的访问量产生了影响 ( 其它一部分影响浏览量的原因及解决办法 )。这里列出了一份 31 个我最喜爱的免费在线测试工具,你可以通过这些工具来测试你的网站,并根据结果对你的网站进行修改。
网站代码验证 没人可以细致到保证自己的网站代码都是正确的,你可以通过以下测试来验证网站代码是否正确。
1 . WDG HTML Validator 一个很好的工具,能找出网站语法错误的地方,并标注出来,也可选择对网站上单独的每一页进行单页分析。( 强烈推荐 )
2 . W3C Markup Validation Service 对 HTML 和 XHTML 都能进行代码测试,自称是互联网络上第一个(也是使用者最多的)的 HTML 验证工具。
3 . W3C CSS Validation Service 用于验证 css 源代码,能够标注出不好的 css 代码设计。例如:“Same colors for color and background-color in two contexts”。
4 . RUWF XML Syntax Checker 用于查找 XML 文件的错误。
5 . W3C Feed Validation Service 用于查找 Atom 和 RSS feed 中的错误语法。( 这个我经常用到 )
6 . W3C Link Checker 用于搜寻查明你网站内的所有链接里是否有断链。( 强烈推荐 )
7 . Juicy Studio Link Analyser 测试网站内的链接的 URL 是否存在死链,与 W3C Link Checker 很类似。
网站的使用性
我们常常看到网站设计者把重点放在怎网站的吸引力上,而完全不考虑会不会影响来访者的使用,一个浏览难度很大的网页是注定要失败,要让你的来访者方便的得到他要的信息(从而成为重复访客),你的网站应当遵循 WCAG section 508 易用性规则。
8 . Watchfire WebXACT 所有严谨的设计师和开发者都必须使用的工具,它会生成一个非常详尽的报告书,包括:网站质量,易用性和隐私等。( 强烈推荐 )
9 . ATRC Web Accessibility Checker 测试网站的 WCAG 2.0 Level2 兼容性,它会生成一份报告,提出一系列建议,如:如何提升页头,链接,数据,图表和文字的访问速度。
10 . WAVE 3.0 Web Accessibility Tool 高度可定制的工具,它采用了图形化模型展示网站兼容性问题( WCAG 1.0 and section 508 )。( 强烈推荐 )
11 . TAW Web Accessibility Test 测试网页是否存在冲突( WCAG 1.0 兼容性 ),通过图形模式生成一份依据 wcag 优先模式为基础的网站修改建议。
12 . HiSoftware CynthiaSays portal 采用了非常严格的规则来测试网页( 根据 section 508 和 WCAG 1.0 规则 ),生成的报告也极为详细( 详细到很难看懂 )。
13 . HERA Accessibility testing with Style 使用一种极为复杂但容易理解方式指出网页的 wcag1.0 兼容性问题。
14 . Juicy Studio CSS Analyser 进行了色彩对比测试,以确保你的网站的色调会符合 WCAG 1.0 的要求。
15 . Juiciy Studio Readability Test 分析你网站上的文字是否有语法错误或拼写错误等问题,容易让人理解不( 根据 the Flesch Reading Ease 和 Flesch-Kincaid grade level algorithms 规则 )。( 适合英文网站使用 )
网站的速度
打开你的网站的速度快慢,是来访者会不会再次访问网站的关键因素,在一般情况下,一个网络不是很快的来访者是不愿意访问一个充满着图片、flash 动画、多媒体文件的网站。为了使你的网站覆盖人群的范围最大化,你必须优化你的网站,使它的打开速度尽可能的快。
16 . Web Page Analyzer from Website Optimization 一个很好的工具,它在分析完一个网页后,会为减少加载时间提出优化建议,着重优化物体的数目,图片和网站的总体大小。( 强烈推荐 )
17 . WebSitePulse Test Tools 有一系列的工具来确定网站的加载速度和主机信息。
18 . Internet Supervision Url Check 从世界各地不同的服务器来测试你的网站的加载时间,用于确定是不是各地的来访者都能顺利快速的打开你得网站。
浏览器模拟工具
这是一个普遍的问题,因为现在有着很多的操作系统和浏览器,你得网站必须得兼容它们,但这绝不是一件容易的事。通过下列工具,你可以了解你得网站在各种浏览器上的显示效果。
19 . Browsershots 能给出你的网站在不同浏览器下显示效果的截图,包括:Firefox 和 Internet Explorer ( Windows )、Firefox 和 Safari ( Mac OS X )、Iceweasal 和 Konqueror ( Linux ),但是结果要在 1 - 3 小时后才能出来。
20 . IE NetRenderer 实时生成你的网站在 Internet Explorer 5.5 、6.0 和 7.0 下的截图。
21 . MobiReady Report 分析使用手机访问网页的兼容性问题,会生成一份详细的报告,并提供了在两种不同类型的手机浏览器上你得网站可能显示的样子。
搜索引擎优化 (SEO)
一个网站,如果对搜索引擎有着比较好的友好度,一定会比较有竞争力。
22 . UrlTrends 会显示网站的访客是如何通过搜索引擎来到你的网站,还有各个流量是多少。这些数据是包括 Google, Yahoo, MSN, Alexa, AlltheWeb, AltaVista 和其他一些网站。( 强烈推荐 )
23 . iWEBTOOL Backlink Checker 一个很好的工具,它能找出有什么站点链接到你的站点,那些站点是什么类型的站点。
24 . iWEBTOOL Multi-Rank Checker 显示你网站的 Alexa 和 Google PageRank 数值。
25 . Microsoft adCenter Labs: Advertising and Keyword Research Tools 一个极好的工具,用于分析和预测你网站的来访者和市场。( 强烈推荐 )
26 . Domain Tools Whois lookup 一个 WHOIS 网络工具。
27 . SEO-Browser 可以让你看到在搜索引擎眼里一样的网站( 去掉所有的”美丽”配件 )。
28 . SEO Workers SEO Analysis Tool 非常有用的工具,分析了网站上的各种分类特征,包括 meta 标签、关键字密度及加载时间。( 强烈推荐 )
29 . Seekport Seekbot 可以分析网站的数据和内容,以得出搜索引擎会如何有效的解释分析的网站。
30 . SEO Chat SEO Tools 用以分析网站 Google adsense 盈利潜力,关键字密度,Meta tag 等等……
31 . Marketleap Search Engine Marketing Tools 用来分析网页,让你知道你的网站检索、设定的关键字好不好。
robots.txt是一个纯文本文件,在这个文件中网站管理者可以声明该网站中不想被robots访问的部分,或者指定搜索引擎只收录指定的内容。
当一个搜索机器人(有的叫搜索蜘蛛)访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,那么搜索机器人就沿着链接抓取。
另外,robots.txt必须放置在一个站点的根目录下,而且文件名必须全部小写。
robots.txt写作语法
首先,我们来看一个robots.txt范例:http://www.csswebs.org/robots.txt
访问以上具体地址,我们可以看到robots.txt的具体内容如下:
# Robots.txt file from http://www.csswebs.org
# All robots will spider the domain
User-agent: *
Disallow:
以上文本表达的意思是允许所有的搜索机器人访问www.csswebs.org站点下的所有文件。
具体语法分析:其中#后面文字为说明信息;User-agent:后面为搜索机器人的名称,后面如果是*,则泛指所有的搜索机器人;Disallow:后面为不允许访问的文件目录。
下面,我将列举一些robots.txt的具体用法:
允许所有的robot访问
User-agent: *
Disallow:
或者也可以建一个空文件 “/robots.txt” file
禁止所有搜索引擎访问网站的任何部分
User-agent: *
Disallow: /
禁止所有搜索引擎访问网站的几个部分(下例中的01、02、03目录)
User-agent: *
Disallow: /01/
Disallow: /02/
Disallow: /03/
禁止某个搜索引擎的访问(下例中的BadBot)
User-agent: BadBot
Disallow: /
只允许某个搜索引擎的访问(下例中的Crawler)
User-agent: Crawler
Disallow:
User-agent: *
Disallow: /
另外,我觉得有必要进行拓展说明,对robots meta进行一些介绍:
Robots META标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots META标签也是放在页面的<head></head>中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。
Robots META标签的写法:
Robots META标签中没有大小写之分,name=”Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=”BaiduSpider”。 content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。
INDEX 指令告诉搜索机器人抓取该页面;
FOLLOW 指令表示搜索机器人可以沿着该页面上的链接继续抓取下去;
Robots Meta标签的缺省值是INDEX和FOLLOW,只有inktomi除外,对于它,缺省值是INDEX,NOFOLLOW。
这样,一共有四种组合:
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>
<META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>
<META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>
其中
<META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”ALL”>;
<META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以写成<META NAME=”ROBOTS” CONTENT=”NONE”>
目前看来,绝大多数的搜索引擎机器人都遵守robots.txt的规则,而对于Robots META标签,目前支持的并不多,但是正在逐渐增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:
<META NAME=”googlebot” CONTENT=”index,follow,noarchive”>
表示抓取该站点中页面并沿着页面中链接抓取,但是不在GOOLGE上保留该页面的网页快照。