分页: 124/196 第一页 上页 119 120 121 122 123 124 125 126 127 128 下页 最后页 [ 显示模式: 摘要 | 列表 ]
Mar 4
1、服务器处理器主频

  服务器处理器主频也叫时钟频率,单位是MHz,用来表示CPU的运算速度。CPU的主频=外频×倍频系数。很多人认为主频就决定着CPU的运行速度,这不仅是个片面的,而且对于服务器来讲,这个认识也出现了偏差。至今,没有一条确定的公式能够实现主频和实际的运算速度两者之间的数值关系,即使是两大处理器厂家Intel和AMD,在这点上也存在着很大的争议,我们从Intel的产品的发展趋势,可以看出Intel很注重加强自身主频的发展。像其他的处理器厂家,有人曾经拿过一快1G的全美达来做比较,它的运行效率相当于2G的Intel处理器。

  所以,CPU的主频与CPU实际的运算能力是没有直接关系的,主频表示在CPU内数字脉冲信号震荡的速度。在Intel的处理器产品中,我们也可以看到这样的例子:1 GHz Itanium芯片能够表现得差不多跟2.66 GHz Xeon/Opteron一样快,或是1.5 GHz Itanium 2大约跟4 GHz Xeon/Opteron一样快。CPU的运算速度还要看CPU的流水线的各方面的性能指标。

  当然,主频和实际的运算速度是有关的,只能说主频仅仅是CPU性能表现的一个方面,而不代表CPU的整体性能。

2、服务器前端总线(FSB)频率

  前端总线(FSB)频率(即总线频率)是直接影响CPU与内存直接数据交换速度。有一条公式可以计算,即数据带宽=(总线频率×数据带宽)/8,数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率。比方,现在的支持64位的至强Nocona,前端总线是800MHz,按照公式,它的数据传输最大带宽是6.4GB/秒。

  外频与前端总线(FSB)频率的区别:前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一千万次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit÷8Byte/bit=800MB/s。

  其实现在“HyperTransport”构架的出现,让这种实际意义上的前端总线(FSB)频率发生了变化。之前我们知道IA-32架构必须有三大重要的构件:内存控制器Hub (MCH) ,I/O控制器Hub和PCI Hub,像Intel很典型的芯片组 Intel 7501、Intel7505芯片组,为双至强处理器量身定做的,它们所包含的MCH为CPU提供了频率为533MHz的前端总线,配合DDR内存,前端总线带宽可达到4.3GB/秒。

   但随着处理器性能不断提高同时给系统架构带来了很多问题。而“HyperTransport”构架不但解决了问题,而且更有效地提高了总线带宽,比方AMD Opteron处理器,灵活的HyperTransport I/O总线体系结构让它整合了内存控制器,使处理器不通过系统总线传给芯片组而直接和内存交换数据。这样的话,前端总线(FSB)频率在AMD Opteron处理器就不知道从何谈起了。

3、处理器外频

  外频是CPU的基准频率,单位也是MHz。CPU的外频决定着整块主板的运行速度。说白了,在台式机中,我们所说的超频,都是超CPU的外频(当然一般情况下,CPU的倍频都是被锁住的)相信这点是很好理解的。但对于服务器CPU来讲,超频是绝对不允许的。前面说到CPU决定着主板的运行速度,两者是同步运行的,如果把服务器CPU超频了,改变了外频,会产生异步运行,(台式机很多主板都支持异步运行)这样会造成整个服务器系统的不稳定。

  目前的绝大部分电脑系统中外频也是内存与主板之间的同步运行的速度,在这种方式下,可以理解为CPU的外频直接与内存相连通,实现两者间的同步运行状态。外频与前端总线(FSB)频率很容易被混为一谈,下面的前端总线介绍我们谈谈两者的区别。

4、CPU的位和字长

  位:在数字电路和电脑技术中采用二进制,代码只有“0”和“1”,其中无论是 “0”或是“1”在CPU中都是 一“位”。

  字长:电脑技术中对CPU在单位时间内(同一时间)能一次处理的二进制数的位数叫字长。所以能处理字长为8位数据的CPU通常就叫8位的CPU。同理32位的CPU就能在单位时间内处理字长为32位的二进制数据。 字节和字长的区别:由于常用的英文字符用8位二进制就可以表示,所以通常就将8位称为一个字节。字长的长度是不固定的,对于不同的CPU、字长的长度也不一样。8位的CPU一次只能处理一个字节,而32位的CPU一次就能处理4个字节,同理字长为64位的CPU一次可以处理8个字节。

5、倍频系数

  倍频系数是指CPU主频与外频之间的相对比例关系。在相同的外频下,倍频越高CPU的频率也越高。但实际上,在相同外频的前提下,高倍频的CPU本身意义并不大。这是因为CPU与系统之间数据传输速度是有限的,一味追求高倍频而得到高主频的CPU就会出现明显的“瓶颈”效应—CPU从系统中得到数据的极限速度不能够满足CPU运算的速度。一般除了工程样版的Intel的CPU都是锁了倍频的,而AMD之前都没有锁。

6、CPU缓存

  缓存大小也是CPU的重要指标之一,而且缓存的结构和大小对CPU速度的影响非常大,CPU内缓存的运行频率极高,一般是和处理器同频运作,工作效率远远大于系统内存和硬盘。实际工作时,CPU往往需要重复读取同样的数据块,而缓存容量的增大,可以大幅度提升CPU内部读取数据的命中率,而不用再到内存或者硬盘上寻找,以此提高系统性能。但是由于CPU芯片面积和成本的因素来考虑,缓存都很小。

  L1 Cache(一级缓存)是CPU第一层高速缓存,分为数据缓存和指令缓存。内置的L1高速缓存的容量和结构对CPU的性能影响较大,不过高速缓冲存储器均由静态RAM组成,结构较复杂,在CPU管芯面积不能太大的情况下,L1级高速缓存的容量不可能做得太大。一般服务器CPU的L1缓存的容量通常在32—256KB。

  L2 Cache(二级缓存)是CPU的第二层高速缓存,分内部和外部两种芯片。内部的芯片二级缓存运行速度与主频相同,而外部的二级缓存则只有主频的一半。L2高速缓存容量也会影响CPU的性能,原则是越大越好,现在家庭用CPU容量最大的是512KB,而服务器和工作站上用CPU的L2高速缓存更高达256-1MB,有的高达2MB或者3MB。

  L3 Cache(三级缓存),分为两种,早期的是外置,现在的都是内置的。而它的实际作用即是,L3缓存的应用可以进一步降低内存延迟,同时提升大数据量计算时处理器的性能。降低内存延迟和提升大数据量计算能力对游戏都很有帮助。而在服务器领域增加L3缓存在性能方面仍然有显著的提升。比方具有较大L3缓存的配置利用物理内存会更有效,故它比较慢的磁盘I/O子系统可以处理更多的数据请求。具有较大L3缓存的处理器提供更有效的文件系统缓存行为及较短消息和处理器队列长度。

  其实最早的L3缓存被应用在AMD发布的K6-III处理器上,当时的L3缓存受限于制造工艺,并没有被集成进芯片内部,而是集成在主板上。在只能够和系统总线频率同步的L3缓存同主内存其实差不了多少。后来使用L3缓存的是英特尔为服务器市场所推出的Itanium处理器。接着就是P4EE和至强MP。Intel还打算推出一款9MB L3缓存的Itanium2处理器,和以后24MB L3缓存的双核心Itanium2处理器。

  但基本上L3缓存对处理器的性能提高显得不是很重要,比方配备1MB L3缓存的Xeon MP处理器却仍然不是Opteron的对手,由此可见前端总线的增加,要比缓存增加带来更有效的性能提升。

7、CPU扩展指令集

  CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(Multi Media Extended)、SSE、 SSE2(Streaming-Single instruction multiple data-Extensions 2)、SEE3和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。

   我们通常会把CPU的扩展指令集称为"CPU的指令集"。SSE3指令集也是目前规模最小的指令集,此前MMX包含有57条命令,SSE包含有50条命令,SSE2包含有144条命令,SSE3包含有13条命令。目前SSE3也是最先进的指令集,英特尔Prescott处理器 已经支持SSE3指令集,AMD会在未来双核心处理器当中加入对SSE3指令集的支持,全美达的处理器也将支持这一指令集。

8、CPU内核和I/O工作电压

  从586CPU开始,CPU的工作电压分为内核电压和I/O电压两种,通常CPU的核心电压小于等于I/O电压。其中内核电压的大小是根据CPU的生产工艺而定,一般制作工艺越小,内核工作电压越低;I/O电压一般都在1.6~5V。低电压能解决耗电过大和发热过高的问题。

  9.制造工艺

  制造工艺的微米是指IC内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。现在主要的180nm、130nm、90nm。最近官方已经表示有65nm的制造工艺了。

10、指令集

  (1)CISC指令集

  CISC指令集,也称为复杂指令集,英文名是CISC,(Complex Instruction Set Computer的缩写)。在CISC微处理器中,程序的各条指令是按顺序串行执行的,每条指令中的各个操作也是按顺序串行执行的。顺序执行的优点是控制简单,但计算机各部分的利用率不高,执行速度慢。其实它是英特尔生产的x86系列(也就是IA-32架构)CPU及其兼容CPU,如AMD、VIA的。即使是现在新起的X86-64(也被成AMD64)都是属于CISC的范畴。

  要知道什么是指令集还要从当今的X86架构的CPU说起。X86指令集是Intel为其第一块16位CPU(i8086)专门开发的,IBM1981年推出的世界第一台PC机中的CPU—i8088(i8086简化版)使用的也是X86指令,同时电脑中为提高浮点数据处理能力而增加了X87芯片,以后就将X86指令集和X87指令集统称为X86指令集。  

  虽然随着CPU技术的不断发展,Intel陆续研制出更新型的i80386、i80486直到过去的PII至强、PIII至强、Pentium 3,最后到今天的Pentium 4系列、至强(不包括至强Nocona),但为了保证电脑能继续运行以往开发的各类应用程序以保护和继承丰富的软件资源,所以Intel公司所生产的所有CPU仍然继续使用X86指令集,所以它的CPU仍属于X86系列。由于Intel X86系列及其兼容CPU(如AMD Athlon MP、)都使用X86指令集,所以就形成了今天庞大的X86系列及兼容CPU阵容。x86CPU目前主要有intel的服务器CPU和AMD的服务器CPU两类。

  (2)RISC指令集

  RISC是英文“Reduced Instruction Set Computing ” 的缩写,中文意思是“精简指令集”。它是在CISC指令系统基础上发展起来的,有人对CISC机进行测试表明,各种指令的使用频度相当悬殊,最常使用的是一些比较简单的指令,它们仅占指令总数的20%,但在程序中出现的频度却占80%。复杂的指令系统必然增加微处理器的复杂性,使处理器的研制时间长,成本高。并且复杂指令需要复杂的操作,必然会降低计算机的速度。基于上述原因,20世纪80年代RISC型CPU诞生了,相对于CISC型CPU ,RISC型CPU不仅精简了指令系统,还采用了一种叫做“超标量和超流水线结构”,大大增加了并行处理能力。

   RISC指令集是高性能CPU的发展方向。它与传统的CISC(复杂指令集)相对。相比而言,RISC的指令格式统一,种类比较少,寻址方式也比复杂指令集少。当然处理速度就提高很多了。目前在中高档服务器中普遍采用这一指令系统的CPU,特别是高档服务器全都采用RISC指令系统的CPU。RISC指令系统更加适合高档服务器的操作系统UNIX,现在Linux也属于类似UNIX的操作系统。RISC型CPU与Intel和AMD的CPU在软件和硬件上都不兼容。

  目前,在中高档服务器中采用RISC指令的CPU主要有以下几类:PowerPC处理器 、SPARC处理器、PA-RISC处理器、MIPS处理器、Alpha处理器。

  (3)IA-64

  EPIC(Explicitly Parallel Instruction Computers,精确并行指令计算机)是否是RISC和CISC体系的继承者的争论已经有很多,单以EPIC体系来说,它更像Intel的处理器迈向RISC体系的重要步骤。从理论上说,EPIC体系设计的CPU,在相同的主机配置下,处理Windows的应用软件比基于Unix下的应用软件要好得多。

  Intel采用EPIC技术的服务器CPU是安腾Itanium(开发代号即Merced)。它是64位处理器,也是IA-64系列中的第一款。微软也已开发了代号为Win64的操作系统,在软件上加以支持。在Intel采用了X86指令集之后,它又转而寻求更先进的64-bit微处理器,Intel这样做的原因是,它们想摆脱容量巨大的x86架构,从而引入精力充沛而又功能强大的指令集,于是采用EPIC指令集的IA-64架构便诞生了。IA-64 在很多方面来说,都比x86有了长足的进步。突破了传统IA32架构的许多限制,在数据的处理能力,系统的稳定性、安全性、可用性、可观理性等方面获得了突破性的提高。

  IA-64微处理器最大的缺陷是它们缺乏与x86的兼容,而Intel为了IA-64处理器能够更好地运行两个朝代的软件,它在IA-64处理器上(Itanium、Itanium2 ……)引入了x86-to-IA-64的解码器,这样就能够把x86指令翻译为IA-64指令。这个解码器并不是最有效率的解码器,也不是运行x86代码的最好途径(最好的途径是 直接在x86处理器上运行x86代码),因此Itanium 和Itanium2在运行x86应用程序时候的性能非常糟糕。这也成为X86-64产生的根本原因。

  (4)X86-64 (AMD64 / EM64T)

  AMD公司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作,就要将结果扩展成完整的64位。这样,指令中有“直接执行”和“转换执行”的区别,其指令字段是8位或32位,可以避免字段过长。

  x86-64(也叫AMD64)的产生也并非空穴来风,x86处理器的32bit寻址空间限制在4GB内存,而IA-64的处理器又不能兼容x86。AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄存器。原来的寄存器诸如EAX、EBX也由32位扩张至64位。在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代码及寄存器,x86-64架构允许处理器工作在以下两种模式:Long Mode(长模式)和Legacy Mode(遗传模式),Long模式又分为两种子模式(64bit模式和Compatibility mode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器。

  而今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64位操作系统下的时候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的。Intel的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,Intel的Pentium 4E处理器也支持64位技术。

  应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。

11、超流水线与超标量

  在解释超流水线与超标量前,先了解流水线(pipeline)。流水线是Intel首次在486芯片中开始使用的。流水线的工作方式就象工业生产上的装配流水线。在CPU中由5—6个不同功能的电路单元组成一条指令处理流水线,然后将一条X86指令分成5—6步后再由这些电路单元分别执行,这样就能实现在一个CPU时钟周期完成一条指令,因此提高CPU的运算速度。经典奔腾每条整数流水线都分为四级流水,即指令预取、译码、执行、写回结果,浮点流水又分为八级流水。  

  超标量是通过内置多条流水线来同时执行多个处理器,其实质是以空间换取时间。而超流水线是通过细化流水、提高主频,使得在一个机器周期内完成一个甚至多个操作,其实质是以时间换取空间。例如Pentium 4的流水线就长达20级。将流水线设计的步(级)越长,其完成一条指令的速度越快,因此才能适应工作主频更高的CPU。但是流水线过长也带来了一定副作用,很可能会出现主频较高的CPU实际运算速度较低的现象,Intel的奔腾4就出现了这种情况,虽然它的主频可以高达1.4G以上,但其运算性能却远远比不上AMD 1.2G的速龙甚至奔腾III。

12、封装形式

  CPU封装是采用特定的材料将CPU芯片或CPU模块固化在其中以防损坏的保护措施,一般必须在封装后CPU才能交付用户使用。CPU的封装方式取决于CPU安装形式和器件集成设计,从大的分类来看通常采用Socket插座进行安装的CPU使用PGA(栅格阵列)方式封装,而采用Slot x槽安装的CPU则全部采用SEC(单边接插盒)的形式封装。现在还有PLGA(Plastic Land Grid Array)、OLGA(Organic Land Grid Array)等封装技术。由于市场竞争日益激烈,目前CPU封装技术的发展方向以节约成本为主。
Mar 4
  首先是硬件方面

  视频服务器硬件选择需要注意以下几点:

  1.不需要高频CPU

  视频服务器在提供服务时,主要体现为持续的I/O操作,CPU资源占用并不大。以笔者经验,50台机器的网吧,PIII500左右的CPU就能很好胜任。

  2.高稳定性

  高稳定性十分重要,视频服务器一般会连续开机运行10天-1个月以上。如果在客人看得津津有味时down机,对自己网吧形象不利,如果您的预算宽裕,可以考虑选用64位带宽的服务器主板。这样对持续和大量的I/O操作非常有益。

  不过这种主板一般得2000元以上,从预算考虑,这就有些贵了。所以一般是考虑口碑相当好或您自己对其稳定性非常有信心的普通PC机主板.不要去追逐新上市的型号.笔者推荐2款主板,梅捷6BA+IV,AbitBH6.这2款都是老掉牙的BX主板,售价可能就在600-700元或更低.但是其稳定性无可挑剔。

  3.存储子系统

  存储子系统是视频服务器的关键

  为了适应视频服务器长时间的大量I/O操作,系统和视频文件共享一个硬盘的方法决不可取.必须使用单独的磁盘或磁盘阵列来存放视频文件.如果您在选择主板时选用了带SCSI接口的服务器主板,那么可以考虑使用SCSI硬盘.当然代价是高昂的.一个30G的普通SCSI硬盘其售价也在2700左右.所以我们选择IDE RAID.关于RAID为何物请自行查阅相关文档

  highpointtech和promise都为我们提供了合适的raid产品.一般市价在400元以上的产品就能很好的适合这样的工作环境了.注意不要购买一些"软"raid卡,那样虽然购买价格低些,但是其性能很差且会消耗大量系统资源.Iwill的SIDE RAID100是个不错的选择.硬盘建议使用5400转的型号.因为使用RAID建立IDE阵列后,总体磁盘性能会是接近单个硬盘的n倍.这视您的硬盘数量而定。

  7200转硬盘长时间运行发热量太大,且其高于5400转硬盘的性能,经RAID放大后显得毫无用处.且其售价明显高于5400转硬盘.这是不使用7200转硬盘的原因。

  使用IDE Raid需要至少2个硬盘.再加上一个硬盘来安装操作系统,存储子系统将花费您:

  raid卡 ¥480
  硬盘×3 ¥1600

  如果您实在预算紧张,可以舍弃IDE RAID,仅使用一个7200转的硬盘来存放视频文件.注意:笔者强烈提醒不要把操作系统和视频文件放在同一个硬盘上。

  4.网络部分

  不要使用廉价的8139一类网卡.推荐使用Intel 10/100M Pro+ .约¥250左右。

  视频服务器应该连接在网吧内的主干交换机上。

  如果您还在使用10M网络,那您应该先升级您的网络。

  软件部分

  1.操作系统Win2000服务器或高级服务器版.(如果您能使用Linux或FreeBSD构建平台,那么您不需要继续阅读本文。

  2.Web服务器IIS5。

  3.流媒体服务器RealSystem之RealServer8.0+和Windows Media Server

  安装Win2000略,IIS在安装W2k时默认安装.只需要选择Web服务,公用文档和服务器管理3个部件.Media Server默认不安装.记得选上它.注意把系统安装到专门为系统准备的硬盘上,把流媒体文件放在专门为流媒体文件准备的硬盘或硬盘阵列上.建个叫Media的目录,作为后面的RealServer装入点.这里最好不要再放其他东西。

  RealServer很多地方都有得下载.自带10用户许可.安装时一路回车,最后需要您设定管理界面的用户名和密码.安装完成后会在桌面生成2个图标.运行RealServer 8.0 Administrator

  进入配置界面.此时需要您输入用户密码,就是刚才安装时您自己设定的用户密码。

  选则Configure-->General Setup-->Connection Control,将Maximum Client Connections设置项改成你的许可支持的最大数目.Maximum Licensed Client 就是你的许可最大数目。

  Configure-->General Setup-->Mount Points,在Edit Mount Point 下面的框里填上你想要的访问视频流的虚拟目录名,假设是Movie,那么填入/Movie/ 然后在BasePath 下面的框里填入您的视频文件的本地路径,假设是E:\\Media,那么就填入E:\\Media.然后点击Edit按钮,再点击Apply按钮.弹出业面告诉你修改成功,需要重启RealServer.重启吧.点击最上面的Restart Server.20秒左右,重启完成.现在把随便一个rm格式视频的文件拷贝进e:\\Media\\  

  我们假设是01.rm.然后假设您的IP地址是192.168.1.118.启动RealPlayer,在文件菜单选打开位置,填入 rtsp://192.168.1.118/Movie/01.rm 点确定。

  如果没什么意外的话,您会看到RealPlayer显示正在缓冲,几秒之后便开始播放了.现在请回到RealServer的配置界面,点击Monitor,您会看到RealServer的运行情况.Player connected显示当前有多少用户连线,File Usage显示当前点播的不同的流文件数量.CPU usage显示RealserverCPU占用率,Memory usage显示内存占用率,bandwidth usage表示带宽使用。
Mar 4
1、 安装设置prozilla(port下载加速)
当然是首先安装下载加速啦,不然下面的安装会好慢的

安装使用如下指令:

#cd /usr/ports/ftp/prozilla

#make install clean

中间会出现:
点击在新窗口中浏览此图片
这是例子和HTML格式的手册页,不会用以后想研究的可以加上,然后选OK

安装完毕后,编辑或建立/etc/make.conf:

#ee /etc/make.conf

将原来的部分用#号注释掉,如果是最小化安装的话暂时是没有这个文件的。添加以下内容:

FETCH_CMD= proz

FETCH_BEFORE_ARGS= -r -k=4 –s FETCH_AFTER_ARGS= DISABLE_SIZE= yes prozilla如果偶尔不能正常下载的话,可以#掉/etc/make.conf下我们添加的内容。 2、安装Apache2.2.X 使用以下指令: # cd /usr/ports/www/apache22 #make install clean 出现图如下:
点击在新窗口中浏览此图片
根据自已的不同选取安装模块,如果你不知道选取那些,那就默认,直接回答OK 即可,

默认已经足够了,所以我这里回答OK,

几分钟后安装完成了,快慢决定于你的网络快慢,因为他到网上下载安装包的,
3、 安装 PHP5.2.1

执行下列指令:

# cd /usr/ports/lang/php5  

make install clean  

在跳出的提示框中,使用如下配置
点击在新窗口中浏览此图片
4、完成后继续安装一些常用的 PHP 模块,

请执行下列指令:

# cd /usr/ports/lang/php5-extensions/

make install clean

在跳出的提示框中,使用如下配置
点击在新窗口中浏览此图片
出现一个选单,除了预设的项目外,我们必须再选择下列几个常用的项目:CTYPE、CURL、EXIF、FOLTER、FTP、GD、GETEXT、GMP、MBSTRING、MCRYPT、MYQL、PDF、IMAP、PCRE、SESSION、SOCKETS、ZLIB、ZIP。这些项目非常常用,尤其是 SESSION。

然后还会出现一个选单,保持默认就可以了:
点击在新窗口中浏览此图片
然后这个要选上:
点击在新窗口中浏览此图片
毕竟这是老外“希望”中国人用的东西。

安装完成后,运行cp –rp /usr/local/etc/php.ini-dist /usr/local/etc/php.ini #php5
5.安装 MySQL

使用如下指令

# cd /usr/ports/databases/mysql50-server

# make install clean

# cd /usr/ports/databases/php5-mysql

# make install clean

6. Apache2.2.X 基本设定

安装完 Apache 后,我们必须先进行一些基本设定才可以开始使用。本节中,我们先介绍较常使用的设定项目,让您可以快速的设定好网页服务器,而更详细的 Apache 设定将于下一小节中说明。Apache 的设定档位于:

/usr/local/etc/apache22/httpd.conf、/usr/local/etc/apache22/extra/httpd-languages.conf、/usr/local/etc/apache22/extra/httpd-default.conf。

设定/usr/local/etc/apache22/httpd.conf

ServerAdmin 设定管理者邮件

设定您的信箱,这个信箱地址当网页出现错误讯息时将出现在该页面上。以下范例为默认值:

ServerAdmin [email protected]

ServerName 设定主机名称及端口号

ServerName 可以让您设定您的主机名称,如果您没有主机名称,可以设定为您机器所使用的 IP。ServerName 会被用来重新转向网址,例如,当您输入一个网址 「http://www.example.com/dir」时,Apache 会参考您在 ServerName 中的设定,将 www.example.com 改成 ServerName,并在您所输入的网址后加上一个斜线「/」以连到 dir 目录中,也就是将网址转向到「http://www.example.com/dir/」。如果您的网址设定不正确,则使用者可能会连到一个不存在的地址。

所以,如果您没有主机名称,可以将这个值设定为 IP,让网址转向后还是可以连到正确的地方。在 ServerName 的设定中,我们也指定了 HTTP 的连接埠 80。

ServerName www.example.com:80

DocumentRoot 设定网页根目录

DocumentRoot 可以让我们指定网页根目录的位置,也就是我们存放网页的目录。

DocumentRoot "/usr/local/www/apache22/data"

设定好 DocumentRoot 后,我们必须要再设定该目录的权限。在 DocumentRoot 之后,有下列区段:(中间有些#掉的注释)

Options Indexes FollowSymLinks 注解这项

#Options Indexes FollowSymLinks

AllowOverride None

order allow,deny

Allow from all  

您必须将 也改成您的网页根目录位置。

DirectoryIndex 指定预设网页档名

DirectoryIndex index.html index.htm index.php index.php3 index.cgi index.pl

当使用者使用网址「http://www.example.com/dir」连到一个目录中时,如果没有指定网页,Apache 会去查找 DirectoryIndex 中所设定的网页在不在,如果存在则秀出预设的网页。

加入 PHP 支持

如果您要使用 PHP,则必须在 httpd.conf 中加入 PHP 的支持,请在 httpd.conf 档案其它AddType周围加入下列内容,以便归类:

AddType application/x-httpd-php .php

AddType application/x-httpd-php-source .phps

取消 #AddHandler cgi-script .cgi 前的 # ,并加 .pl 以支持 cgi , pl 如: AddHandler cgi-script .cgi .pl

上述设定完成后,您就可以存盘离开。 接下来,我们必在修改 /etc/rc.conf ,并加入下列设定以在开机时启动 Apache:

apache22_enable="YES"

重启虚拟机后,打开网页http://IP/ (请将 IP 改成您的虚拟机 IP),显示It works!,不像原来,有个漂亮的页面。

我们可以在网页根目录中新增一个档案来测试 PHP 是否有正常运作,请使用文书编辑软件在/usr/local/www/apache22/data下开一个新文件 test.php,并加入下列内容:


phpinfo();  

?>

接下来您就可以连到该网页 http://IP/test.php (请将 IP 改成您的虚拟机 IP) 看看是否可以使用 PHP。如果有支持 PHP,则会显示 PHP 组态,如果没有,则只会出现上述档案内容。

7、 MySQL5.0.33 基本设定

修改 /etc/rc.conf 并加入下列这一行,以让开机时启动 MySQL:

mysql_enable="yes"

接着您就可以使用下列指令启动 MySQL 了:

# /usr/local/etc/rc.d/mysql-server start

启动 MySQL 后,我们就可以使用下列指令进入 MySQL 交互式命令列了:

# /usr/local/bin/mysql mysql

若安装成功,你将看到以下画面:
点击在新窗口中浏览此图片

MySQL 刚安装完成时,并未设定 root 的密码,因此我们接着要设定 root 的密码并实时更新设定:

mysql> Update user SET password=password('你的密码') where user='root';  

Query OK, 2 rows affected (0.01 sec)

Rows matched: 2 Changed: 2 Warnings: 0

mysql> FLUSH PRIVILEGES;

Query OK, 0 rows affected (0.00 sec)

最后请以 exit; 来离开 MySQL。

8、安装ZendOptimizer 3.2.8

cd /usr/ports/devel/ZendOptimizer

make install clean

根据提示,一直回答OK就可以了,

9、FTP 基本设定(以便上传其它测试网页)

在这里,我们使用内建的vsftp。

使用 inetd 的方式启动 FTP 服务器。首先,请编辑 /etc/inetd.conf,将 ftp 设定开头的 # 移除:

ftp stream tcp nowait root /usr/libexec/ftpd ftpd -l  

ftp stream tcp6 nowait root /usr/libexec/ftpd ftpd -l

然后在 /etc/rc.conf 中加入

inetd_enable="YES"

接下来,我们重启虚拟机,就可以开始使用FreeBSD的FTP服务了。

10.经验教训

按本教程安装的话,不要改变安装顺序,否则会因为依赖关系而产生某些地方:少则要写几句多则某些东西要重装。  
Tags:
Mar 4
  1. 性能

  为什么处理损耗如此重要?因为它影响应用程序的性能,并最终影响客户的满意程度。如果虚拟化基础架构的处理损耗较高,只能运行非产品级或不太重要的应用服务。由于产品不同,虚拟化解决方案的处理损耗从1%到60%。虚拟化应用程序的运行效率差异很大,有的能够做到接近原始物理环境下运行的效率,有的则低劣到用户难以接受的程度。同一虚拟化技术路线的不同产品性能也有很大差异,但通常来说,虚拟化硬件会造成较大的性能损耗,但操作系统虚拟化性能损耗极低,几乎可以忽略不计。

  2. 管理工具

  许多用户试用虚拟化是因为可以降低硬件成本,因为这些数据中心的硬件仅有15%~20%的利用率。虽然硬件和环境的成本本身已经相当可观,但管理成本中更大的部分仍然是来自于服务器的管理成本。因此对于虚拟化基础设施的管理而言,管理工具就更加重要,只有很好地进行资源的管理和监控才能真正做到有效利用虚拟服务器的资源。  

  每种虚拟化解决方案能提供的管理工具都很不相同。一些虚拟化解决方案几乎没有什么管理工具,而且使用非常受限制。某些特定的虚拟化解决方案提供很多优秀的工具集,并和产品放在一起以优惠价打包促销。但某些工具却非常贵,常常是按可选择的产品组件的价格进行销售。

  3. 平台支持

  虚拟化技术将虚拟服务器从其下的硬件中抽象出来,但这并不意味着虚拟基础结构可以支持任何硬件。需要特别注意的是,硬件虚拟化和并行虚拟化必须支持从CPU芯片到显卡等计算机的所有硬件。而操作系统虚拟化技术建立在标准的操作系统之上,因此支持操作系统支持的所有硬件,所以操作系统虚拟化产品部署过程更容易。

  4. 迁移

  虚拟化技术将虚拟服务器从硬件中抽象出来,这样做最大的好处是虚拟服务器可以在不同物理服务器中来回迁移。迁移能力允许将虚拟服务器克隆出来,或从一台物理服务器迁移到另外一台。  

  许多虚拟化解决方案拥有克隆或迁移能力,但他们在软件功能、限制和成本方面有相当大的差异。高端的零宕机解决方案迁移成本极高且需要SAN集中存储设备的支持。在做服务器迁移时,用户需要评估迁移的重要性,明确怎样迁移才能更适应企业的应用环境。

  5. 资源管理  

  三类不同的虚拟化技术对服务器资源分配采用不同的处理方式。硬件虚拟化技术和并行虚拟化技术将虚拟出的硬件资源分配给不同的虚拟服务器使用。这两种技术在分配和更换硬件资源方面的灵活性有所不同。实际上这两种技术为虚拟服务器分配的是虚拟资源,会有很多的限制,比如可以用于分配的CPU和内存资源总是有限的。


  操作系统虚拟化对资源的管理是非常灵活的,允许在不中断应用服务或虚拟服务器情况下实时更新资源。

  6. 隔离和安全

  对于隔离和安全问题,每种虚拟化技术的处理方式都不同。虚拟化解决方案最基本的组件就是分区。所有虚拟计算机必须完全隔离,这样进程、动态连接库及应用程序才不会影响同一台服务器的其他虚拟服务器上的应用。

  相对于普通服务器,由于虚拟化技术改变了访问节点和不同的组件,所以不太可能对于虚拟服务器实施常规性攻击。同隔离一样,对于同一台物理服务器上的两个虚拟服务器来说,彼此之间的安全同样重要。

  7. 服务器利用率

  提升服务器的利用率可以显著降低数据中心的资源总拥有成本。在服务器合并项目中主要考虑的成本因素有数据中心的存储、电力和年复一年的硬件维护成本。在评估不同虚拟化解决方案的资源利用率时,需要考虑在一台物理服务器上能够运行的虚拟服务器的数量限制。尽管所有的虚拟化技术对虚拟服务器的数量都没有限制,但在过去由于过高的额外损耗,根本就不能支持更多的虚拟服务器数量。

  操作系统虚拟化技术在一台物理服务器上没有限制虚拟服务器的数量,高效的架构使得单个服务器在硬件条件允许的情况下可以支持更多的虚拟服务器,这无疑极大地提高了服务器的实际使用率,同时最大化服务器的性价比和投资回报率。

  8. 部署效率

  在2005年,Ideas International公司研究人员惊奇地发现,服务器虚拟化最大的好处居然是在服务器开通方面节约了大量时间。每个虚拟化解决方案的服务器开通能力是不同的。某些解决方案提供了模板和预先设置工具,或定制配置提前,从而缩短了开通时间。不同处理方法的开通时间从30秒到1小时有很大的差别。与独立服务器来比,虚拟服务器急剧缩短了服务器的开通时间。  

  9. 预期的虚拟化部署

  前3位的服务器虚拟化部署情景分别是:测试和研发、服务器合并和灾难恢复。

  对于测试和研发项目来说,因为研发人员需要使用许多不同的操作系统环境,这使得相关成本很难估计,较好的选择是硬件虚拟化。  

  服务器合并(涉及到现有应用或新应用)通常发生在支持在线应用和数据的生产型服务器中,需要考虑的两个因素是处理损耗和服务器利用率。这其中,最好的解决方案是操作系统虚拟化,因为操作系统虚拟化拥有更低的服务器损耗,因此能够显著提升服务器的利用率。

  灾难恢复解决方案是一个非常常见的虚拟化服务器部署方案。许多组织发现允许实时访问和提供冗余系统的灾难恢复方案是极其昂贵的。由于虚拟化服务器可以被激活、重启且可在限定的时间内创建重要服务器,所以虚拟化服务器在短时间内快速成为经济高效且具有更高管理性能的灾难恢复解决方案之一。

  10. 总拥有成本

  最后需要考虑的因素是每种虚拟化技术的总拥有成本。具有更多的功能和管理工具的解决方案价格自然更高。有的厂商要求为附加的功能和管理工具付费,这就使比较各种虚拟化技术的总拥有成本变得更加困难。考虑到基本产品所提供的性能和功能,再来进行总体拥有成本的比较,用户会惊奇地发现各种解决方案能提供的价值具有显著的差别。
Mar 4
  由于企业希望改进IT基础架构节省成本,所以CIO和数据中心管理人员都转向了通过合并服务器的方法以实现节省费用。其实,这么做并非易事。由于企业希望改进IT基础架构节省成本,所以CIO和数据中心管理人员都转向了通过合并服务器的方法以实现节省费用。其实,这么做并非易事。

  从财务角度来看,虽然服务器整合很有价值,但是并不意味着这一工程很容易实施。一些错误观念使实现成本控制和构建高效数据中心这一目的变得十分困难。

  整合就是购买新硬件

  整合并不意味着要购买昂贵的新硬件,与你现有的产品相融合可以节约支出,这在很多情况下是你首先应该考虑的。如果你已经最大限度地利用了现有的产品,你可以考虑购买新产品。

  只考虑一般工作量模式
  尽管在考虑整合时,工作量是一个重要的因素。但是,它只意味着保证运行顺畅什么应该是相兼容的,而不能反映服务器的兼容性,以及哪些应该进行虚拟化。此外,工作量分析通常被过分简单化。分析时应该考虑服务器大部分时间是处于怎样的运行状态,包括一天中的什么时间服务器的工作量是最大的。服务器工作量模式通常显示出运行的高峰时段,如果你能发现服务器在每天不同的时段达到高峰运行,那么,尽管平均工作量可能暗示工作量不能被合并,而潜在的分析则显示出工作量可以进行合并。

  没考虑到非技术限制

  快速地进行服务器整合或虚拟化转换而没考虑到非技术因素,这也会产生一些问题。尽管将很多应用软件转移到同一实体服务器上的方法很具有吸引力,但是如果你这样实施,你就使所有应用软件处于同一硬件的影响之下。如果这些应用软件有不同的服务水平需求或更新窗口,那么问题就随之而来了。

  依照已过时的信息来实施规划

  服务器整合分析可能是一个长达几个月的工程。在有些情况下,你需要请专业的服务公司对分析工程进行引导,这项工作的成果通常是一份报告书。以这种类型的调查结果为指导进行工程实施是有风险的,你必须要考虑服务提供商的更新速度,以最新信息为指导开展行动非常关键。

  在收集数据之前阐明意图

  IT员工可能会觉得整合不是好主意,有些员工会觉得这会导致他们的重要性和影响力的下降,因为他们所管理的内容减少了,甚至会觉得整合工程的实施将导致他们丢掉工作。曾有过这样的事情:有的公司在工程分析阶段就让员工自谋出路,以保证将来服务器的高效运行。最好的方法是,先从周围收集一些相关信息,既而再约员工谈话,阐明你的意图。

  把虚拟化作为整合的惟一途径

  进行服务器整合时,很多CIO把虚拟化看作是惟一的途径,这种想法过于局限。虚拟化功能强大且具灵活性,但是像应用软件和操作系统(存储)栈方面的一些整合方法也很有吸引力,因为这些方式不会增加企业的管理费用,也无须进行复杂的虚拟化过程。此外,一些服务器由于其应用软件不适合进行虚拟化,因此导致了可进行虚拟化的服务器范围缩小。

  将数据库服务器排除在合并范围之外

  I/O限制意味着数据库服务器不适合进行虚拟化,数据库服务器扩张对很多企业来说是一个主要问题;通过进行正确的整合分析和实施,很多方法均可明显减少数据库服务器的数量。

  将应用软件服务器排除在合并范围之外

  很多整合规划没有考虑应用软件服务器,这是不对的。应用软件服务器(J2EE环境及网络服务器)的的整合也将会为企业带来额外的收益。

  将检测/开发环境排除在合并范围之外

  开发和检测环境通常是导致硬件和软件无计划扩展问题的罪魁祸首。因为不是面向用户,所以此它们对工作量问题也是最不敏感的。在很多情况下,特定数量的数据库服务器可以在不影响利用率或生产力的情况下进行合并。

  没能深入考虑财务利润和变动对ROI的影响

  有很多因素都会影响合并的财务效果。比如,因为合并的数据库服务器易于操作,所以节约费用的效果明显。而因为时间和人力耗费过多,需要特定检测的复杂应用软件的整合可能会导致投资回报为零。因此,要确保你选择的目标是正确的。
分页: 124/196 第一页 上页 119 120 121 122 123 124 125 126 127 128 下页 最后页 [ 显示模式: 摘要 | 列表 ]