笔记本基本硬件参数是多少?
随着本本价格的不断拉低,以前本本属于那些白领、有钱人的时代过去了,现在谁都可以拥有一台本本,但问题也来了,买机过程中的验机、与JS的战斗。在你买机器之前会查阅一些资料或者问本友们哪一款型号适合自己,但一些基本的参数可能有一些朋友就不太明白了,这也给自己买本带来了困难,这里我整理加总结了一些本本各硬件最基本的参数资料,相信你看完之后,对本本一定会有一个全新的了解。大多数资料是我根据网络资料整理的,有一些是我的总结,如果中间有不对的地方还请大家指出。另外如果大家还有什么不明白的或者还需要哪些方面的资料可以短消息我,我会尽快更新上。
进来学习的不要一看这么多字,心想太多了懒得看。不会的问别人多好,但是有的时候听别人说,自己可能听不懂。何况自己学到手的东西多好,你们说是吧?希望这些能对你们有所帮助
[目录]
◆一是介绍处理器参数含义
一:什么是酷睿
二:什么是双核处理器
三:什么是CPU主频
四:什么是前端总线
五:多媒体指令集
六:什么是64位技术
七:什么是迅驰技术以及迅驰平台的构成
◆二是介绍显卡参数含义
一:显存频率
二:显存位宽
三:什么是渲染管线
四:什么是DirectX
五:核心频率
六:显存容量
七:什么是顶点着色单元
显卡参数补充说明
◆三是介绍硬盘参数含义
一:接口类型
二:SATA与ATA区别
三:笔记本硬盘
四:缓存
五:转速
六:通过硬盘编号看硬盘信息
◆四是介绍内存参数含义
一:DDR2与DDR
二:双通道内存
三:内存频率
◆五是一些最最常见问题的集中回答处
一:电池激活问题和电池校正的方法
二:主板芯片后面GMPM字母的含义
三:目前流行的酷睿处理器种类以及搭配的平台
四:内存明明是667的但却为什么工作在533下
五:驱动程序,您安装的正确吗?
六:NVIDIA显卡的显存共享问题说明
七:出现蓝屏的原因
[一]
当我们用CPU-Z或别的检测软件查看CPU的时候,会看见好多名词。有的人呢可能不是十分了解这些参数的含义,不能真正掌握你手中这款处理器的性能。这一楼说一下处理器的各项性能参数等
一:什么是酷睿:
“酷睿”是一款领先节能的新型微架构,设计的出发点是提供卓然出众的性能和能效,提高每瓦特性能,也就是所谓的能效比。早期的酷睿是基于笔记本处理器的。
酷睿2:英文Core2Duo,是英特尔推出的新一代基于Core微架构的产品体系统称。于2006年7月27日发布。酷睿2,是一个跨平台的构架体系,包括服务器版、桌面版、移动版三大领域。其中,服务器版的开发代号为Woodcrest,桌面版的开发代号为Conroe,移动版的开发代号为Merom。
特性:
全新的Core架构,彻底抛弃了Netburst架构
全部采用65nm制造工艺
全线产品均为双核心,L2缓存容量提升到4MB
晶体管数量达到2.91亿个,核心尺寸为143平方毫米
性能提升40%
能耗降低40%,主流产品的平均能耗为65瓦特,顶级的X6800也仅为75瓦特
前端总线提升至1066Mhz(Conroe),1333Mhz(Woodcrest),667Mhz(Merom)
服务器类Woodcrest为开发代号,实际的产品名称为Xeon5100系列。
采用LGA771接口。
Xeon5100系列包含两种FSB的产品规格(5110采用1066MHz,5130采用1333MHz)。拥有两个处理核心和4MB共享式二级缓存,平均功耗为65W,最大仅为80W,较AMD的Opteron的95W功耗很具优势。
台式机类Conroe处理器分为普通版和至尊版两种,产品线包括E6000系列和E4000系列,两者的主要差别为FSB频率不同。
普通版E6000系列处理器主频从1.8GHz到2.67GHz,频率虽低,但由于优秀的核心架构,Conroe处理器的性能表现优秀。此外,Conroe处理器还支持Intel的VT、EIST、EM64T和XD技术,并加入了SSE4指令集。由于Core的高效架构,Conroe不再提供对HT的支持。
二:什么是双核处理器
双核与双芯(DualCoreVs.DualCPU):AMD和Intel的双核技术在物理结构上也有很大不同之处。AMD将两个内核做在一个Die(晶元)上,通过直连架构连接起来,集成度更高。Intel则是将放在不同Die(晶元)上的两个内核封装在一起,因此有人将Intel的方案称为“双芯”,认为AMD的方案才是真正的“双核”。从用户端的角度来看,AMD的方案能够使双核CPU的管脚、功耗等指标跟单核CPU保持一致,从单核升级到双核,不需要更换电源、芯片组、散热系统和主板,只需要刷新BIOS软件即可,这对于主板厂商、计算机厂商和最终用户的投资保护是非常有利的。客户可以利用其现有的90纳米基础设施,通过BIOS更改移植到基于双核心的系统。
计算机厂商可以轻松地提供同一硬件的单核心与双核心版本,使那些既想提高性能又想保持IT环境稳定性的客户能够在不中断业务的情况下升级到双核心。在一个机架密度较高的环境中,通过在保持电源与基础设施投资不变的情况下移植到双核心,客户的系统性能将得到巨大的提升。在同样的系统占地空间上,通过使用双核心处理器,客户将获得更高水平的计算能力和性能。
双核处理器(DualCoreProcessor):双核处理器是指在一个处理器上集成两个运算核心,从而提高计算能力。“双核”的概念最早是由IBM、HP、Sun等支持RISC架构的高端服务器厂商提出的,不过由于RISC架构的服务器价格高、应用面窄,没有引起广泛的注意。
最近逐渐热起来的“双核”概念,主要是指基于X86开放架构的双核技术。在这方面,起领导地位的厂商主要有AMD和Intel两家。其中,两家的思路又有不同。AMD从一开始设计时就考虑到了对多核心的支持。所有组件都直接连接到CPU,消除系统架构方面的挑战和瓶颈。两个处理器核心直接连接到同一个内核上,核心之间以芯片速度通信,进一步降低了处理器之间的延迟。而Intel采用多个核心共享前端总线的方式。专家认为,AMD的架构对于更容易实现双核以至多核,Intel的架构会遇到多个内核争用总线资源的瓶颈问题。
目前Intel推出的台式机双核心处理器有PentiumD、PentiumEE(PentiumExtremeEdition)和CoreDuo三种类型,三者的工作原理有很大不同。
一、PentiumD和PentiumEE
PentiumD和PentiumEE分别面向主流市场以及高端市场,其每个核心采用独立式缓存设计,在处理器内部两个核心之间是互相隔绝的,通过处理器外部(主板北桥芯片)的仲裁器负责两个核心之间的任务分配以及缓存数据的同步等协调工作。两个核心共享前端总线,并依靠前端总线在两个核心之间传输缓存同步数据。从架构上来看,这种类型是基于独立缓存的松散型双核心处理器耦合方案,其优点是技术简单,只需要将两个相同的处理器内核封装在同一块基板上即可;缺点是数据延迟问题比较严重,性能并不尽如人意。另外,PentiumD和PentiumEE的最大区别就是PentiumEE支持超线程技术而PentiumD则不支持,PentiumEE在打开超线程技术之后会被操作系统识别为四个逻辑处理器。
AMD双核处理器
AMD推出的双核心处理器分别是双核心的Opteron系列和全新的Athlon64X2系列处理器。其中Athlon64X2是用以抗衡PentiumD和PentiumExtremeEdition的桌面双核心处理器系列。
AMD推出的Athlon64X2是由两个Athlon64处理器上采用的Venice核心组合而成,每个核心拥有独立的512KB(1MB)L2缓存及执行单元。除了多出一个核芯之外,从架构上相对于目前Athlon64在架构上并没有任何重大的改变。
双核心Athlon64X2的大部分规格、功能与我们熟悉的Athlon64架构没有任何区别,也就是说新推出的Athlon64X2双核心处理器仍然支持1GHz规格的HyperTransport总线,并且内建了支持双通道设置的DDR内存控制器。
与Intel双核心处理器不同的是,Athlon64X2的两个内核并不需要经过MCH进行相互之间的协调。AMD在Athlon64X2双核心处理器的内部提供了一个称为SystemRequestQueue(系统请求队列)的技术,在工作的时候每一个核心都将其请求放在SRQ中,当获得资源之后请求将会被送往相应的执行核心,也就是说所有的处理过程都在CPU核心范围之内完成,并不需要借助外部设备。
对于双核心架构,AMD的做法是将两个核心整合在同一片硅晶内核之中,而Intel的双核心处理方式则更像是简单的将两个核心做到一起而已。与Intel的双核心架构相比,AMD双核心处理器系统不会在两个核心之间存在传输瓶颈的问题。因此从这个方面来说,Athlon64X2的架构要明显优于PentiumD架构。
虽然与Intel相比,AMD并不用担心Prescott核心这样的功耗和发热大户,但是同样需要为双核心处理器考虑降低功耗的方式。为此AMD并没有采用降低主频的办法,而是在其使用90nm工艺生产的Athlon64X2处理器中采用了所谓的DualStressLiner应变硅技术,与SOI技术配合使用,能够生产出性能更高、耗电更低的晶体管。
AMD推出的Athlon64X2处理器给用户带来最实惠的好处就是,不需要更换平台就能使用新推出的双核心处理器,只要对老主板升级一下BIOS就可以了,这与Intel双核心处理器必须更换新平台才能支持的做法相比,升级双核心系统会节省不少费用。
三:什么是CPU主频:
在电子技术中,脉冲信号是一个按一定电压幅度,一定时间间隔连续发出的脉冲信号。脉冲信号之间的时间间隔称为周期;而将在单位时间(如1秒)内所产生的脉冲个数称为频率。频率是描述周期性循环信号(包括脉冲信号)在单位时间内所出现的脉冲数量多少的计量名称;频率的标准计量单位是Hz(赫)。电脑中的系统时钟就是一个典型的频率相当精确和稳定的脉冲信号发生器。频率在数学表达式中用“f”表示,其相应的单位有:Hz(赫)、kHz(千赫)、MHz(兆赫)、GHz(吉赫)。其中1GHz=1000MHz,1MHz=1000kHz,1kHz=1000Hz。计算脉冲信号周期的时间单位及相应的换算关系是:s(秒)、ms(毫秒)、μs(微秒)、ns(纳秒),其中:1s=1000ms,1ms=1000μs,1μs=1000ns。
CPU的主频,即CPU内核工作的时钟频率(CPUClockSpeed)。通常所说的某某CPU是多少兆赫的,而这个多少兆赫就是“CPU的主频”。很多人认为CPU的主频就是其运行速度,其实不然。CPU的主频表示在CPU内数字脉冲信号震荡的速度,与CPU实际的运算能力并没有直接关系。主频和实际的运算速度存在一定的关系,但目前还没有一个确定的公式能够定量两者的数值关系,因为CPU的运算速度还要看CPU的流水线的各方面的性能指标(缓存、指令集,CPU的位数等等)。由于主频并不直接代表运算速度,所以在一定情况下,很可能会出现主频较高的CPU实际运算速度较低的现象。比如AMD公司的AthlonXP系列CPU大多都能已较低的主频,达到英特尔公司的Pentium4系列CPU较高主频的CPU性能,所以AthlonXP系列CPU才以PR值的方式来命名。因此主频仅是CPU性能表现的一个方面,而不代表CPU的整体性能。
CPU的主频不代表CPU的速度,但提高主频对于提高CPU运算速度却是至关重要的。举个例子来说,假设某个CPU在一个时钟周期内执行一条运算指令,那么当CPU运行在100MHz主频时,将比它运行在50MHz主频时速度快一倍。因为100MHz的时钟周期比50MHz的时钟周期占用时间减少了一半,也就是工作在100MHz主频的CPU执行一条运算指令所需时间仅为10ns比工作在50MHz主频时的20ns缩短了一半,自然运算速度也就快了一倍。只不过电脑的整体运行速度不仅取决于CPU运算速度,还与其它各分系统的运行情况有关,只有在提高主频的同时,各分系统运行速度和各分系统之间的数据传输速度都能得到提高后,电脑整体的运行速度才能真正得到提高。
提高CPU工作主频主要受到生产工艺的限制。由于CPU是在半导体硅片上制造的,在硅片上的元件之间需要导线进行联接,由于在高频状态下要求导线越细越短越好,这样才能减小导线分布电容等杂散干扰以保证CPU运算正确。因此制造工艺的限制,是CPU主频发展的最大障碍之一。
四:什么是前端总线
微机中总线一般有内部总线、系统总线和外部总线。内部总线是微机内部各外围芯片与处理器之间的总线,用于芯片一级的互连;而系统总线是微机中各插件板与系统板之间的总线,用于插件板一级的互连;外部总线则是微机和外部设备之间的总线,微机作为一种设备,通过该总线和其他设备进行信息与数据交换,它用于设备一级的互连。
什么是前端总线:“前端总线”这个名称是由AMD在推出K7CPU时提出的概念,但是一直以来都被大家误认为这个名词不过是外频的另一个名称。我们所说的外频指的是CPU与主板连接的速度,这个概念是建立在数字脉冲信号震荡速度基础之上的,而前端总线的速度指的是数据传输的速度,由于数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz、1066MHz、1333MHz几种,前端总线频率越大,代表着CPU与内存之间的数据传输量越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU。较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。
前端总线的英文名字是FrontSideBus,通常用FSB表示,是将CPU连接到北桥芯片的总线。选购主板和CPU时,要注意两者搭配问题,一般来说,如果CPU不超频,那么前端总线是由CPU决定的,如果主板不支持CPU所需要的前端总线,系统就无法工作。也就是说,需要主板和CPU都支持某个前端总线,系统才能工作,只不过一个CPU默认的前端总线是唯一的,因此看一个系统的前端总线主要看CPU就可以。
北桥芯片负责联系内存、显卡等数据吞吐量最大的部件,并和南桥芯片连接。CPU就是通过前端总线(FSB)连接到北桥芯片,进而通过北桥芯片和内存、显卡交换数据。前端总线是CPU和外界交换数据的最主要通道,因此前端总线的数据传输能力对计算机整体性能作用很大,如果没足够快的前端总线,再强的CPU也不能明显提高计算机整体速度。数据传输最大带宽取决于所有同时传输的数据的宽度和传输频率,即数据带宽=(总线频率×数据位宽)÷8。目前PC机上所能达到的前端总线频率有266MHz、333MHz、400MHz、533MHz、800MHz几种,前端总线频率越大,代表着CPU与北桥芯片之间的数据传输能力越大,更能充分发挥出CPU的功能。现在的CPU技术发展很快,运算速度提高很快,而足够大的前端总线可以保障有足够的数据供给给CPU,较低的前端总线将无法供给足够的数据给CPU,这样就限制了CPU性能得发挥,成为系统瓶颈。显然同等条件下,前端总线越快,系统性能越好。
外频与前端总线频率的区别:前端总线的速度指的是数据传输的速度,外频是CPU与主板之间同步运行的速度。也就是说,100MHz外频特指数字脉冲信号在每秒钟震荡一千万次;而100MHz前端总线指的是每秒钟CPU可接受的数据传输量是100MHz×64bit=6400Mbit/s=800MByte/s(1Byte=8bit)。
五:多媒体指令集:
CPU依靠指令来计算和控制系统,每款CPU在设计时就规定了一系列与其硬件电路相配合的指令系统。指令的强弱也是CPU的重要指标,指令集是提高微处理器效率的最有效工具之一。从现阶段的主流体系结构讲,指令集可分为复杂指令集和精简指令集两部分,而从具体运用看,如Intel的MMX(MultiMediaExtended)、SSE、SSE2(Streaming-Singleinstructionmultipledata-Extensions2)和AMD的3DNow!等都是CPU的扩展指令集,分别增强了CPU的多媒体、图形图象和Internet等的处理能力。我们通常会把CPU的扩展指令集称为"CPU的指令集"。
1、精简指令集的运用
在最初发明计算机的数十年里,随着计算机功能日趋增大,性能日趋变强,内部元器件也越来越多,指令集日趋复杂,过于冗杂的指令严重的影响了计算机的工作效率。后来经过研究发现,在计算机中,80%程序只用到了20%的指令集,基于这一发现,RISC精简指令集被提了出来,这是计算机系统架构的一次深刻革命。RISC体系结构的基本思路是:抓住CISC指令系统指令种类太多、指令格式不规范、寻址方式太多的缺点,通过减少指令种类、规范指令格式和简化寻址方式,方便处理器内部的并行处理,提高VLSI器件的使用效率,从而大幅度地提高处理器的性能。
RISC指令集有许多特征,其中最重要的有:
指令种类少,指令格式规范:RISC指令集通常只使用一种或少数几种格式。指令长度单一(一般4个字节),并且在字边界上对齐,字段位置、特别是操作码的位置是固定的。
寻址方式简化:几乎所有指令都使用寄存器寻址方式,寻址方式总数一般不超过5个。其他更为复杂的寻址方式,如间接寻址等则由软件利用简单的寻址方式来合成。
大量利用寄存器间操作:RISC指令集中大多数操作都是寄存器到寄存器操作,只以简单的Load和Store操作访问内存。因此,每条指令中访问的内存地址不会超过1个,访问内存的操作不会与算术操作混在一起。
简化处理器结构:使用RISC指令集,可以大大简化处理器的控制器和其他功能单元的设计,不必使用大量专用寄存器,特别是允许以硬件线路来实现指令操作,而不必像CISC处理器那样使用微程序来实现指令操作。因此RISC处理器不必像CISC处理器那样设置微程序控制存储器,就能够快速地直接执行指令。
便于使用VLSI技术:随着LSI和VLSI技术的发展,整个处理器(甚至多个处理器)都可以放在一个芯片上。RISC体系结构可以给设计单芯片处理器带来很多好处,有利于提高性能,简化VLSI芯片的设计和实现。基于VLSI技术,制造RISC处理器要比CISC处理器工作量小得多,成本也低得多。
加强了处理器并行能力:RISC指令集能够非常有效地适合于采用流水线、超流水线和超标量技术,从而实现指令级并行操作,提高处理器的性能。目前常用的处理器内部并行操作技术基本上是基于RISC体系结构发展和走向成熟的。
正由于RISC体系所具有的优势,它在高端系统得到了广泛的应用,而CISC体系则在桌面系统中占据统治地位。而在如今,在桌面领域,RISC也不断渗透,预计未来,RISC将要一统江湖。
2、CPU的扩展指令集
对于CPU来说,在基本功能方面,它们的差别并不太大,基本的指令集也都差不多,但是许多厂家为了提升某一方面性能,又开发了扩展指令集,扩展指令集定义了新的数据和指令,能够大大提高某方面数据处理能力,但必需要有软件支持。
MMX指令集
MMX(MultiMediaeXtension,多媒体扩展指令集)指令集是Intel公司于1996年推出的一项多媒体指令增强技术。MMX指令集中包括有57条多媒体指令,通过这些指令可以一次处理多个数据,在处理结果超过实际处理能力的时候也能进行正常处理,这样在软件的配合下,就可以得到更高的性能。MMX的益处在于,当时存在的操作系统不必为此而做出任何修改便可以轻松地执行MMX程序。但是,问题也比较明显,那就是MMX指令集与x87浮点运算指令不能够同时执行,必须做密集式的交错切换才可以正常执行,这种情况就势必造成整个系统运行质量的下降。
SSE指令集
SSE(StreamingSIMDExtensions,单指令多数据流扩展)指令集是Intel在PentiumIII处理器中率先推出的。其实,早在PIII正式推出之前,Intel公司就曾经通过各种渠道公布过所谓的KNI(KatmaiNewInstruction)指令集,这个指令集也就是SSE指令集的前身,并一度被很多传媒称之为MMX指令集的下一个版本,即MMX2指令集。究其背景,原来"KNI"指令集是Intel公司最早为其下一代芯片命名的指令集名称,而所谓的"MMX2"则完全是硬件评论家们和媒体凭感觉和印象对"KNI"的评价,Intel公司从未正式发布过关于MMX2的消息。
而最终推出的SSE指令集也就是所谓胜出的"互联网SSE"指令集。SSE指令集包括了70条指令,其中包含提高3D图形运算效率的50条SIMD(单指令多数据技术)浮点运算指令、12条MMX整数运算增强指令、8条优化内存中连续数据块传输指令。理论上这些指令对目前流行的图像处理、浮点运算、3D运算、视频处理、音频处理等诸多多媒体应用起到全面强化的作用。SSE指令与3DNow!指令彼此互不兼容,但SSE包含了3DNow!技术的绝大部分功能,只是实现的方法不同。SSE兼容MMX指令,它可以通过SIMD和单时钟周期并行处理多个浮点数据来有效地提高浮点运算速度。
SSE2指令集
SSE2(StreamingSIMDExtensions2,Intel官方称为SIMD流技术扩展2或数据流单指令多数据扩展指令集2)指令集是Intel公司在SSE指令集的基础上发展起来的。相比于SSE,SSE2使用了144个新增指令,扩展了MMX技术和SSE技术,这些指令提高了广大应用程序的运行性能。随MMX技术引进的SIMD整数指令从64位扩展到了128位,使SIMD整数类型操作的有效执行率成倍提高。双倍精度浮点SIMD指令允许以SIMD格式同时执行两个浮点操作,提供双倍精度操作支持有助于加速内容创建、财务、工程和科学应用。除SSE2指令之外,最初的SSE指令也得到增强,通过支持多种数据类型(例如,双字和四字)的算术运算,支持灵活并且动态范围更广的计算功能。SSE2指令可让软件开发员极其灵活的实施算法,并在运行诸如MPEG-2、MP3、3D图形等之类的软件时增强性能。Intel是从Willamette核心的Pentium4开始支持SSE2指令集的,而AMD则是从K8架构的SledgeHammer核心的Opteron开始才支持SSE2指令集的。
SSE3指令集
SSE3(StreamingSIMDExtensions3,Intel官方称为SIMD流技术扩展3或数据流单指令多数据扩展指令集3)指令集是Intel公司在SSE2指令集的基础上发展起来的。相比于SSE2,SSE3在SSE2的基础上又增加了13个额外的SIMD指令。SSE3中13个新指令的主要目的是改进线程同步和特定应用程序领域,例如媒体和游戏。这些新增指令强化了处理器在浮点转换至整数、复杂算法、视频编码、SIMD浮点寄存器操作以及线程同步等五个方面的表现,最终达到提升多媒体和游戏性能的目的。Intel是从Prescott核心的Pentium4开始支持SSE3指令集的,而AMD则是从2005年下半年Troy核心的Opteron开始才支持SSE3的。但是需要注意的是,AMD所支持的SSE3与Intel的SSE3并不完全相同,主要是删除了针对Intel超线程技术优化的部分指令。
3DNow!(3Dnowaiting)指令集
3DNow!是AMD公司开发的SIMD指令集,可以增强浮点和多媒体运算的速度,并被AMD广泛应用于其K6-2、K6-3以及Athlon(K7)处理器上。3DNow!指令集技术其实就是21条机器码的扩展指令集。
与Intel公司的MMX技术侧重于整数运算有所不同,3DNow!指令集主要针对三维建模、坐标变换和效果渲染等三维应用场合,在软件的配合下,可以大幅度提高3D处理性能。后来在Athlon上开发了Enhanced3DNow!。这些AMD标准的SIMD指令和Intel的SSE具有相同效能。因为受到Intel在商业上以及PentiumIII成功的影响,软件在支持SSE上比起3DNow!更为普遍。Enhanced3DNow!AMD公司继续增加至52个指令,包含了一些SSE码,因而在针对SSE做最佳化的软件中能获得更好的效能。
六:什么是64位技术:
这里的64位技术是相对于32位而言的,这个位数指的是CPUGPRs(General-PurposeRegisters,通用寄存器)的数据宽度为64位,64位指令集就是运行64位数据的指令,也就是说处理器一次可以运行64bit数据。64bit处理器并非现在才有的,在高端的RISC(ReducedInstructionSetComputing,精简指令集计算机)很早就有64bit处理器了,比如SUN公司的UltraSparcⅢ、IBM公司的POWER5、HP公司的Alpha等。
64bit计算主要有两大优点:可以进行更大范围的整数运算;可以支持更大的内存。不能因为数字上的变化,而简单的认为64bit处理器的性能是32bit处理器性能的两倍。实际上在32bit应用下,32bit处理器的性能甚至会更强,即使是64bit处理器,目前情况下也是在32bit应用下性能更强。所以要认清64bit处理器的优势,但不可迷信64bit。
要实现真正意义上的64位计算,光有64位的处理器是不行的,还必须得有64位的操作系统以及64位的应用软件才行,三者缺一不可,缺少其中任何一种要素都是无法实现64位计算的。目前,在64位处理器方面,Intel和AMD两大处理器厂商都发布了多个系列多种规格的64位处理器;而在操作系统和应用软件方面,目前的情况不容乐观。因为真正适合于个人使用的64位操作系统现在就只有WindowsXPX64,而WindowsXPX64本身也只是一个过渡性质的64位操作系统,在Windowsvista发布以后就将被淘汰,而且WindowsXPX64本身也不太完善,易用性不高,一个明显的例子就是各种硬件设备的驱动程序很不完善,而且现在64位的应用软件还基本上没有,确实硬件厂商和软件厂商也不愿意去为一个过渡性质的操作系统编写驱动程序和应用软件。所以要想实现真正的64位计算,恐怕还得等到WindowsVista普及一段时间之后才行。
目前主流CPU使用的64位技术主要有AMD公司的AMD64位技术、Intel公司的EM64T技术、和Intel公司的IA-64技术。其中IA-64是Intel独立开发,不兼容现在的传统的32位计算机,仅用于Itanium(安腾)以及后续产品Itanium2,一般用户不会涉及到,因此这里仅对AMD64位技术和Intel的EM64T技术做一下简单介绍。
AMD64位技术X86-64:
AMD64的位技术是在原始32位X86指令集的基础上加入了X86-64扩展64位X86指令集,使这款芯片在硬件上兼容原来的32位X86软件,并同时支持X86-64的扩展64位计算,使得这款芯片成为真正的64位X86芯片。这是一个真正的64位的标准,X86-64具有64位的寻址能力。
X86-64新增的几组CPU寄存器将提供更快的执行效率。寄存器是CPU内部用来创建和储存CPU运算结果和其它运算结果的地方。标准的32-bitx86架构包括8个通用寄存器(GPR),AMD在X86-64中又增加了8组(R8-R9),将寄存器的数目提高到了16组。X86-64寄存器默认位64-bit。还增加了8组128-bitXMM寄存器(也叫SSE寄存器,XMM8-XMM15),将能给单指令多数据流技术(SIMD)运算提供更多的空间,这些128位的寄存器将提供在矢量和标量计算模式下进行128位双精度处理,为3D建模、矢量分析和虚拟现实的实现提供了硬件基矗通过提供了更多的寄存器,按照X86-64标准生产的CPU可以更有效的处理数据,可以在一个时钟周期中传输更多的信息。
EM64T技术
Intel官方是给EM64T这样定义的:EM64T全称ExtendedMemory64Technology,即扩展64bit内存技术。EM64T是IntelIA-32架构的扩展,即IA-32e(IntelArchitectur-32extension)。IA-32处理器通过附加EM64T技术,便可在兼容IA-32软件的情况下,允许软件利用更多的内存地址空间,并且允许软件进行32bit线性地址写入。EM64T特别强调的是对32bit和64bit的兼容性。Intel为新核心增加了8个64bitGPRs(R8-R15),并且把原有GRPs全部扩展为64bit,这样可以提高整数运算能力。增加8个128bitSSE寄存器(XMM8-XMM15),是为了增强多媒体性能,包括对SSE、SSE2和SSE3的支持。
Intel为支持EM64T技术的处理器设计了两大模式:传统IA-32模式(legacyIA-32mode)和IA-32e扩展模式(IA-32emode)。在支持EM64T技术的处理器内有一个称之为扩展功能激活寄存器(extendedfeatureenableregister,IA32_EFER)的部件,其中的Bit10控制着EM64T是否激活。Bit10被称作IA-32e模式有效(IA-32emodeactive)或长模式有效(longmodeactive,LMA)。当LMA=0时,处理器便作为一颗标准的32bit(IA32)处理器运行在传统IA-32模式;当LMA=1时,EM64T便被激活,处理器会运行在IA-32e扩展模式下。
目前AMD方面支持64位技术的CPU有Athlon64系列、AthlonFX系列和Opteron系列。Intel方面支持64位技术的CPU有使用Nocona核心的Xeon系列、使用Prescott2M核心的Pentium46系列和使用Prescott2M核心的P4EE系列。
浅谈EM64T技术和AMD64区别X86-64(AMD64/EM64T):
AMD公司设计,可以在同一时间内处理64位的整数运算,并兼容于X86-32架构。其中支持64位逻辑定址,同时提供转换为32位定址选项;但数据操作指令默认为32位和8位,提供转换成64位和16位的选项;支持常规用途寄存器,如果是32位运算操作,就要将结果扩展成完整的64位。这样,指令中有“直接执行”和“转换执行”的区别,其指令字段是8位或32位,可以避免字段过长。
x86-64(AMD64)的产生也并非空穴来风,x86处理器的32bit寻址空间限制在4GB内存,而IA-64的处理器又不能兼容x86。AMD充分考虑顾客的需求,加强x86指令集的功能,使这套指令集可同时支持64位的运算模式,因此AMD把它们的结构称之为x86-64。在技术上AMD在x86-64架构中为了进行64位运算,AMD为其引入了新增了R8-R15通用寄存器作为原有X86处理器寄存器的扩充,但在而在32位环境下并不完全使用到这些寄存器。原来的寄存器诸如EAX、EBX也由32位扩张至64位。在SSE单元中新加入了8个新寄存器以提供对SSE2的支持。寄存器数量的增加将带来性能的提升。与此同时,为了同时支持32和64位代码及寄存器,x86-64架构允许处理器工作在以下两种模式:LongMode(长模式)和LegacyMode(遗传模式),Long模式又分为两种子模式(64bit模式和Compatibilitymode兼容模式)。该标准已经被引进在AMD服务器处理器中的Opteron处理器。
而今年也推出了支持64位的EM64T技术,再还没被正式命为EM64T之前是IA32E,这是英特尔64位扩展技术的名字,用来区别X86指令集。Intel的EM64T支持64位sub-mode,和AMD的X86-64技术类似,采用64位的线性平面寻址,加入8个新的通用寄存器(GPRs),还增加8个寄存器支持SSE指令。与AMD相类似,Intel的64位技术将兼容IA32和IA32E,只有在运行64位操作系统下的时候,才将会采用IA32E。IA32E将由2个sub-mode组成:64位sub-mode和32位sub-mode,同AMD64一样是向下兼容的。Intel的EM64T将完全兼容AMD的X86-64技术。现在Nocona处理器已经加入了一些64位技术,Intel的Pentium4E处理器也支持64位技术。
应该说,这两者都是兼容x86指令集的64位微处理器架构,但EM64T与AMD64还是有一些不一样的地方,AMD64处理器中的NX位在Intel的处理器中将没有提供。
七:什么是迅驰技术:
2003年3月英特尔正式发布了迅驰移动计算技术,英特尔的迅驰移动计算技术并非以往的处理器、芯片组等单一产品形式,其代表了一整套移动计算解决方案,迅驰的构成分为三个部分:奔腾M处理器、855/915系列芯片组和英特尔PRO无线网上,三项缺一不可共同组成了迅驰移动计算技术。
奔腾M首次改版叫Dothan
在两年多时间里,迅驰技术经历了一次改版和一次换代。初期迅驰中奔腾M处理器的核心代号为Bannis,采用130纳米工艺,1MB高速二级缓存,400MHz前端总线。迅驰首次改版是在2004年5月,采用90纳米工艺Dothan核心的奔腾M处理器出现,其二级缓存容量提供到2MB,前端总线仍为400MHz,它也就是我们常说的Dothan迅驰。首次改版后,Dothan核心的奔腾M处理器迅速占领市场,Bannis核心产品逐渐退出主流。虽然市场中流行着将Dothan核心称之为迅驰二代,但英特尔官方并没有给出明确的定义,仍然叫做迅驰。也就是在Dothan奔腾M推出的同时,英特尔更改了以主频定义处理器编号的惯例,取而代之的是一系列数字,例如:奔腾M715/725等,它们分别对应1.5GHz和1.6GHz主频。首次改版中,原802.11b无线网卡也改为了支持802.11b/g规范,网络传输从11Mbps提供至14Mbps.
新一代迅驰Sonoma
迅驰的换代是2005年1月19日,英特尔正式发布基于Sonoma平台的新一代迅驰移动计算技术,其构成组件中,奔腾M处理器升级为Dothan核心、90纳米工艺、533MHz前端总线和2MB高速二级缓存,处理器编号由奔腾M730—770,主频由1.60GHz起,最高2.13GHz。915GM/PM芯片组让迅驰进入了PCI-E时代,其中915GM整合了英特尔GMA900图形引擎,让非独立显卡笔记本在多媒体性能上有了较大提高。915PM/GM还支持单通道DDR333或双通道DDR2400/533MHz内存,性能提供同时也降低了部分功耗。目前Sonoma平台的新一代迅驰渐渐成为市场主流。
现在又推出了迅驰三代。迅驰平台的构成:
迅驰一:PMCPU+855芯片+IEEE802.11B无线网卡
迅驰二:。。+915.。+802.11B/G
迅驰三:酷睿(双核或单核)+945+802.11A/B/G
[二]
接下来就说一下显卡,毕竟大家看一款机器的时候都会首先关注处理器和显卡。听见别人说什么位宽多少?核心频率、显存频率等等,自己是听得云里雾里。想仔细问问人家还怕人家没时间,那就在这楼好好学习一下显卡基本参数的含义吧
一:显存频率
显存频率是指默认情况下,该显存在显卡上工作时的频率,以MHz(兆赫兹)为单位。显存频率一定程度上反应着该显存的速度。显存频率随着显存的类型、性能的不同而不同,SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。DDRSDRAM显存则能提供较高的显存频率,主要在中低端显卡上使用,DDR2显存由于成本高并且性能一般,因此使用量不大。DDR3显存是目前高端显卡采用最为广泛的显存类型。不同显存能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz、1200MHz、1600MHz,甚至更高。
显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166MHz。而对于DDRSDRAM或者DDR2、DDR3,其时钟周期为6ns,那么它的显存频率就为1/6ns=166MHz,但要了解的是这是DDRSDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其一个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333MHz。具体情况可以看下边关于各种显存的介绍。
但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650MHz,而制造时显卡工作频率被设定为550MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。此外,用于显卡的显存,虽然和主板用的内存同样叫DDR、DDR2甚至DDR3,但是由于规范参数差异较大,不能通用,因此也可以称显存为GDDR、GDDR2、GDDR3。
二:显存位宽
显存位宽是显存在一个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位和256位三种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此256位宽的显存更多应用于高端显卡,而主流显卡基本都采用128位显存。
大家知道显存带宽=显存频率X显存位宽/8,那么在显存频率相当的情况下,显存位宽将决定显存带宽的大校比如说同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:128位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要性。
显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成,。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。这是最为准确的方法,但施行起来较为麻烦。
三:什么是渲染管线
渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。
渲染管线的数量一般是以像素渲染流水线的数量×每管线的纹理单元数量来表示。例如,GeForce6800Ultra的渲染管线是16×1,就表示其具有16条像素渲染流水线,每管线具有1个纹理单元;GeForce4MX440的渲染管线是2×2,就表示其具有2条像素渲染流水线,每管线具有2个纹理单元等等,其余表示方式以此类推。
渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高,例如16×1架构的GeForce6800GT其性能要强于12×1架构的GeForce6800,就象工厂里的采用相同技术的2条生产流水线的生产能力和效率要强于1条生产流水线那样;而在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如4×2架构的GeForce2GTS其性能就不如2×2架构的GeForce4MX440,就象工厂里的采用了先进技术的1条流水线的生产能力和效率反而还要强于只采用了老技术的2条生产流水线那样。
四:什么是DirectX
DirectX并不是一个单纯的图形API,它是由微软公司开发的用途广泛的API,它包含有DirectGraphics(Direct3D+DirectDraw)、DirectInput、DirectPlay、DirectSound、DirectShow、DirectSetup、DirectMediaObjects等多个组件,它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。DirectX开发之初是为了弥补Windows3.1系统对图形、声音处理能力的不足,而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。
DirectX5.0
微软公司并没有推出DirectX4.0,而是直接推出了DirectX5.0。此版本对Direct3D做出了很大的改动,加入了雾化效果、Alpha混合等3D特效,使3D游戏中的空间感和真实感得以增强,还加入了S3的纹理压缩技术。同时,DirectX5.0在其它各组件方面也有加强,在声卡、游戏控制器方面均做了改进,支持了更多的设备。因此,DirectX发展到DirectX5.0才真正走向了成熟。此时的DirectX性能完全不逊色于其它3DAPI,而且大有后来居上之势。
DirectX6.0
DirectX6.0推出时,其最大的竞争对手之一Glide,已逐步走向了没落,而DirectX则得到了大多数厂商的认可。DirectX6.0中加入了双线性过滤、三线性过滤等优化3D图像质量的技术,游戏中的3D技术逐渐走入成熟阶段。
DirectX7.0
DirectX7.0最大的特色就是支持T&L,中文名称是“坐标转换和光源”。3D游戏中的任何一个物体都有一个坐标,当此物体运动时,它的坐标发生变化,这指的就是坐标转换;3D游戏中除了场景+物体还需要灯光,没有灯光就没有3D物体的表现,无论是实时3D游戏还是3D影像渲染,加上灯光的3D渲染是最消耗资源的。虽然OpenGL中已有相关技术,但此前从未在民用级硬件中出现。在T&L问世之前,位置转换和灯光都需要CPU来计算,CPU速度越快,游戏表现越流畅。使用了T&L功能后,这两种效果的计算用显示卡的GPU来计算,这样就可以把CPU从繁忙的劳动中解脱出来。换句话说,拥有T&L显示卡,使用DirectX7.0,即使没有高速的CPU,同样能流畅的跑3D游戏。
DirectX8.0
DirectX8.0的推出引发了一场显卡革命,它首次引入了“像素渲染”概念,同时具备像素渲染引擎(PixelShader)与顶点渲染引擎(VertexShader),反映在特效上就是动态光影效果。同硬件T&L仅仅实现的固定光影转换相比,VS和PS单元的灵活性更大,它使GPU真正成为了可编程的处理器。这意味着程序员可通过它们实现3D场景构建的难度大大降低。通过VS和PS的渲染,可以很容易的宁造出真实的水面动态波纹光影效果。此时DirectX的权威地位终于建成。
DirectX9.0
2002年底,微软发布DirectX9.0。DirectX9中PS单元的渲染精度已达到浮点精度,传统的硬件T&L单元也被取消。全新的VertexShader(顶点着色引擎)编程将比以前复杂得多,新的VertexShader标准增加了流程控制,更多的常量,每个程序的着色指令增加到了1024条。
PS2.0具备完全可编程的架构,能对纹理效果即时演算、动态纹理贴图,还不占用显存,理论上对材质贴图的分辨率的精度提高无限多;另外PS1.4只能支持28个硬件指令,同时操作6个材质,而PS2.0却可以支持160个硬件指令,同时操作16个材质数量,新的高精度浮点数据规格可以使用多重纹理贴图,可操作的指令数可以任意长,电影级别的显示效果轻而易举的实现。
VS2.0通过增加Vertex程序的灵活性,显著的提高了老版本(DirectX8)的VS性能,新的控制指令,可以用通用的程序代替以前专用的单独着色程序,效率提高许多倍;增加循环操作指令,减少工作时间,提高处理效率;扩展着色指令个数,从128个提升到256个。
增加对浮点数据的处理功能,以前只能对整数进行处理,这样提高渲染精度,使最终处理的色彩格式达到电影级别。突破了以前限制PC图形图象质量在数学上的精度障碍,它的每条渲染流水线都升级为128位浮点颜色,让游戏程序设计师们更容易更轻松的创造出更漂亮的效果,让程序员编程更容易。
DirectX9.0c
与过去的DirectX9.0b和ShaderModel2.0相比较,DirectX9.0c最大的改进,便是引入了对ShaderModel3.0(包括PixelShader3.0和VertexShader3.0两个着色语言规范)的全面支持。举例来说,DirectX9.0b的ShaderModel2.0所支持的VertexShader最大指令数仅为256个,PixelShader最大指令数更是只有96个。而在最新的ShaderModel3.0中,VertexShader和PixelShader的最大指令数都大幅上升至65535个,全新的动态程序流控制、位移贴图、多渲染目标(MRT)、次表面散射Subsurfacescattering、柔和阴影Softshadows、环境和地面阴影Environmentalandgroundshadows、全局照明(Globalillumination)等新技术特性,使得GeForce6、GeForce7系列以及RadeonX1000系列立刻为新一代游戏以及具备无比真实感、幻想般的复杂的数字世界和逼真的角色在影视品质的环境中活动提供强大动力。
因此DirectX9.0c和ShaderModel3.0标准的推出,可以说是DirectX发展历程中的重要转折点。在DirectX9.0c中,ShaderModel3.0除了取消指令数限制和加入位移贴图等新特性之外,更多的特性都是在解决游戏的执行效率和品质上下功夫,ShaderModel3.0诞生之后,人们对待游戏的态度也开始从过去单纯地追求速度,转变到游戏画质和运行速度两者兼顾。因此ShaderModel3.0对游戏产业的影响可谓深远。
五:核心频率
显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存、像素管线、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能
六:显存容量
显存容量是显卡上本地显存的容量数,这是选择显卡的关键参数之一。显存容量的大小决定着显存临时存储数据的能力,在一定程度上也会影响显卡的性能。显存容量也是随着显卡的发展而逐步增大的,并且有越来越增大的趋势。显存容量从早期的512KB、1MB、2MB等极小容量,发展到8MB、12MB、16MB、32MB、64MB,一直到目前主流的128MB、256MB和高档显卡的512MB,某些专业显卡甚至已经具有1GB的显存了。
值得注意的是,显存容量越大并不一定意味着显卡的性能就越高,因为决定显卡性能的三要素首先是其所采用的显示芯片,其次是显存带宽(这取决于显存位宽和显存频率),最后才是显存容量。一款显卡究竟应该配备多大的显存容量才合适是由其所采用的显示芯片所决定的,也就是说显存容量应该与显示核心的性能相匹配才合理,显示芯片性能越高由于其处理能力越高所配备的显存容量相应也应该越大,而低性能的显示芯片配备大容量显存对其性能是没有任何帮助的。
七:什么是顶点着色单元
顶点着色单元是显示芯片内部用来处理顶点(Vertex)信息并完成着色工作的并行处理单元。顶点着色单元决定了显卡的三角形处理和生成能力,所以也是衡量显示芯片性能特别是3D性能的重要参数。
顶点(Vertex)是图形学中的最基本元素,在三维空间中,每个顶点都拥有自己的坐标和颜色值等参数,三个顶点可以构成成一个三角形,而显卡所最终生成的立体画面则是由数量繁多的三角形构成的,而三角形数量的多少就决定了画面质量的高低,画面越真实越精美,就越需要数量更多的三角形来构成。顶点着色单元就是处理着些信息然后再送给像素渲染单元完成最后的贴图工作,最后再输出到显示器就成为我们所看到的3D画面。而显卡的顶点处理能力不足,就会导致要么降低画质,要么降低速度。
在相同的显示核心下,顶点着色单元的数量就决定了显卡的性能高低,数量越多也就意味着性能越高,例如具有6个顶点着色单元的GeForce6800GT就要比只具有5个顶点着色单元的GeForce6800性能高:但在不同的显示核心架构下顶点着色单元的数量多则并不一定就意味着性能越高,这还要取决于顶点着色单元的效率以及显卡的其它参数,例如具有4个顶点着色单元的Radeon9800Pro其性能还不如只具有3个顶点着色单元的GeForce6600GT。
最后来个补充说明
显卡的主要构成(极其参数)
1、显示芯片(型号、版本级别、开发代号、制造工艺、核心频率)
2、显存(类型、位宽、容量、封装类型、速度、频率)
3、技术(象素渲染管线、顶点着色引擎数、3DAPI、RAMDAC频率及支持MAX分辨率)
4、PCB板(PCB层数、显卡接口、输出接口、散热装置)
5、品牌
1、显示芯片
显示芯片,又称图型处理器-GPU,它在显卡中的作用,就如同CPU在电脑中的作用一样。更直接的比喻就是大脑在人身体里的作用。
先简要介绍一下常见的生产显示芯片的厂商:Intel、ATI、nVidia、VIA(S3)、SIS、Matrox、3DLabs。
Intel、VIA(S3)、SIS主要生产集成芯片;
ATI、nVidia以独立芯片为主,是目前市场上的主流,但由于ATi现在已经被AMD收购,以后是否会继续出独立显示芯片很难说了;
Matrox、3DLabs则主要面向专业图形市常
由于ATI和nVidia基本占据了主流显卡市场,下面主要将主要针对这两家公司的产品做介绍。
型号
ATi公司的主要品牌Radeon(镭)系列,其型号由早其的RadeonXpress200到Radeon(X300、X550、X600、X700、X800、X850)到近期的
Radeon(X1300、X1600、X1800、X1900、X1950)性能依次由低到高。
nVIDIA公司的主要品牌GeForce系列,其型号由早其的GeForce256、GeForce2(100/200/400)、GeForce3(200/500)、GeForce4
(420/440/460/4000/4200/4400/4600/4800)到GeForceFX(5200/5500/5600/5700/5800/5900/5950)、GeForce
(6100/6150/6200/6400/6500/6600/6800/)再到近其的GeForce(7300/7600/7800/7900/7950)性能依次由低到高。
版本级别
除了上述标准版本之外,还有些特殊版,特殊版一般会在标准版的型号后面加个后缀,常见的有:
ATi:
SE(SimplifyEdition简化版)通常只有64bit内存界面,或者是像素流水线数量减少。
Pro(ProfessionalEdition专业版)高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。
XT(eXTreme高端版)是ATi系列中高端的,而nVIDIA用作低端型号。
XTPE(eXTremePremiumEditionXT白金版)高端的型号。
XL(eXtremeLimited高端系列中的较低端型号)ATI最新推出的R430中的高频版
XTX(XTeXtreme高端版)X1000系列发布之后的新的命名规则。
CE(CrossfireEdition交叉火力版)交叉火力。
VIVO(VIDEOINandVIDEOOUT)指显卡同时具备视频输入与视频捕捉两大功能。
HM(HyperMemory)可以占用内存的显卡
nVIDIA:
ZT在XT基础上再次降频以降低价格。
XT降频版,而在ATi中表示最高端。
LE(LowerEdition低端版)和XT基本一样,ATi也用过。
MX平价版,大众类。
GTS/GS低频版。
GE比GS稍强点,其实就是超了频的GS。
GT高频版。比GS高一个档次因为GT没有缩减管线和顶点单元。
GTO比GT稍强点,有点汽车中GTO的味道。
Ultra在GF7系列之前代表着最高端,但7系列最高端的命名就改为GTX。
GTX(GTeXtreme)加强版,降频或者缩减流水管道后成为GT,再继续缩水成为GS版本。
GT2双GPU显卡。
TI(Titanium钛)一般就是代表了nVidia的高端版本。
Go多用语移动平台。
TC(TurboCache)可以占用内存的显卡
[三]
在所有硬件当中只有硬盘的发展速度是最慢的。参数不多但有必要了解你的硬盘
一:接口类型
硬盘接口是硬盘与主机系统间的连接部件,作用是在硬盘缓存和主机内存之间传输数据。不同的硬盘接口决定着硬盘与计算机之间的连接速度,在整个系统中,硬盘接口的优劣直接影响着程序运行快慢和系统性能好坏。从整体的角度上,硬盘接口分为IDE、SATA、SCSI和光纤通道四种,IDE接口硬盘多用于家用产品中,也部分应用于服务器,SCSI接口的硬盘则主要应用于服务器市场,而光纤通道只在高端服务器上,价格昂贵。SATA是种新生的硬盘接口类型,还正出于市场普及阶段,在家用市场中有着广泛的前景。在IDE和SCSI的大类别下,又可以分出多种具体的接口类型,又各自拥有不同的技术规范,具备不同的传输速度,比如ATA100和SATA;Ultra160SCSI和Ultra320SCSI都代表着一种具体的硬盘接口,各自的速度差异也较大。
IDE
IDE的英文全称为“IntegratedDriveElectronics”,即“电子集成驱动器”,它的本意是指把“硬盘控制器”与“盘体”集成在一起的硬盘驱动器。把盘体与控制器集成在一起的做法减少了硬盘接口的电缆数目与长度,数据传输的可靠性得到了增强,硬盘制造起来变得更容易,因为硬盘生产厂商不需要再担心自己的硬盘是否与其它厂商生产的控制器兼容。对用户而言,硬盘安装起来也更为方便。IDE这一接口技术从诞生至今就一直在不断发展,性能也不断的提高,其拥有的价格低廉、兼容性强的特点,为其造就了其它类型硬盘无法替代的地位。
IDE代表着硬盘的一种类型,但在实际的应用中,人们也习惯用IDE来称呼最早出现IDE类型硬盘ATA-1,这种类型的接口随着接口技术的发展已经被淘汰了,而其后发展分支出更多类型的硬盘接口,比如ATA、UltraATA、DMA、UltraDMA等接口都属于IDE硬盘。
SCSI
SCSI的英文全称为“SmallComputerSystemInterface”(小型计算机系统接口),是同IDE(ATA)完全不同的接口,IDE接口是普通PC的标准接口,而SCSI并不是专门为硬盘设计的接口,是一种广泛应用于小型机上的高速数据传输技术。SCSI接口具有应用范围广、多任务、带宽大、CPU占用率低,以及热插拔等优点,但较高的价格使得它很难如IDE硬盘般普及,因此SCSI硬盘主要应用于中、高端服务器和高档工作站中。
光纤通道
光纤通道的英文拼写是FibreChannel,和SCIS接口一样光纤通道最初也不是为硬盘设计开发的接口技术,是专门为网络系统设计的,但随着存储系统对速度的需求,才逐渐应用到硬盘系统中。光纤通道硬盘是为提高多硬盘存储系统的速度和灵活性才开发的,它的出现大大提高了多硬盘系统的通信速度。光纤通道的主要特性有:热插拔性、高速带宽、远程连接、连接设备数量大等。
光纤通道是为在像服务器这样的多硬盘系统环境而设计,能满足高端工作站、服务器、海量存储子网络、外设间通过集线器、交换机和点对点连接进行双向、串行数据通讯等系统对高数据传输率的要求。
SATA
使用SATA(SerialATA)口的硬盘又叫串口硬盘,是未来PC机硬盘的趋势。2001年,由Intel、APT、Dell、IBM、希捷、迈拓这几大厂商组成的SerialATA委员会正式确立了SerialATA1.0规范,2002年,虽然串行ATA的相关设备还未正式上市,但SerialATA委员会已抢先确立了SerialATA2.0规范。SerialATA采用串行连接方式,串行ATA总线使用嵌入式时钟信号,具备了更强的纠错能力,与以往相比其最大的区别在于能对传输指令(不仅仅是数据)进行检查,如果发现错误会自动矫正,这在很大程度上提高了数据传输的可靠性。串行接口还具有结构简单、支持热插拔的优点。
串口硬盘是一种完全不同于并行ATA的新型硬盘接口类型,由于采用串行方式传输数据而知名。相对于并行ATA来说,就具有非常多的优势。首先,SerialATA以连续串行的方式传送数据,一次只会传送1位数据。这样能减少SATA接口的针脚数目,使连接电缆数目变少,效率也会更高。实际上,SerialATA仅用四支针脚就能完成所有的工作,分别用于连接电缆、连接地线、发送数据和接收数据,同时这样的架构还能降低系统能耗和减小系统复杂性。其次,SerialATA的起点更高、发展潜力更大,SerialATA1.0定义的数据传输率可达150MB/s,这比目前最新的并行ATA(即ATA/133)所能达到133MB/s的最高数据传输率还高,而在SerialATA2.0的数据传输率将达到300MB/s,最终SATA将实现600MB/s的最高数据传输率。
二:SATA与ATA区别
串行高级技术配件(SATA)是一项新兴的标准电子接口技术。SATA的性能有望超过前一代技术--并行ATA,因为它可以提供更高的性能,而成本却只是SCSI或光纤通道等传统存储技术的一小部分。
顾名思义,SATA只是一种串行链接接口标准,用来控制及传输服务器或存储设备到客户端应用之间的数据和信息。SATA用来把硬盘驱动器等存储设备连接到主板上,从而增强系统性能、提高效率、大幅降低开发成本。
要了解SATA的优点,就需要深入地了解并行ATA。并行ATA是基于集成驱动器电路(IDE)接口标准的一项硬驱技术,用于传输及交换计算机主板总线到磁盘存储设备间的数据。
许多低端的网络连接存储(NAS)设备之所以采用并行ATA驱动器,是因为成本效益。另外,还因为众多的高带宽应用,譬如备份与恢复、视频监控、视频处理以及使用磁盘而不是磁带的近线存储。
采用SATA的存储设备配置起来要比采用并行ATA简便得多,这归因于其较小的格式参数。SATA所用的电缆要比并行ATA更长、更细,后者采用又粗又短又容易断裂的电缆。另外,SATA采用7针数据连接器,而不是并行ATA的40针连接器。
连接到磁盘驱动器的粗电缆装配起来比较困难,还会堵住气流、导致发热,这一切都会影响硬件系统的总体性能和稳定性。SATA铺设及安装起来简单多了,紧凑性为主板和磁盘驱动器腾出了多余的空间。
SATA还采用低电压差分信号技术,这与低功耗和冷却的需求相一致。信号电压从并行ATA的5伏降低到了SATA的区区0.7伏。这不仅降低了磁盘驱动器的功耗,还缩小了开关控制器的尺寸。
这项接口技术采用了8/10位编码方法,即把8位数据字节编码成10位字符进行传输。采用串行技术以及8/10位编码法,不仅提高了总体的传输性能,还完全绕开了并行传输存在的问题。这种数据完整性很高的方案提供了必要的嵌入计时和重要的数据完整性检查功能,而这正是高速传输所需要的。
SATA采用了点对点拓扑结构,而不是普遍应用于并行ATA或SCSI技术的基于总线的架构,所以SATA可以为每个连接设备提供全部带宽,从而提高了总体性能。据SATA工作组(SerialATAWorkingGroup)声称,由于进度表包括了三代增强型数据传输速率:设备的突发速率分别为150Mbps、300Mbps和600Mbps,SATA因而保证了长达10年的稳定而健康的发展期。这项新标准还向后兼容,这样串行格式转换成并行格式就更方便了,反之亦然,而且还会加快采用SATA的速度。
由于采用柔韧的细电缆、热插拔连接器、提高了数据可靠性和保障性,而且软件上完全兼容,SATA将给廉价的网络存储产品带来巨大的市场机会。许多磁盘驱动器和芯片生产商已经宣布推出支持SATA的产品,由80余家厂商组成的SATA工作组也得到了业界的广泛支持。
目前,SATA的成本比并行ATA高出15%左右,但差距正在迅速缩校预计在不远的将来,SATA的成本将与如今的并行ATA持平。
三:笔记本硬盘
尺寸:笔记本电脑所使用的硬盘一般是2.5英寸,而台式机为3.5英寸,由于两者的制作工艺技术参数不同,首先,2.5硬盘只是使用一个或两个磁盘进行工作,而3.5的硬盘最多可以装配五个进行工作;另外,由于3.5硬盘的磁盘直径较大,则可以相对提供较大的存储容量;如果只是进行区域密度存储容量比较的话,2.5硬盘的表现也相当令人满意。笔记本电脑硬盘是笔记本电脑中为数不多的通用部件之一,基本上所有笔记本电脑硬盘都是可以通用的。
厚度:但是笔记本电脑硬盘有个台式机硬盘没有的参数,就是厚度,标准的笔记本电脑硬盘有9.5,12.5,17.5mm三种厚度。9.5mm的硬盘是为超轻超薄机型设计的,12.5mm的硬盘主要用于厚度较大光软互换和全内置机型,至于17.5mm的硬盘是以前单碟容量较小时的产物,现在已经基本没有机型采用了。
转数:笔记本电脑硬盘现在最快的是5400转2MCache,支持DMA100(主流型号只有4200转512KCache,支持DMA66),但其速度和现在台式机最慢的5400转512KCache硬盘比较起来也相差甚远,由于笔记本电脑硬盘采用的是2.5英寸盘片,即使转速相同时,外圈的线速度也无法和3.5英寸盘片的台式机硬盘相比,笔记本电脑硬盘现在已经是笔记本电脑性能提高最大的瓶颈。
接口类型:笔记本电脑硬盘一般采用3种形式和主板相连:用硬盘针脚直接和主板上的插座连接,用特殊的硬盘线和主板相连,或者采用转接口和主板上的插座连接。不管采用哪种方式,效果都是一样的,只是取决于厂家的设计。
早期的笔记本的接口采用的主要是UltraATA/DMA33,然而笔记本硬盘转速以及容量的提高使得它成为一个阻碍本本电脑速度的瓶颈。为此正如台式机的发展趋势,UltraATA/DMA66/100/133也被运用到了笔记本硬盘上。目前使用的是UltraATA100,E-IDE接口的产品在提供了高达100MB/s最大传输率的同时还将CPU从数据流中解放了出来。
现在SATA串口技术已在广泛使用在了台式机的硬盘中,目前在笔记本硬盘中也开始广泛应用SerialATA接口技术,采用该接口仅以四只针脚便能完成所有工作。该技术重要之处在于可使接口驱动电路体积变得更加简洁,高达150Mb/s的传输速度使厂商能更容易地制造出对处理器依赖性更小的微型高速笔记本硬盘。
容量及采用技术:由于应用程序越来越庞大,硬盘容量也有愈来愈高的趋势,对于笔记本电脑的硬盘来说,不但要求其容量大,还要求其体积校为解决这个矛盾,笔记本电脑的硬盘普遍采用了磁阻磁头(MR)技术或扩展磁阻磁头(MRX)技术,MR磁头以极高的密度记录数据,从而增加了磁盘容量、提高数据吞吐率,同时还能减少磁头数目和磁盘空间,提高磁盘的可靠性和抗干扰、震动性能。它还采用了诸如增强型自适应电池寿命扩展器、PRML数字通道、新型平滑磁头加载/卸载等高新技术。
四:缓存
缓存(Cachememory)是硬盘控制器上的一块内存芯片,具有极快的存取速度,它是硬盘内部存储和外界接口之间的缓冲器。由于硬盘的内部数据传输速度和外界介面传输速度不同,缓存在其中起到一个缓冲的作用。缓存的大小与速度是直接关系到硬盘的传输速度的重要因素,能够大幅度地提高硬盘整体性能。当硬盘存取零碎数据时需要不断地在硬盘与内存之间交换数据,如果有大缓存,则可以将那些零碎数据暂存在缓存中,减小外系统的负荷,也提高了数据的传输速度。
硬盘的缓存主要起三种作用:一是预读龋当硬盘受到CPU指令控制开始读取数据时,硬盘上的控制芯片会控制磁头把正在读取的簇的下一个或者几个簇中的数据读到缓存中(由于硬盘上数据存储时是比较连续的,所以读取命中率较高),当需要读取下一个或者几个簇中的数据的时候,硬盘则不需要再次读取数据,直接把缓存中的数据传输到内存中就可以了,由于缓存的速度远远高于磁头读写的速度,所以能够达到明显改善性能的目的;二是对写入动作进行缓存。当硬盘接到写入数据的指令之后,并不会马上将数据写入到盘片上,而是先暂时存储在缓存里,然后发送一个“数据已写入”的信号给系统,这时系统就会认为数据已经写入,并继续执行下面的工作,而硬盘则在空闲(不进行读取或写入的时候)时再将缓存中的数据写入到盘片上。虽然对于写入数据的性能有一定提升,但也不可避免地带来了安全隐患——如果数据还在缓存里的时候突然掉电,那么这些数据就会丢失。对于这个问题,硬盘厂商们自然也有解决办法:掉电时,磁头会借助惯性将缓存中的数据写入零磁道以外的暂存区域,等到下次启动时再将这些数据写入目的地;第三个作用就是临时存储最近访问过的数据。有时候,某些数据是会经常需要访问的,硬盘内部的缓存会将读取比较频繁的一些数据存储在缓存中,再次读取时就可以直接从缓存中直接传输。
缓存容量的大小不同品牌、不同型号的产品各不相同,早期的硬盘缓存基本都很小,只有几百KB,已无法满足用户的需求。2MB和8MB缓存是现今主流硬盘所采用,而在服务器或特殊应用领域中还有缓存容量更大的产品,甚至达到了16MB、64MB等。
大容量的缓存虽然可以在硬盘进行读写工作状态下,让更多的数据存储在缓存中,以提高硬盘的访问速度,但并不意味着缓存越大就越出众。缓存的应用存在一个算法的问题,即便缓存容量很大,而没有一个高效率的算法,那将导致应用中缓存数据的命中率偏低,无法有效发挥出大容量缓存的优势。算法是和缓存容量相辅相成,大容量的缓存需要更为有效率的算法,否则性能会大大折扣,从技术角度上说,高容量缓存的算法是直接影响到硬盘性能发挥的重要因素。更大容量缓存是未来硬盘发展的必然趋势。
五:转速
转速(RotationlSpeed),是硬盘内电机主轴的旋转速度,也就是硬盘盘片在一分钟内所能完成的最大转数。转速的快慢是标示硬盘档次的重要参数之一,它是决定硬盘内部传输率的关键因素之一,在很大程度上直接影响到硬盘的速度。硬盘的转速越快,硬盘寻找文件的速度也就越快,相对的硬盘的传输速度也就得到了提高。硬盘转速以每分钟多少转来表示,单位表示为RPM,RPM是RevolutionsPerminute的缩写,是转/每分钟。RPM值越大,内部传输率就越快,访问时间就越短,硬盘的整体性能也就越好。
硬盘的主轴马达带动盘片高速旋转,产生浮力使磁头飘浮在盘片上方。要将所要存取资料的扇区带到磁头下方,转速越快,则等待时间也就越短。因此转速在很大程度上决定了硬盘的速度。
家用的普通硬盘的转速一般有5400rpm、7200rpm几种,高转速硬盘也是现在台式机用户的首选;而对于笔记本用户则是4200rpm、5400rpm为主,虽然已经有公司发布了7200rpm的笔记本硬盘,但在市场中还较为少见;服务器用户对硬盘性能要求最高,服务器中使用的SCSI硬盘转速基本都采用10000rpm,甚至还有15000rpm的,性能要超出家用产品很多。
较高的转速可缩短硬盘的平均寻道时间和实际读写时间,但随着硬盘转速的不断提高也带来了温度升高、电机主轴磨损加大、工作噪音增大等负面影响。笔记本硬盘转速低于台式机硬盘,一定程度上是受到这个因素的影响。笔记本内部空间狭小,笔记本硬盘的尺寸(2.5寸)也被设计的比台式机硬盘(3.5寸)小,转速提高造成的温度上升,对笔记本本身的散热性能提出了更高的要求;噪音变大,又必须采取必要的降噪措施,这些都对笔记本硬盘制造技术提出了更多的要求。同时转速的提高,而其它的维持不变,则意味着电机的功耗将增大,单位时间内消耗的电就越多,电池的工作时间缩短,这样笔记本的便携性就收到影响。所以笔记本硬盘一般都采用相对较低转速的4200rpm硬盘。
转速是随着硬盘电机的提高而改变的,现在液态轴承马达(Fluiddynamicbearingmotors)已全面代替了传统的滚珠轴承马达。液态轴承马达通常是应用于精密机械工业上,它使用的是黏膜液油轴承,以油膜代替滚珠。这样可以避免金属面的直接磨擦,将噪声及温度被减至最低;同时油膜可有效吸收震动,使抗震能力得到提高;更可减少磨损,提高寿命。
六:通过硬盘编号看硬盘信息
下面列出几款常见硬盘的实例编号定义。
富士通硬盘编号格式:
MHT2040AH
MH:前缀名
T:系列编号
2:2.5英寸
040:容量(GB)
A:ATA,若为B则为SATA
H:5400转,若为T则为4200转
东芝硬盘编号格式:
MK1233GAS
MK:前缀名
12:容量,120GB
33G:不知
A:接口为ATA,S为SATA接口
S:转速和缓存,S表示4200转,X的话那就是5400转加16M缓存
三星硬盘编号格式:
MP0804H
MP:前缀,也和接口有关系(MP开头的为ATA,HM开头的为SATA)
080:容量(GB)
4:好象是单碟容量为40GB(请原谅我好象一下吧。。-_-)
H:接口类型.ATA为H,SATA为I
西数硬盘编号格式::
WD800VE
WD:WesternDigital西部数据
800:容量,少看个0就对了,80GB
V:缓存。V为8M,U为2M
E:不知道
日立硬盘编号格式:
HTE726060M9AT00
H:日立。
T:TravelStar
E:用途。E代表服务器,S代表PC,C代表1.8英寸
72:转速,72当然就是7200转了。
60:本系列产品最大容量,60表示60GB,100G以上的10表示100,12表示120。。。
60:本硬盘容量(GB)
M:
9:厚度,单位mm,略去小数点后尾数。
AT:接口形式。AT=ATA,SA=SATA,CE=ZIF
00:保留位
IBM硬盘编号格式
IC25N080ATMR04-0
IC:IBM
25:2.5英寸
N:硬盘厚度,N代表9.5mm,T代表12.5mm
080:本块硬盘容量(GB)
AT:接口,ATA
MR:系列编号,MR=80GN,CS=40GN/40GNX/60GH,DA=30GN
04:4200转,若05则为5400转
其中后缀:(GN:4200转,9.5mm)(GNX,5400转,9.5mm)
DK23FB-60
DK23:系列名称
F:F表示第6代,A-E依此类推
B:5400转,A的话代表4200转
60:本块硬盘容量(GB)
[四]
内存是必不可少的啦。参数也不是很多。不用怕。不会头疼的
一:DDR2与DDR
DDR2与DDR的区别
与DDR相比,DDR2最主要的改进是在内存模块速度相同的情况下,可以提供相当于DDR内存两倍的带宽。这主要是通过在每个设备上高效率使用两个DRAM核心来实现的。作为对比,在每个设备上DDR内存只能够使用一个DRAM核心。技术上讲,DDR2内存上仍然只有一个DRAM核心,但是它可以并行存取,在每次存取中处理4个数据而不是两个数据。
DDR2与DDR的区别示意图
与双倍速运行的数据缓冲相结合,DDR2内存实现了在每个时钟周期处理多达4bit的数据,比传统DDR内存可以处理的2bit数据高了一倍。DDR2内存另一个改进之处在于,它采用FBGA封装方式替代了传统的TSOP方式。
然而,尽管DDR2内存采用的DRAM核心速度和DDR的一样,但是我们仍然要使用新主板才能搭配DDR2内存,因为DDR2的物理规格和DDR是不兼容的。首先是接口不一样,DDR2的针脚数量为240针,而DDR内存为184针;其次,DDR2内存的VDIMM电压为1.8V,也和DDR内存的2.5V不同。
DDR2的定义:
DDR2(DoubleDataRate2)SDRAM是由JEDEC(电子设备工程联合委员会)进行开发的新生代内存技术标准,它与上一代DDR内存技术标准最大的不同就是,虽然同是采用了在时钟的上升/下降延同时进行数据传输的基本方式,但DDR2内存却拥有两倍于上一代DDR内存预读取能力(即:4bit数据读预取)。换句话说,DDR2内存每个时钟能够以4倍外部总线的速度读/写数据,并且能够以内部控制总线4倍的速度运行。
此外,由于DDR2标准规定所有DDR2内存均采用FBGA封装形式,而不同于目前广泛应用的TSOP/TSOP-II封装形式,FBGA封装可以提供了更为良好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了坚实的基矗回想起DDR的发展历程,从第一代应用到个人电脑的DDR200经过DDR266、DDR333到今天的双通道DDR400技术,第一代DDR的发展也走到了技术的极限,已经很难通过常规办法提高内存的工作速度;随着Intel最新处理器技术的发展,前端总线对内存带宽的要求是越来越高,拥有更高更稳定运行频率的DDR2内存将是大势所趋。
DDR2与DDR的区别:
在了解DDR2内存诸多新技术前,先让我们看一组DDR和DDR2技术对比的数据。
1、延迟问题:
从上表可以看出,在同等核心频率下,DDR2的实际工作频率是DDR的两倍。这得益于DDR2内存拥有两倍于标准DDR内存的4BIT预读取能力。换句话说,虽然DDR2和DDR一样,都采用了在时钟的上升延和下降延同时进行数据传输的基本方式,但DDR2拥有两倍于DDR的预读取系统命令数据的能力。也就是说,在同样100MHz的工作频率下,DDR的实际频率为200MHz,而DDR2则可以达到400MHz。
这样也就出现了另一个问题:在同等工作频率的DDR和DDR2内存中,后者的内存延时要慢于前者。举例来说,DDR200和DDR2-400具有相同的延迟,而后者具有高一倍的带宽。实际上,DDR2-400和DDR400具有相同的带宽,它们都是3.2GB/s,但是DDR400的核心工作频率是200MHz,而DDR2-400的核心工作频率是100MHz,也就是说DDR2-400的延迟要高于DDR400。
2、封装和发热量:
DDR2内存技术最大的突破点其实不在于用户们所认为的两倍于DDR的传输能力,而是在采用更低发热量、更低功耗的情况下,DDR2可以获得更快的频率提升,突破标准DDR的400MHZ限制。
DDR内存通常采用TSOP芯片封装形式,这种封装形式可以很好的工作在200MHz上,当频率更高时,它过长的管脚就会产生很高的阻抗和寄生电容,这会影响它的稳定性和频率提升的难度。这也就是DDR的核心频率很难突破275MHZ的原因。而DDR2内存均采用FBGA封装形式。不同于目前广泛应用的TSOP封装形式,FBGA封装提供了更好的电气性能与散热性,为DDR2内存的稳定工作与未来频率的发展提供了良好的保障。
DDR2内存采用1.8V电压,相对于DDR标准的2.5V,降低了不少,从而提供了明显的更小的功耗与更小的发热量,这一点的变化是意义重大的。
DDR2采用的新技术:
除了以上所说的区别外,DDR2还引入了三项新的技术,它们是OCD、ODT和PostCAS。
OCD(Off-ChipDriver):也就是所谓的离线驱动调整,DDRII通过OCD可以提高信号的完整性。DDRII通过调整上拉(pull-up)/下拉(pull-down)的电阻值使两者电压相等。使用OCD通过减少DQ-DQS的倾斜来提高信号的完整性;通过控制电压来提高信号品质。
ODT:ODT是内建核心的终结电阻器。我们知道使用DDRSDRAM的主板上面为了防止数据线终端反射信号需要大量的终结电阻。它大大增加了主板的制造成本。实际上,不同的内存模组对终结电路的要求是不一样的,终结电阻的大小决定了数据线的信号比和反射率,终结电阻小则数据线信号反射低但是信噪比也较低;终结电阻高,则数据线的信噪比高,但是信号反射也会增加。因此主板上的终结电阻并不能非常好的匹配内存模组,还会在一定程度上影响信号品质。DDR2可以根据自已的特点内建合适的终结电阻,这样可以保证最佳的信号波形。使用DDR2不但可以降低主板成本,还得到了最佳的信号品质,这是DDR不能比拟的。
PostCAS:它是为了提高DDRII内存的利用效率而设定的。在PostCAS操作中,CAS信号(读写/命令)能够被插到RAS信号后面的一个时钟周期,CAS命令可以在附加延迟(AdditiveLatency)后面保持有效。原来的tRCD(RAS到CAS和延迟)被AL(AdditiveLatency)所取代,AL可以在0,1,2,3,4中进行设置。由于CAS信号放在了RAS信号后面一个时钟周期,因此ACT和CAS信号永远也不会产生碰撞冲突。
总的来说,DDR2采用了诸多的新技术,改善。