023505200 2008-2-28 10:10
光阴似箭 绿巨人NVIDIA显卡发展简史回顾
——(本文来源:ChipHell论坛 )
1993年,Jen-Hsun Huang(黄仁勋)、Curtis Priem和Chris Malachowsky决定成立一个新的图形开发公司,在当时也许是一个很不起眼的事情,可是历史证明,从那时注定今天会出现一个举世闻名的显示芯片制造商——nVIDIA。他们当时的梦想也非常简单——研制世界最先进的图形加速芯片。
[img]http://cimg2.163.com/catchpic/6/64/64B9AB8578D06E16193D9242CAC792C9.jpg[/img]
一、初遇挫折
nVIDIA公司的第一个产品是NV-1,这是一个好的开始,但是距离成功还很遥远。Diamond选用了该芯片,制造了非常不受欢迎的Diamond Edge显示卡。nVIDIA自认为可以做些与众不同的事情,于是用四边形代替了传统的三角形加速方案,可是对于nVIDIA和Diamond,这个转变都非常不受欢迎。可以说NV-1是个失败,甚至连Jen-Hsun Huang也这样认为。
nVIDIA并没有因为NV-1的失败而停止,他们接受了一家第三方公司的委托,为该公司研制NV-2。在接受了NV-1教训的基础上,nVIDIA在NV-2的研制策划上花费了相当大的工夫。可是由于各种原因,这家公司放弃了对NV-2的支持,没有了资金援助,NV-2的研制计划进入了暂停阶段。当时的nVIDIA已经身无分文,虽然他们已经有一个半产品,但是却没有给他们带来丝毫效益。看起来nVIDIA也会象其它一些刚刚开始的显示芯片公司一样,注定要从此消失了。
[img]http://cimg2.163.com/catchpic/B/B9/B96EB5F8809A28FFC36688AB3BAF2529.jpg[/img]
3dfx推出的Voodoo
就在这时,nVIDIA启用了极具天才的David Kirk,开始重新研制NV-3。NV-3的目标是成为当时最先进的图形芯片,并准备在一个芯片中集成优秀的2D和3D性能。在1995年,3dfx发布了公司创立以来的第一个产品——Voodoo,并赢得了广泛的欢迎。而Rendition在稍微早些于3dfx的时候也发布了V1000芯片,而且已经被几大[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]厂家采用,销售量最后直逼Voodoo,成为第二家受欢迎的产品。在这个时候,nVIDIA必须找一个恰当的时机切入市场。
[[i] 本帖最后由 023505200 于 2008-2-28 10:22 编辑 [/i]]
023505200 2008-2-28 10:11
二、苦尽甘来:创时代的Riva128
Riva128
[img]http://cimg24.163.com/digi/2008/2/27/20080227135740782e0.jpg[/img]
1998年2月,nVIDIA推出了创时代的芯片Riva128,这款芯片将AGP[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]的概念真正的带入到[url=http://digi.163.com/special/p/001618GL/pcindex.html][color=#1f3a87]电脑[/color][/url]业界中,因为在这款显卡上市以前的AGP显卡可以说只能是试验产品,几乎没有任何3D加速功能,而这款Riva128的上市,让人们看到了AGP显卡的前景,而也就是这款显卡开始了nVIDIA和3dfx的业界王者之争。Riva128的2D性能非常接近当时2D性能的杰出代表Matrox,虽然它的3D性能也相当不错。由于Voodoo加速卡采用的PCI接口,而在那个时候,PCI的工艺要远远强于AGP,所以Riva128在整体的表现上逊色于Voodoo,但是它的出现给Voodoo显卡带来了很大的威胁,也同时表明了nVIDIA称雄显卡业界的决心。
1998年底,Riva128成为众多OEM厂商的喜爱之物。于是市上出现了一种集成了快速2D和3D核心、并能充分展示AGP强大能力的显示卡。一些大公司DELL、Gateway等纷纷采用由STB和Diamond制造的Riva128显卡。由于Diamond的OEM声望,Riva128的出货量比3dfx和Rendition加起来还多。这是nVIDIA公司一个巨大的成功,从而也积聚了足够的资金来发展他们下一代的产品,它们就是128ZX和TNT。
三、激烈的碰撞
1997年冬季结束时,nVIDIA宣称将发布Riva128ZX和“Voodoo2杀手”——TNT(128位双纹理结构)。Riva128ZX对Riva128做了根本性的改变,它最大支持8MB的显存,并支持AGP2X,而且在提高视觉效果的同时也加快了速度。TNT则是大家都热切期盼的产品。
虽然Riva128ZX可以支持8MB的显存和更大的理论显示带宽,但是它极差的软硬件兼容性使得这款芯片根本无从作为,很快的淡出了市场。
nVIDIA宣称TNT不仅仅是Voodoo2杀手,也是Voodoo2SLI的终结者。这是3D显示芯片第二大制造商的重要举措,它所包含的新技术要比Voodoo2多得多,而且比单个Voodoo2要快两倍。3dfx的下一代产品是Banshee,按照3dfx的说法,Banshee在单纹理应用中要比Voodoo2快,但是在多纹理应用中却要慢一些(例如QuakeII)。看起来,在同nVIDIA的这场竞争中,情况对3dfx相当不利。
[img]http://cimg2.163.com/catchpic/6/6B/6BD6EA840F38C9C533B0975DCA2FC20A.jpg[/img]
Riva128ZX
伴随着春天的来临,Matrox发布了G200,nVIDIA也发布了Riva128ZX,但是并没有提及TNT。G200由于制造商和驱动程序的问题,在1998年的夏天停止供货。而128ZX并没有受到广大消费者的青睐,相反却受到不少OEM厂商的欢迎。人们焦急地等待着TNT的到来,准备用有限的金钱去享受一下非凡的快感。终于在98年夏天结束之时,进行了一次TNT的alpha样品和Bansheealpha样品的较量,结果Banshee不敌TNT,但是分数却非常接近。一块只有12MB显存的Voodoo2在大多数应用中居然可以和TNT相比,太令人吃惊了。Voodoo2SLI杀手怎么了?
[img]http://cimg2.163.com/catchpic/E/EC/ECDE83EBCB48A8C70869D26D8B54174A.jpg[/img]
TNT显卡
TNT最初的设计给人印象很深,它准备采用0.35微米制造工艺,芯片的核心频率设计为125Mhz,显存也可以达到这个频率。可是在研制过程中,125Mhz被降为110Mhz,然后又降到90Mhz,即使就是这样,由于TNT的复杂结构,芯片还是会产生巨大的热量(TNT所用的晶体管和PentiumII一样多)。而Banshee的时钟频率为100Mhz,最终的性能也和TNT非常接近,TNT所缺乏的是和一部分软件的兼容性。这就是Banshee的优点,它可以和所有为Voodoo系列编写的应用软件兼容。TNT比Banshee多的是一大堆的特色和一个OpenGLICD支持。
第三代显卡王冠的争夺集中在TNT、Banshee、Voodoo2和G200这四种显卡中间,S3发布Savage3D时,由于它的驱动程序实在太糟糕,所以并没有被人们考虑进入王冠争夺后选者之列。当TNT的驱动程序越来越成熟时,它的性能也开始超越Voodoo2,但效果并不是很明显。由于在之前,nVIDIA对于TNT做了大量的宣传,可是由于TNT的表现太不尽人意,给它原来显得老实公司的印象蒙上了一层阴影。虽然TNT仍然赢得OEM厂商的青睐,而且它的出货量远远大于Banshee和G200,可是仍然赶不上Voodoo2。当时除了听说nVIDIA正致力于NV-6和超级芯片NV-10的开发之外,人们没有再听到关于nVIDIA的任何消息。
023505200 2008-2-28 10:11
四、霸主初登场——TNT2
[img]http://cimg22.163.com/digi/2008/2/27/200802271358299cc32.jpg[/img]
TNT2
当1999年2月,Voodoo3被捧得最高之时,nVIDIA对外发布了NV-6,也就是后来的TNT2。他们允诺该芯片可以作到TNT所能完成的任何工作,而且能作得更好,同时还支持一些新的特征:32MB显存和AGP4X等。nVIDIA直接将Voodoo3作为竞争对手。这对于nVIDIA的发展方向是一个巨大的进步。
当TNT2最终向公众发布时,展示在人们面前的是一块非常优秀的产品,在任何一种分辨率下都能赶上Voodoo3,并且还拥有更多的特色。既然TNT2是基于TNT的,因此它拥有非常成熟的驱动程序,最大的特色就是拥有极为出色的OpenGLICD支持。当Q3Test问世时,由于极好的特征和OpenGLICD支持,TNT2理所当然地成为首选。虽然3dfx适时推出了OpenGLICDbeta版驱动程序,但是它的功能和TNT系列相比太差劲了。
[img]http://cimg2.163.com/catchpic/C/C8/C8D65656C90AF5319FAD761BD9DBC766.jpg[/img]
TNT2成为3dfx的恶梦
大力神(Hercules现在已经退出)[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]在一段时间内成为性能最高的显卡,它的TNT2Ultra核心频率可以达到175Mhz,显存可以达到200Mhz。TNT2也支持32MB显存和视频输出,这对于OEM合伙人来说极具魅力。基于TNT2芯片的产品一直保持快速的步调增长,到这年的夏天,很快就已经有许多版本的TNT2显卡在市场销售了,包括TNT2ULTRA加强版、TNT2标准版、TNT2M64、TNT2VANTA。当华硕公司率先推出经过超频处理后的TNT2PRO显卡时,3dfx公司可以算是败局已定了。在1999年中,采用TNT2系列芯片的显卡几乎抢占了近80%的显卡市场。
TNT2赢得了广泛的市场,当时人们的目光又集中在了长久以来等待的NV-10身上。NV-10除了具有TNT2的所有特征之外,最重要的就是具有转换和光照处理几何引擎,它可以将[url=http://product2.digi.163.com/products/product_search.php?subcatid=28][color=#1f3a87]CPU[/color][/url]从繁重的几何运算中解脱出来,解决了3D图形中的两个瓶颈问题。nVIDIA希望借助NV-10结束3D图形和现实生活之间的差距。
五、极具历史意义的GeForce256
[img]http://cimg2.163.com/catchpic/2/2E/2E3F96CD7CC2E2A0034F9EDB9D829297.jpg[/img]
1999年8月,nVIDIA终于正式发表了NV-10,就是GeForce256。技术特征和以前预计的差不多,只有一件事不令人满意,就是它的时钟频率。由于它的时钟频率只有120Mhz,因此它的四象素纹理管道看起来要比TNT2的双象素纹理管道慢一些。实际上,最近采用0.22微米技术的TNT2芯片的频率可以达到200Mhz,它的填充速度基本上可以达到GeForce256的水平。
在6个月以前,争论的焦点还在16位真彩和32位真彩之间,现在则转移到填充速度和几何处理上。对于这场争论,有两个统一的意见:“在当时的游戏中,填充速度是非常重要的;我们最后还是需要硬件T&L技术。”nVIDIA在这场论战中处于什么角色呢?很显然,他们有T&L,没有填充速度。
从这款显卡的出色表现中,我们清楚地看到了NVIDIA强大的实力。随后各大[url=http://digi.163.com/special/p/001618GL/pcindex.html][color=#1f3a87]电脑[/color][/url]厂商又推出了基于这款芯片的DDR版本显卡,采用了性能更为出色的DDR显存,这样再度提高了显卡的成本,采用了DDR显存的显卡虽然在性能上又再度有所提高,但是近3000元的价格在当时让越来越多的人望而却步了。
023505200 2008-2-28 10:12
六、从无冕之王到绝对王者:Geforce2系列
[img]http://cimg2.163.com/catchpic/2/26/264559F66568DC4E54349799B121A62B.jpg[/img]
Geforce2GTs
不进步就将被淘汰。面临S3、3dfx等公司的竞争,尽快与对手拉开差距是扩大市场最有效的方法。当S3公司的SAVAGE2000刚刚露出水面,3dfx公司正式宣布VooDoo5的时候,nVIDIA即公布了其下一代产品NV15,也就是Geforce2GTs[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url],这款显卡的性能要比Geforce256还有近50%的提高,但是在价格上还是不能很好的进行控制,所以虽然人们清楚的知道这款显卡是最快最好的,但是市场上的销售主流仍然是TNT2系列显卡。在各厂家纷纷推出Geforce2GTs显卡和基于DDR显存的GTs版本显卡后,nVIDIA公司的地位得以更好的巩固,慢慢的成为了显卡业界的无冕之王。
在控制高端显卡市场的同时,nVIDIA继续研发低端市场显卡,推出了基于0.18微米工艺的TNT2VANTALT芯片,但是由于这款显卡只能够支持8MB的显存设计,所以这款显卡在市场上的销量并不算好,为了能够更好的控制中低端市场,nVIDIA公司再度让世界疯狂了!
[img]http://cimg20.163.com/digi/2008/2/27/200802271359083b6a2.jpg[/img]
Geforce2MX
2000年6月,nVIDIA公司正式推出了在Geforce2GTs研发基础上改良的Geforce2MX显示芯片,这款芯片采用了当时最新的工艺和技术,但是价格上却低的让人难以置信,也许在美国市场价格宣布后,人们还没有什么直观的认识,当这款显卡在国内上市时,人们真的开始疯狂了,千元左右的价格,和Geforce256DDR版本相当的性能,使得这款显卡成为当时性价比最高的一款显卡。
[img]http://cimg21.163.com/digi/2008/2/27/200802271359599dbf8.jpg[/img]
Geforce2GTsULTRA
在宣布了这款高性价比的MX芯片后,nVIDIA公司再度重拳出击,宣布了当时家用显卡之王――Geforce2GTsULTRA,这款显卡在整体的性能上又比Geforce2GTs提高了不少,虽然价格极高:500美元左右,但是在Geforce2MX和Geforce2GTsULTRA这两个"栋梁"的支撑下,nVIDIA王朝将变得更加稳固,无冕之王已经变成了绝对的王者。
023505200 2008-2-28 10:13
七、新一代霸主产生:nVIDIA收购3dfx
数次与nVIDIA交手惨败之后,VSA100可谓是3dfx的最后赌注,这也是一款充满着争议的产品。但是上市日期一拖再拖,被喻为历史上最难产的[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]产品之一。直到此时,3dfx还是没有觉醒过来,在DirectX几乎一统天下的局面下还是坚持不开放Glide源代码,更斥巨资收购了STB来闭门造卡,使得昔日的盟友纷纷改投nVIDIA的门下。而最终产能严重不足的VSA100无法挑起拯救3dfx的大梁,江郎才尽的3dfx作出最后一击,收购Gigapixel公司企图获得Microsoft将要推出的X-BOX的图形芯片订单。但是兵败如山倒,Microsoft最终却选择了竞争对手nVIDIA,这个噩耗使得3dfx的股票大跌,奄奄一息的3dfx最终被nVIDIA收购,一代王朝宣告灭亡。
[img]http://cimg2.163.com/catchpic/A/A9/A9336435CD2EDD2B269465F3466B79E3.jpg[/img]
3dfx最后的绝唱
3dfx的失败发人深思,纵看它的发展历程,可以看出3dfx输掉的不是技术和资金,而是一连串企图独霸市场的错误策略,过分高估自身实力,Glide本身是一个很好的API但却因为3dfx想独霸技术而随它一起灭亡了;且不说它收购STB闭门造卡而得罪众多的板卡制造商,就连致力发展DirectX的Microsoft和大力推广AGP规范的[url=http://product2.digi.163.com/products/product_search.php?subcatid=125][color=#1f3a87]Intel[/color][/url]也不放在眼内,逆势而行及固步自封的短见策略令到一意孤行的3dfx一步一步走上了绝路。
此时一位强有力的挑战者顽强地登上了竞技舞台,这就是与nVIDIA针锋相对的ATi。作为资格较老的图形显示芯片公司,ATi有着它的生存之道,多年的征战也使得ATi累积了丰富的作战经验。在3dfx时代,ATi的3DRage系列芯片虽然3D性能并不是十分特出,但是它却提供了很好的DVD回放加速功能,配合其低价策略使得它在OEM市场中也占有一席之位。而且凭着出色的视频及多媒体性能,使得ATi避免了与3dfx和nVIDIA在3D游戏性能方面的正面交峰,即使在零售市场,采用3DRage系列芯片的显卡也一直是用户的“第三方”选择。
八、王者的尊严——Geforce4Ti
在及时发现来自于ATi的威胁之后,nVIDIA不仅仅是提高GeForce2频率来仓促应付,而是动用具有里程碑意义的GeForce3。在大约半年不到的时间内,GeForce3主宰了高端市场,而GeForce2MX继续帮助nVIDIA抢占中低端市场份额。ATi顽强应战,在Radeon7500在核心技术方面无法对抗GeForce3的情况下,及时推出了Radeon8500,成为其救命稻草。作为DirectX8级别显卡,支持PixelShader与VertexShader是最主要的功能,而Radeon8500不仅继承这些特性,还融入TRUFORM、SMARTSHADER、SMOOTHVISION及HYPER-ZII等新技术。
[img]http://cimg2.163.com/catchpic/4/4C/4CB01775AD4E2E38CC143CF505E51D85.jpg[/img]
捍卫nVIDIA尊严的GeForce4Ti
面对ATi的挑战,GeForce3显然已经力不从心,即便是最高频率的GeForce3Ti500也只能勉强与Radeon8500打个平手。在这样一个关键时刻,nVIDIA又一次展现出其产品研发方面的强大实力,GeForce4Ti凭借出色的表现捍卫了王者的尊严。GeForce4Ti在T&L单元方面采用nfiniteFXII引擎,它加入了第二个VertexShader(顶点处理单元)流水线。在高工作频率下,使得GeForce4Ti的处理能力有可能高于GeForce3将近三倍。而在全屏反锯齿方面,GeForce4Ti采用新的AccuviewAA技术,改善了取样方式并且优化了渲染的过程,可以进一步保证在高分辨率下的显示速度。显存带宽也一直是制约显卡性能的瓶颈,GeForce4Ti为了摆脱瓶颈的限制,引入了LightSpeedMemoryArchitectureII(LMAII)光速显存构架II技术,它的原理就是优化渲染过程和压缩技术的采用。
GeForce4Ti的出现应该说令ATi哑口无言,因为Radeon8500已经量产,而且ATi的产能暂时不允许研发同级别新产品。更为重要的是,当年微软即将公布DirectX9标准,ATi已经无暇顾及DirectX8平台的竞争。不过平心而论,Radeon8500败给GeForce4Ti更多的是面子问题,让ATI信心大收打击的是面对GeForce4MX的束手无策,其后果相当严重,中低端利润大量流入竞争对手的口袋。ATi甚至找不到一款同级别的对抗产品。
023505200 2008-2-28 10:15
九、与对手的DirectX9之战
在nVIDIA的GF4Ti系列风光了很长一段时间后,ATI高调发布了支持DirectX9的R300核心的Radeon9700,无可争议地坐上了[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]性能王者的宝座,更重要的是重新点燃了ATI与nVIDIA决战的信心。
面对ATI的进攻,nVIDIA毫不犹豫地选择了还击,但一直以六个月为产品开发周期的nVIDIA却偏偏在这个节骨眼上跟不上自己制定的步伐。原计划在2002年秋季发布的NV30一拖再拖,直到11月份才发布芯片,但是却因为一些细节问题甚至直到2003年才推出成品。NV30核心的GeForceFX5800系列史无前例地配备8条渲染管线,这也自然表现出比FX5600/5700等更好的性能。然而对比同时代的ATiRadeon9700系列,nVIDIA并没有什么优势,关键原因就在于显存配置方面,渴望时刻保持领先的nVIDIA在GeForceFX5800Ultra中选择了尚未普及的DDR2显存。然而遗憾的是,这也成为NV30的一大败笔。GDDR2不仅因为成本问题难以普及,其自身的技术也并不成熟。
[img]http://cimg2.163.com/catchpic/C/CE/CE279EFD8CF0A8DD06F35631EB16CE77.jpg[/img]
误入GDDR2泥沼的FX5800
在GeForceFX5800Ultra中,8枚GDDR2显存芯片需要消耗28W功耗,而且造成了巨大的发热量。撇开为了散热而带来的成本问题不谈,即便是恼人的噪音问题都已经让nVIDIA尴尬不已,这也注定NV30不会取得类似于其前辈们的成功。当我们见到带有水冷散热以及外置[url=http://product2.digi.163.com/products/product_search.php?subcatid=35][color=#1f3a87]电源[/color][/url]的GeForceFX5800Ultra显卡时,或许更多的感觉不是赞叹,而是一种莫名的悲哀。如果说GDDR2显存为NV30带来出色的性能也就罢了,然而位宽仅仅128Bit的GDDR2显存很大程度上成为性能发挥的瓶颈。在使用频率为1GHz的GDDR2显存时,16GB/s的带宽却是令人难以完全满意,与ATiRadeon9700Pro相比落下不少。
尽管GeForceFX5800并不算成功,但是面向中低端市场的GeForceFX5200以及FX5600等一系列面向中低端的产品还是能让nVIDIA保持着较大的市场份额。
GeForceFX5800和Radeon9700的交锋让双方充满了火药味,双方不约而同地选择了重整旗鼓。FX5800显然是让人的失望的。面对Radeon9800Pro的Smoothvision2.1,FX5800显得较为单薄,似乎在吃GeForce4时代Accuview抗锯齿引擎的老本。
[img]http://cimg2.163.com/catchpic/9/9E/9E3E12D8E320E749F8084F929E810693.jpg[/img]
坐吃山空自然就会被动挨打,因此nVIDIA为最新的FX5900装配了[url=http://product2.digi.163.com/products/product_search.php?subcatid=125][color=#1f3a87]Intel[/color][/url]lisampleHTC技术,有效改善了全屏抗锯齿以及各向异性过滤的效果。与FX5800所使用的Intellisample技术相比,IntellisampleHTC技术增加了更多的高级纹理、色彩以及Z轴压缩算法以提升图象质量,1:4的无损压缩技术也在显存带宽提升的帮助下得到了更好的发挥。此外,IntellisampleHTC技术还很大程度上改善了显存带宽的利用率,这一点与ATi的HyperZ技术十分类似。事实上,如果NV35不对Intellisample技术进行改进的话,其改用256BitGDDR1之后的显存带宽提升将被无情地浪费。如果说IntellisampleHTC技术令人难以信服的话,那么UltraShadow光影技术绝对没有任何猫腻,可谓是FX5900真正让人眼睛一亮的闪光点。UltraShadow光影技术可以进行大量阴影处理的硬件加速功能,从而改善3D画面的效果。而且已经有多款游戏采用了这一技术,并获得了很不错的效果。
[img]http://cimg2.163.com/catchpic/4/4C/4C8BF99DE8ED15AC691CB015432EAB0B.jpg[/img]
FX5900帮助nVIDIA迅速走出困境
在现实生活中,光源前面只要有物体遮挡就会有阴影。而在3D游戏中,为了表达这一“简单”的现象就不得不用去程序员大量的尽力以及硬件资源,这也直接造成3D游戏画面不够真是,缺乏动感。精确上的阴影表现效果是创造真实场景的关键因素,多光源与数量众多的对象以及角色之间的互动需要多次循环编程,而且更为复杂的方面还在于每一帧中的每一个光源都必须根据每个对象进行计算。UltraShadow技术的魅力在于能够大大加快这一实现过程,程序员能够在场景内定义一个固定区域,计算此区域内光源对物体产生的效果,预先排除不需要进行计算的区域。由于UltraShadow技术提高了光影计算的速度,同时又将程序员从繁琐低效的工作中解放出来,因此这项技术很被看好,业界甚至将其地位与经典的T&L、VertexShader以及PixelShader相提并论。GeForceFX5900与Radeon9800应该说打成平手,即便是后期的GeForceFX5950Ultra与Radeon9800XT也仅仅是主频上的低层次较量。
相对而言,更为让人关注的还是Radeon9600与GeForce5700系列的对抗。同样作为面向中端市场的简化版产品,Radeon9600在频率相同时有着比GeForce5700系列更好的性能。此外,ATi还专门针对中国市场推出了Radeon9550,再加上显卡厂商的鼎立支持,超频之后甚至达到超越Radeon9600XT的性能。Radeon9550第一次让nVIDIA感受在中低端市场的切肤之痛,GeForce5700Ultra的成本没能很好地控制,因而很难对抗Radeon9550。
023505200 2008-2-28 10:16
十、帝国保卫战:Geforce6系列驰骋于PCIExpress平台
2004年4月一声春雷,NV40将DirectX9.0c以及ShaderModel3.0规范带到大家的眼前。NVIDIAPCI-E[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]也随即进入了GeForce6时代,和GeForceFX时代不同,2004年是PCI-Express标准大普及的一年。i915P/i925X价格的急速下降和nForce4系列芯片组的上市让PCI-Express有了广阔的市场利益空间和技术应用层面。
[img]http://cimg2.163.com/catchpic/3/37/37D9276FCFAA69FB55D1B71B5895E67D.jpg[/img]
从nVIDIA对待GeForceFX5700系列的态度不难看出它已经提前放弃了NV3X,GeForce6阵营才是其真正看重的产品。客观而言,GeForce6系列确是成功的产品,也让继3dfx后的新一代霸主nVIDIA保住了颜面与市场。而且拿出了3dfx时代的SLI技术让GeForce6系列的高端产品轻易地登上了平台性能的宝座,就算中低端产品也对解禁了对SLI的支持,无疑增加了更多的噱头。
虽然早期上市的旗舰级GeForce6800依然采用了AGP界面,但定位稍低,基于原生PCI-E芯片的GeForce6600随后就马上出现在零售市场,使得PCI-Express显卡的普及有了实质性的飞跃。相当一部分玩家对PCI-E显卡的了解,也是从这个时候开始的。
[img]http://cimg2.163.com/catchpic/4/4D/4DC144A4311583BF6FCDE7E2FB10C74F.jpg[/img]
Geforce6
而竞争对手ATi则将产品线拉得很长,Radeon9550演变而来的X300、X550以及X600进驻中低端PCIExpress平台,而X700作为高端X800系列的简化版来与nVIDIA进行中高端的角逐。
低端竞争:GeForce6200系列VsX300系列:
GeForce6200除了内核仅有4条像素渲染流水线外,其架构与GeForce6800系列相比所发生的变化还算不是很大。最明显的区别应该是其显存控制器不支持Color-compression(色彩压缩)和Z-compression(Z压缩)压缩技术。色彩压缩功能可以实时将色彩数据以6:1的比例做无失真压缩,在很多情况下,所有多边形边缘的色彩数据都能够彻底进行压缩,缺少这一功能对于整体性能的影响还是有一点。与此同时,Z压缩技术对于减轻显存负担也有很大的帮助,缺少这一功能导致GeForce6200在启用全屏抗锯齿或是各向异性过滤时的性能带来负面影响。
然而值得肯定的是,GeForce6200系列支持CineFX3.0引擎,而且ShaderModel3.0、64位纹理混合过滤、32bit象素着色渲染精度也一应俱全,甚至第二代UltraShadow阴影渲染优化技术也融入其中,并且完整支持DirectX9.0c。与上一代的GeForceFX5200相比,GeForce6200系列的缩水程度显然不是很明显,因此其性价比还是值得肯定。相比之下,RV350尽管也是四条渲染管线,但是核心技术已经落后GeForce6200整整一代。
[img]http://cimg2.163.com/catchpic/1/15/150426B7832BC3435067A093E3BB075E.jpg[/img]
具备TurboCache技术的GF6200TC
在频率以及显存位宽相同的情况下,GeForce6200的整体表现还是强于Radeon9550。在PCIExpress平台,所谓的“X300-X550-X600”阵营其实仅仅是主频变化,而nVIDIA的GeForce6200系列则衍生出只能支持64bit显存位宽的GeForce6200A以及具备TurboCache显存优化技术的GeForce6200TC。从这一层面来看,nVIDIA显然更为灵活。也许目前nVIDIA的GeForce6200还没能展现出性价比优势,但随着价格逐步调整,今后的市场表现力将会得到加强。
中端竞争:GeForce6600系列让nVIDIA称霸中端
如果说2004年的9550让ATI称霸低端市场的话,那么GF6600则是2005年nVIDIA的中端之王。GeForce6600系列分为三大版本:GeForce6600LE、GeForce6600标准版以及GeForce6600GT,其中最特殊的当属GeForce6600LE。NV43-V核心的GeForce6600LE只有4条渲染管线,因此严格意义上来说属于GeForce6200级别的产品,应该说面向中低端的定位会更加合理。但是GeForce6600LE最大的特色是nVIDIA不再对核心显存规格进行限制,花样尽出的厂商可以把GF6600LE武装成多种角色,这也使得GF6600LE具有相当复杂的产品线,同时也会因此而拥有较强的生命力。
[img]http://cimg2.163.com/catchpic/B/BD/BD3FBB62C14397ABA25CD359859F0D49.jpg[/img]
可以SLI工作的GeForce6600LE
[img]http://cimg2.163.com/catchpic/0/03/037CC2E7528EBD7E9D91EE2625679934.jpg[/img]
NV43:第一款真正意义上的原生PCI-E显卡
NV43核心GeForce6600有两种规格:GeForce6600GT和GeForce6600标准版。其中GT版性能更强,其核心显/存频率达到500/1000MHz,采用GDDR3显存。而GeForce6600标版频率为300MHz/500。在目前发布的产品,两者还有一点不同,那就是GeForce6600GT可以硬件支持nVIDIASLI技术。
[img]http://cimg2.163.com/catchpic/D/D3/D3FA1B854DEFD4F5D2C985B9F9AA43D7.jpg[/img]
GeForce6600系列的NV43核心
但是nVIDIA在面对ATi发布的CrossFire技术时也开始有所改变,其正式宣布GeForce6600标准版可以驱动支持SLI技术,也有可能授权VIA的DualGFX芯片组(PT894Pro与K8T890Pro)。而厂商们也开始采用不同显存规格产品的6600,使得6600的战斗力也越来越强。
[img]http://cimg2.163.com/catchpic/0/07/079A87C4193220E45EDE09C44497E7E4.jpg[/img]
nVIDIA的SLI技术令ATi疲于应付
023505200 2008-2-28 10:18
十一、再接再厉:Geforce7系列
[img]http://cimg2.163.com/catchpic/A/A1/A167715C5B246DCEC1C6F13A59C435A9.jpg[/img]
[img]http://cimg2.163.com/catchpic/B/B3/B3CC3AE69BDE66A40107041C9EB7CC01.jpg[/img]
2005年是名副其实的DirectX9.0c之年,就连一直在对DirectX9.0c的支持上慢半拍的ATI也在这一年的年末将自己的全线产品带入了SM3.0的时代。凭借着对业界的敏锐嗅觉和对新技术的执着,NVIDIA在2005年的夏天强势推出了GeForce7,将在GeForce6时代积累的优势进一步扩大,并和RadeonX1000系列展开更加激烈的竞争。
从产品的技术上看,GeForce7的推出,并没有带来像之前GeForceFX时代跨入到GeForce6那样的震撼。但技术前进的脚步并不会停止,GeForce7的推出很好的向人们展示了NVIDIA对技术的深厚理解和消费者心理的良好把握,GeForce7也造就了NVIDIA[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]史上最丰富的产品线(包括AGP产品)。
[img]http://cimg2.163.com/catchpic/1/1C/1C1C8703D07AD7B9D5FA785E1471D8F7.jpg[/img]
GeForce7800GTX
首款上市的GeForce7800GTX依然采用了成熟的110nm工艺,在NV40的基础上增加了透明抗锯齿能诸多新技术,占据了显卡性能之王半年之久。
2006年2月后,价格更低的GeForce7300/7100相继出现在市场上,低端的7300GT更是将nVIDIA强大的市场操作手段体现的淋漓尽致。
2006年3月,随着GeForce7900/7600系列GPU的发布,nVIDIA7系列显示核心形成了较为完整的高中低端产品线,并全部实现了90nm化。
新的制程工艺,使GeForce7900/7600系列显卡制造成本相对降低,频率提升同时功耗水平显著降低。另外,GeForce7900GTX/7900GT/7600GTGPU都能够支持双头2560x1600高分辨率显示,而PureVideo也借84.12版H.264Forceware程序得到性能提升,这意味着nVIDIA在对大屏幕和高清视频的软硬件支持方面更进了一步。
同时,nVIDIA还展示了定位于超高端的QuadSLI技术。这种极具震撼力的技术采用4块GPU协同运作,最高能够实现32xAA,提供了比双GPUSLI更高的图像质量和速度表现,为适应未来的高端超负荷运算奠定了基础。
2006年5月,nVIDIA发布号称是当时“世界上最快的单一模式显卡”——7950GX2。该款nVIDIA7950GX2显卡包含两个7900GTXGPU,核心频率为500MHz,1GBGDDR3SDRAM(每个核心512MB),[url=http://product2.digi.163.com/products/product_search.php?subcatid=3][color=#1f3a87]内存[/color][/url]频率为600MHz(1.2GHz有效)。
[img]http://cimg2.163.com/catchpic/E/E5/E5BC19F1EB62120399CADFA6AFB3FFC5.jpg[/img]
7950GX2
该款nVIDIA7950GX2显卡具有两个插槽,可以提供两个dual-linkDVI输出,还配备一个HD兼容TV输出端口,并且支持HDCP反盗版系统。运行在1600x12004x/8x相对于GeForce7900GTX有了15-80%的性能提升。
[img]http://cimg21.163.com/digi/2008/2/27/20080227140135b0b33.jpg[/img]
023505200 2008-2-28 10:20
十二、帝国时代无可争议的王者:GeForce8800系列
如果说,在GeForce7时代,NVIDIA还有值得畏惧的竞争对手,那么到了GeForce8时代,NVIDIA进入了一个无对手的“帝国时代”。随着2006年秋季ATI被[url=http://product2.digi.163.com/products/product_search.php?subcatid=55][color=#1f3a87]AMD[/color][/url]的收购,行业巨头之间的关系出现了微妙的变化。图形芯片领域,由之前的双雄争霸变成了一家独大,而这一形势又随着代号G80的GeForce8800[url=http://product2.digi.163.com/products/product_search.php?subcatid=6][color=#1f3a87]显卡[/color][/url]的上市而逐渐明朗和被人们所认同,以至于有人说是“怪兽来了”。
“半年更新、一年换代”——这就是能与“摩尔定律”相提并论的“黄氏定律”!回顾近年来NVIDIA高端产品的发展历程,几乎半年一次的新产品更替速度不仅让竞争对手疲于应付,每一次性能/功能的提升则更加巩固了NVIDIA在全球图形领域NO.1的王者地位,先发制人的策略更是有效提升了高端产品的销量!
[img]http://cimg2.163.com/catchpic/D/DB/DBC33F170A7BA55046542D6CBD003F69.jpg[/img]
GeForce8800GTS
[img]http://cimg2.163.com/catchpic/0/0D/0DC09E7C68680C68F2EE84D18DA6E5A0.jpg[/img]
GeForce8800GTX
2006年11月8日,NVIDIA推出了第8代,也是其第4代PCI-E显卡:GeForce8800GTX/GTS。DX10第一卡的美誉已经花落NVIDIA。
[img]http://cimg2.163.com/catchpic/E/E7/E70FD1A4B0D78091E2ACBDAADD11D153.jpg[/img]
2007年4月18日,nVIDIA发布了新款DirectX10级别图形核心GeForce8600GTS,8600GT和8500GT。该系列主流产品提供对ShaderModel4.0、GigaThread技术以及nVIDIAQuantumEffects物理处理技术的支持。nVIDIALumenex引擎的引入则实现了128位浮点高动态范围光照和16x抗锯齿效果。
新的主流旗舰产品GeForce8600GTS将接替GeForce7900GS的位置。在产品定位上,它紧跟GeForce8800GTS320MB。基于GeForce8600GTS的显卡产品内建32个流[url=http://product2.digi.163.com/products/product_search.php?subcatid=28][color=#1f3a87]处理器[/color][/url],运行频率为1.45GHz。nVIDIA推荐的显卡核心及显存频率分别为675MHz和1.0GHz。
GeForce8600GT产品同样拥有32个流处理器,但运行频率降为1.18GHz。推荐的核心及显存频率分别为540MHz和700MHz。
GeForce8500GT是主流产品线的最底端型号。8500GT内建16个流处理器,频率为900MHz。核心及显存的推荐频率为450MHz和400MHz。
以上三个型号均采用了nVIDIA的PureVideoHD视频处理技术。PureVideoHD技术提供对H.264,VC-1,MPEG-2高分辨率及标准分辨率视频格式的硬件加速。
2007年5月2日,nVIDIA抢在ATI发布R600之前正式发布其新款旗舰级显卡8800Ultra,至此GeForce8系列的高中低端全线产品均已部署完毕。
[img]http://cimg2.163.com/catchpic/0/08/08430D9E5E53FD12D95A4A4478DD29B7.jpg[/img]
GeForce8800Ultra
实际上8800Ultra与8800GTX并没有本质区别,NVIDIA通过大幅提升频率的方式再次提高了顶级显卡的性能表现。但是大家千万不要认为这只是简单的官方超频而已,8800Ultra和GTX相比硬件配置方面有了很大的改进。
G80带来前所未有的设计,统一Shader架构(UnifiedShader)带来强劲的性能。G80完全硬件支持DirectX10的各项先进特性,例如GeometryShaders、streamout、Improvedinstancing和ShaderModle4.0,支持这些特性使得Geforce8800GPU拥有极高性能。所有的DirectX9、OpenGL和先前的DirectX程序和游戏在Geforce8800GPU的Unified设计都有高性能的演出。具备128个UnifiedShader的8800GTX具备万亿浮点处理能力(Teraflopsoffloatingpoint)。GigaThread技术应用在G80,支持数千个线程并行运行。高品质的各向异性过滤、高效的Early-Z技术和动态分支、高达86.4GB/S的恐怖显存带宽。
G80拥有足够强大马力应付在XHD分辨率和高画面质量设定下畅快进行游戏,16xAA所带来的效果也仅仅是带来相当于4xAA所带来的系统花销。SLI技术会带来接近翻倍性能的提升的表现。128bit精度的HDR和16x抗锯齿的结合带来顶级画质。内建的PureVideoHD功能的G80可以在低[url=http://product2.digi.163.com/products/product_search.php?subcatid=28][color=#1f3a87]CPU[/color][/url]占用率上面确保流畅完美的HD和SDPlayback回放。有效的功耗占用和管理给Geforce8800带来更好的Performanceperwatt(每瓦特性能)和Performancepersquaremillimeter(每平方毫米效能)表现。
虽然ATI(确切地说是AMD)在2007年5月带来了R600,但是其高端的HDX2900XT的总体表现多多少少令AMD-ATI的支持者们感到失望。人们期待着AMD-ATI下一款产品能有所发挥,以挽回当前的劣势。但是螳螂捕蝉,黄雀在后,或许采用更先进技术的G92已经悄然待发了。时间会证明一切目前NVIDIA还是牢牢占据绝对优势,不是吗?
页:
[1]