Permalänk
Melding Plague

R300 mot NV30

<img src="http://www.sweclockers.com/img/ico_note.gif" alt="Nyhet"><b class="red">R300 mot NV30</b> <small class="small">Fredag den 31 Oktober 2003<a href="mailto:herman@sweclockers.com"> Herman</a><br /></small>
Josh Walrath hos <a href="http://www.penstarsys.com/editor/tech/graphics/nv_ati_dx9/ind..." target="_blank" >Pentarsys</a> har skrivit en mycket intressant artikel som handlar om dagens grafikmarknad. Den går igenom det senaste årets grafikhändelser och har en röd tråd genom helt texten som behandlar ATi:s Radeon 9700 Pro och Nvidias NV3x-serie. Den går även igenom varför Nvidias nuvarande grafikkort får så dålig prestanda i DirectX 9-baserade spel. Artikeln diskuterar mycket kring hur avancerad Nvidia:s NV3x-arkitektur egentligen är, något som de knappast har fått mycket kredit för. De tar även upp varför Nvidia troligen kommer få försprånget i prestanda i kommande spel längre in i framtiden. Den mest läsvärda artikeln på mycket länge!<br><br><I>Comparing the NV3x architecture with the R3x0 is almost like comparing an Acura NSX to a nitrous charged Hemicuda. The Acura is a well-balanced sportscar that has more than adequate performance in a variety of situations. The Hemicuda is a quarter mile beast, but it has problems cornering on complex road races. Unfortunately for NVIDIA, all current PS/VS 2.0 applications are quarter mile races. The NV3x parts get their tailpipes handed to them by the R3x0 series.</I><br><br>Läs artikeln hos <a href="http://www.penstarsys.com/editor/tech/graphics/nv_ati_dx9/ind..." target="_blank" >Pentarsys</a>.<p>
<table border="0" cellpadding="0" cellspacing="0" width="100%">
<tr><td width="50%"><small class="small"> </small></td>
<td width="50%"><p align="right"><a href="http://forum.sweclockers.com/showthread.php?threadid=202380">Kommentera</a> | <a href="http://www.sweclockers.com/html/felanmal.php">Felanmäl</a></p></td></tr></table><p>

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

urgh, det är så man mår illa. man skulle kunna tro att han är nvidias advokat som har bestämt sig för att försvara dom mot alla anklagelser om fusk och misstag dom gjort det senaste året. Att kalla fusk-optimeringar för "damage control" och säga att "aja, det kanske inte *helt* ok, men det är ju viktigare med hög framerate än snygg grafik" som svar på nvidias fusk i benchmarks är patetiskt.

Han säger att ati egentligen inte är ett dugg bättre än nvidia, dom lyckades bara övertyga microsoft att dx9 skulle designas utefter *deras* grafikkort. för microsoft är ju inte världens största it-företag och kan själva bestämma precis hur dom vill ha saker och alla rättar sig efter det... det är nog ganska mycket troligare att ms frågade ati och alla andra som samarbetade med dom (inte nvidia) om det dom hade kommit fram till verkade ok och sen skapade ati sitt grafikkort så att det på bästa sätt skulle dra nytta av de fördelar som finns i tex ps/vs 2.0. vidare babblar han en massa om att nvidias lösningar är "snyggare" än atis som "bara" är snabba och snygga. nvidia kan ju göra en massa häftiga saker som ingen har någon nytta av än på nåt år - bra va? Det är möjligt att dom har ett knappt försprång när det gäller 0.13 tillverkning och delar av arkitekturen, men ati har också konstruerat .13 chip och det är väl knappast troligt att alla deras ingengörer har arbetat i drygt ett halvår med att klocka upp 9800pro 30MHz?

i alla dessa minst sagt konstiga argument om varför nvdida egentligen är bättre än ati ligger dock en del ganska intressant information inbakad. inga banbrytande avslöjanden men om man inte läst om det förut kan det vara kul att göra det.

nej jag är inte en ati fanboy och jag hatar inte nvidia, men att försöka bortförklara de misstag som nvidia har gjort det senaste året på det här sättet är riktigt illa. dom har gjort många klumpiga saker men vi får alla hoppas att när dom nu har ett par ok (om än lite dyra) grafikkort på marknaden (5900/5950) så betyder det att dom har hoppat upp på spåret igen och tuffar på som förut.

Visa signatur

Have you witnessed the power of the Twisted Rune?
Linux är bara gratis om din tid är värdelös.

Permalänk
Medlem

hoho, lite sant som du säger, han var VÄLDIGT försvarande, men det ligger viss sanning i det hela dock, men han får det att låta som om allt är byggt efter r3xx arkitekturen, snarare så att ATI följer dx9 speccsen ?

Och, Jag tror också att ATI jobbat på något mer än hur man får upp en gpu 30 mhz under det senaste halvåret ;P

Hoppas båda gör likvärdiga kort, och även att XGI lyckas sno lite marknad, så slipper man bli ruinerad när man ska inhandla nästa kort

Permalänk
Medlem

Faktum kvarstår att Nvidia valde HELT fel väg att gå med sin 16/32bit FP-arkitektur medan ATI gick direkt efter DX9 specen 24FP. Att Nvidias arkitektur skulle vara mer framtidssäkert må vara men det spelar ingen roll i praktiken, nuvarande Nvidiakort är ändå på tok för långsamma för ev. framtida spel som kommer att utnyttja 32FP. Möjligen får nvidia det lite lättare när de ska bygga framtida arkitekturer baserade på nuvarande design medan ATI kommer att börja från scratch som vanligt för att anpassa hårdvaran optimalt till kommande DX-spec.

Permalänk

Så ni envisas fortfarande att posta skitlänkar men en massa propaganda... :/

http://www.beyond3d.com/forum/viewtopic.php?t=8757

Permalänk
Medlem

Nv35 har typ 1/3-1/2 av R350s prestanda i DX9 shaders. Punkt slut.

Permalänk
Medlem

Josh Walrath ber om ursäkt för sin felaktiga artikel. http://www.beyond3d.com/forum/viewtopic.php?t=8757

Citat:

Ok, I am ready to be brutalized!

This is Josh from PenStar, and please do not believe me to be an apologist for NVIDIA. I have been trying to get info for this article for quite some time, but I guess that I have been looking in the wrong places! Obviously I should have come here, because Dave tells me there are quite a few ATI engineers that could have really helped me understand exactly what is going on with ATI's technology. I am honestly just looking for good information, and then trying to pass that information onto the readers in a way that is easy to understand. Not all of us are engineers and programmers, so some of the things we read and try to understand don't always stick well.

That being said...

I have emailed back and forth with Dave discussing some of the problems with the article (which I knew there were some, but because I wasn't getting answers, I had no real choice but to post it as is). Note the editors note at the beginning that asks for clarification from readers if they have any.

My conclusions, while I do stand beside most of them, I think I made them with some wrong information. I hope I made it clear that I do not think that NVIDIA WILL get back the performance crown, but rather because now that DX9 VS/PS 3.0 specifications are well known, both companies are playing on a much more level field. My original thought was that NVIDIA would be better prepared due to the higher level of funcitonality of current chips, but in speaking with Dave, it becomes a bit more apparent the the leveling comes from a solid understanding of what PS/VS 3.0 specifications are when their chip designs are still in the early stages. I will continue to study everything I can about the two architectures, and I am very open to people writing me and letting me know what I did wrong/right/or was just confused about.

As for Microsoft and NVIDIA. My point was not to say that MS screwed over NVIDIA, but rather that NVIDIA apprently took themselves out of the loop and much of the groundwork that was laid for DX9 did not have a lot of input from NVIDIA. I think that is all NVIDIA's fault! It wasn't like MS excluded them from helping to flesh out the DX9 spec. NVIDIA didn't show up for their own reasons, and perhaps they were trying to pressure MS to accept NVIDIA's own vision of what DX9 should be.

So please, help me to understand where I am mistaken or confused. I have no problems updating the article, or even re-writing the entire thing if my information and conclusions are so mind-numbingly bad.

Visa signatur

MacBook Pro 14 l M1 MAX l 64GB l 2TB
LG Oled48C1 & Acer FO48U

Permalänk
Medlem

En fråga från en novis. Vad står FX12, FP16,FP24 och FP32 för?

Visa signatur

Jag är cancerforskare, är du?
| Samsung T220 | ASUS P4P800 Deluxe | Intel® Pentium® M 1.6@2.4Ghz | 1GB BH-5 + 1GB BH-6 | 7800GS 256MB | X-Fi Xtreme Gamer Fatal1ty | Intel SSD 80GB + WD740ADFD 74GB + 7200.10 320GB + 7200.7 120GB |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Snail
En fråga från en novis. Vad står FX12, FP16,FP24 och FP32 för?

FX12 = shaderberäkningarna sker med med 12 bitars heltal
FP16/24/32 = Samma men med 16/24/32 bitars heltal. Det krävs minst 24 bit för DX9.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Kiyoko
nej jag är inte en ati fanboy och jag hatar inte nvidia, men att försöka bortförklara de misstag som nvidia har gjort det senaste året på det här sättet är riktigt illa. dom har gjort många klumpiga saker men vi får alla hoppas att när dom nu har ett par ok (om än lite dyra) grafikkort på marknaden (5900/5950) så betyder det att dom har hoppat upp på spåret igen och tuffar på som förut.

Tycker inte han försöker bortförklara Nvidia, snarare förklara varför det har gått så dåligt senaste året på entuaisastmarknaden.

Citat:

Så ni envisas fortfarande att posta skitlänkar men en massa propaganda... :/

Har du ens läst artikeln?

Man kanske kan klaga på själva faktan i artikeln, men overall tycker jag den var en ruskigt intressant artikel som förklarar varför grafikkortsmarknaden ser ut som den gör idag.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Medlem

Orkar inte ens läsa halva artikeln...
Bara en massa bortförklaringar av en som man skulle kunna tro vara Nvidias försvars-advokat....
ILLA säger jag.

Visa signatur

| Opteron 146 | DFI NF4 Ultra-D | OCZ EL Platinum Rev.2 2x512MB |
| C3D X800GTO 16p
| 640GB HDD | Chieftec CA-01B-B-SL | Antec TruePower 380W |
| H2O-kyld: | Maze4 CPU | Maze4 GPU | Hydor L20 |

Permalänk
Medlem

Nvidia förtjänar en försvarsadvokat, så dåligt har de inte skött sig enligt mig.

Det är så det funkar, precis som ATi aldrig "fuskat"...

Men vissa entusiaster gillar att se saker i svart eller vitt

ATi är bäst just nu, varför?
Var har Nvidia gjort för fel för att hamna på efterkälken?

Artikeln verkar ganska bra, inte kommit så långt än

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Yxan
FX12 = shaderberäkningarna sker med med 12 bitars heltal
FP16/24/32 = Samma men med 16/24/32 bitars heltal. Det krävs minst 24 bit för DX9.

En liten rättelse. FP16/24/32 = 16/24/32 bitars flyttal, inte heltal.

Permalänk
Medlem

Haha, nu har jag visserligen inte läst artikeln, men jag visste att tråden skulle se ut såhär! Så fort någon försöker säga något gott om ett företag som inte råkar "leda" på marknaden i dagsläget, så kommer det en flock som ska bitcha om det...:)

Ps: Gillar ATI mer än nVidia, men ni är bara larviga.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av akius
Haha, nu har jag visserligen inte läst artikeln, men jag visste att tråden skulle se ut såhär! Så fort någon försöker säga något gott om ett företag som inte råkar "leda" på marknaden i dagsläget, så kommer det en flock som ska bitcha om det...:)

Ps: Gillar ATI mer än nVidia, men ni är bara larviga.

Om du läser tråden från beyond3ds forum som finns länkat till i denna tråd så kanske du förstår varför folk klagar...artikeln innehåller ju mer än ett par saker som inte är korrekta så att säga. Det är inget fel att säga något bra/dåligt om något företag men då skall man först kolla upp att det man säger verkligen stämmer också. Att skriva en artikel med en hel del felaktig information är ju inte så lyckat tycker jag.

Permalänk
Avstängd

Allmänt så arbetar grafikkort med binära tal och därför är det naturligt att man har dataflöden med en storlek på 8, 16, 32 bitar osv.
När ATI tog en rövare och valde 24 bitar som standard så gick man mot praxis i branschen. Att man dessutom lyckades övertyga Microsoft om 24 bitars stödets förträfflighet, är bara att gratulera. Konsekvensen blev att ATI optimerade sin GPU för 24 bitar och Nvidia hamnade i ett dilemma med sitt stöd för FP16, 32. Om Nvidia körde i 32 bitar, så var det ett "för" bra läge som ingen stödde, och som dessutom var långsammare än ATIs lösning. Om Nvidia körde i 16 bitar så fick man bra prestanda, men man fick en kvalitetsförlust och man "fuskade" och följde inte DX9 standarden.

Min gissning är att DX9,1 kommer att kräva 32 bitsstöd fullt ut. Då återstår det att se vem som klarar detta bäst.

http://www.geek.com/news/geeknews/2003Jun/bch20030606020308.h...
“Representatives from nVidia were on hand for AMD's "Tech Tour 2003," and I had the opportunity to discuss nVidia's plans with them. The nVidia rep on hand claimed that nVidia was still on a 6 month development cycle, and that the delays encountered with the NV30 were only an anomaly. He conceded that the GeForce FX 5800 was a failure, and that nVidia had "temporarily" ceded the performance crown to ATI. The rep further claimed that the NV40 core would be out by the end of this year, and that it would be an entirely new core. He was confident that the new part would be up to twice as fast as the NV35.”

http://tech.163.com/tm/030919/030919_110398.html (översatt från kinesiska)
“Stated according to the unofficial news that, Tristar already provided 10,000 GDDR2 to NVIDIA high speed to reveal saves the chip, these chips will be NV40 reveal by the code number the card to use. Perhaps this was suggesting was located California the factory already to complete the NV40 type card, and has prepared for the large-scale production.

We once reported Tristar already started its 1600MHz GDDR2 pellet supplying goods, today the GPU:RW website brought more news to us, Tristar's has already provided for NVIDIA the certain quantity GDDR2 pellet uses for to complete NV40 the final test, we estimated NV40 the type card already completed, and NVIDIA perhaps could promote ahead of time should reveal the card.

256bit 1600MHz GDDR2 reveals saves its volume of goods handled to be allowed to achieve 51.2GB/s, if applies it to NV40 reveals card general to be allowed to bring compared to present GeForce FX5900 and Radeon 9800Pro reveals the card to outdo very many performance, but estimated NV40 will reveal the card to promote in the next year first half year.

How doesn't have the tube, we now at least already were allowed to understand NV40 will match reveals saves the type, but regarding its competitor ATI the code number R420 graph chip, the news which we obtained very is also limited.”

Visa signatur

MrTT
Intel tjänar hutlöst mycket pengar, dela bolaget i två delar, så att det blir bättre konkurrens på CPU marknaden."

Permalänk
Medlem

He he, håller med om artikeln var lite väl pro nvidia.
Tycker vidare att Swedclockers borde vara lite mer restriktiva när det gäller att publicera sådant materiell. Det råder som sagt ganska så delade meningar om huruvida NV30/35 kommer att prestera bättre i framtida spel.

Nvidia drog en nitlott när de fick hybris, ignorerade M$ och försökte att sätta en egen grafikkortsstandard. Istället för att bita ihop och komma igen tokoptimerade man sina drivrutiner, detta i tro att man skulle kunna behålla sina marknadsandelar. Nvidia fattade dock inte att det är viktigare för ett företag att ha ett gott rykte än att visa upp en bra kvartalsrapporter, iaf för ett företag som har för avsikt att existera på lång sikt. Som det ser ut idag är nvidia den riktigt stora förloraren. Ett företag med dåligt rykte inom branschen och bland oss konsumenter.

Permalänk
Medlem

Jag ser bara inte hur det ska gå ihop:
"När spelen är simpla har nVidia övertaget. När de är "lagom" ligger korten lika. Nu när spelen blir mer komplexa har ATi övertaget: men lita på oss när de blir JÄTTEKOMPLEXA då kommer nVidia få övertaget."

Känns inte så himla logiskt det där.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

Ni ATI fanboys är otroliga, so fort någon ens antyder att ATI kanske inte är så bra som ni påstår, så skriker ni som barnungar, väx upp för fan och tänk på att om ett år så platsar dagens kort knappt på museum.

Permalänk
Medlem

Tycker förvisso att det handlar mer om att vara källkritisk, iaf för egen del!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blomman
Ni ATI fanboys är otroliga, so fort någon ens antyder att ATI kanske inte är så bra som ni påstår, så skriker ni som barnungar, väx upp för fan och tänk på att om ett år så platsar dagens kort knappt på museum.

Läs: http://www.beyond3d.com/forum/viewtopic.php?t=8757

Många av de som skriver är otroligt pålästa och på intet sätt kopplade till varken ATI eller NVidia.

Visa signatur
Permalänk
Citat:

Ursprungligen inskrivet av Blomman
Ni ATI fanboys är otroliga, so fort någon ens antyder att ATI kanske inte är så bra som ni påstår, så skriker ni som barnungar, väx upp för fan och tänk på att om ett år så platsar dagens kort knappt på museum.

hmm ja museum..

Mitt radeon 9700pro är snart ett år (om nån månad), är det någon här som tycker att ett 9700pro passar på ett museum?

Visa signatur

min skärm är större än din

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av milohenke
He he, håller med om artikeln var lite väl pro nvidia.
Tycker vidare att Swedclockers borde vara lite mer restriktiva när det gäller att publicera sådant materiell. Det råder som sagt ganska så delade meningar om huruvida NV30/35 kommer att prestera bättre i framtida spel.

Artikeln tycker inte jag favoriserade Nvidia det minsta, man tog inte upp Nvidia "optimeringar" speciellt mycket, och rent marknadsmässigt tycker jag den täcker det den utger sig för att täcka.

Vet inte om det är speciellt många, men jag tycker lite "synd" om Nvidia efter deras misstag, NV30 är som artikeln antyder en mycket mer avancerad GPU än Radeon-korten, med NV3x's CineFX-motor till exempel. De har inte fått speciellt mycket beröm för den, trots att den på vissa punkter är mycket bra vil jag hävda. Jag vet inte riktigt på vilken eventuell information som är fel i texten, jag läste igenom den grundligt och hittade inga direkt fel faktiskt.

Nvidia har blivit så pass hånade i entusiastsegmentet att de inte ens är ett alternativ och allting med dem är bara dåligt, håller lite med Blomman's citat faktiskt.

Självklart ska man vara källkritisk, men jag följde Nvidias utveckling av NV30 rätt mycket, och träffade bland annat Nvidias personal på Comdex Nordic 2003 och fick höra deras version på det, och jag tycker faktiskt inte det är så mycket att vara kritisk till i artikeln. Ni som ser massa fel, posta gärna citat här så kan vi diskutera kring dem istället för att folk spottar ut saker som inte har någon grund.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Självklart ska man vara källkritisk, men jag följde Nvidias utveckling av NV30 rätt mycket, och träffade bland annat Nvidias personal på Comdex Nordic 2003 och fick höra deras version på det, och jag tycker faktiskt inte det är så mycket att vara kritisk till i artikeln. Ni som ser massa fel, posta gärna citat här så kan vi diskutera kring dem istället för att folk spottar ut saker som inte har någon grund.

Jag säger det igen, läs tråden på beyond3d om denna artikel, de diskuterar misstagen där.
Jag tycker det märks att han mest har haft kontakt med nVidias folk när han skrev artikel (vilket han själv säger) då han tar upp mycket om hur flexibel NV30 är men inte direkt mycket om R300 arkitektur. Han hade tydligen försökt få kommentarer från ATI också men inte fått svar på sina frågor vilket är lite dålig stil av ATI om det är så.
Tycker också han hakar upp sig väldigt på det här med att korten måste klara att köra FP16/32. Det är inte många som tror att ett krav FP32 är något som kommer bli aktuellt än på ett tag, alltså inte i DX9.1.

Citat:

Ursprungligen inskrivet av Kr^PacMan
Nvidia har blivit så pass hånade i entusiastsegmentet att de inte ens är ett alternativ och allting med dem är bara dåligt, håller lite med Blomman's citat faktiskt.

Jag har inget emot Nvidia så länge de inte försöker lura kunder att deras kort är bättre än va de egentligen är genom att fuska i benchmark program/spel. Jag tycker jag nVidia verkar ha skärp till sig med det nya drivrutinerna som vad jag har förstått dragit upp bildkvaliteten samtidigt som prestandan har ökat, ett steg i rätt riktning helt klart.

Permalänk
Medlem

Vissa var då väldigt griniga här.

Visa signatur

ThermalTake Tsunami Dream "Ljudisolerad", Corsair HX 650W Plus Gold, Gigabyte Z68XP-UD3P, Intel Core i5 2500K 4GHz, 2x Corsair 8GB (2x4096MB) CL9 1600Mhz XMS3 1,5V, MSI GeForce GTX 1060 Gaming X 6G, Samsung SSD 840 Evo 250GB. Vi människor är mystiska varelser
-
http://www.minhembio.com/Camridge

Permalänk
Medlem

CineFX-motor må vara bra, men Nivida bara vräker på med Mhz medans Ati simmar lungt på en 0.15micron core på 380mhz.

Borde inte det ge lika mycket creds?

Ati gör t.o.m. bättre ifrån sig på Nividas egen mjukvara CG, än Nivida själva.

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Vet inte om det är speciellt många, men jag tycker lite "synd" om Nvidia efter deras misstag, NV30 är som artikeln antyder en mycket mer avancerad GPU än Radeon-korten, med NV3x's CineFX-motor till exempel. De har inte fått speciellt mycket beröm för den, trots att den på vissa punkter är mycket bra vil jag hävda. Jag vet inte riktigt på vilken eventuell information som är fel i texten, jag läste igenom den grundligt och hittade inga direkt fel faktiskt.

Självklart ska man vara källkritisk, men jag följde Nvidias utveckling av NV30 rätt mycket, och träffade bland annat Nvidias personal på Comdex Nordic 2003 och fick höra deras version på det, och jag tycker faktiskt inte det är så mycket att vara kritisk till i artikeln. Ni som ser massa fel, posta gärna citat här så kan vi diskutera kring dem istället för att folk spottar ut saker som inte har någon grund.

CineFX är en marknadsföringsterm för deras DirectX9 funktionalitet. ATi kallar sin implementering för Smartshader.
Det är inget hokuspokus inblandat.
nVidia kan göra en del saker med sina kort som inte ATi kan men faktum är att det just nu finns minst lika mycket saker som Ati kan göra som nVidia inte kan.
Som det ser ut nu krävs det mycket arbete i nVidias drivrutiner eftersom de inte exponerar kortens funktionalitet (som nVidia påstår ska finnas i korten dvs, något bevis har vi inte eftersom det inte finns stöd för det i drivrutinerna).

Att prisa någon för en specifikation som finns på ett papper känns ganska menlöst. När de får det att funka i drivrutinerna och tex. skapar ett demo som visar upp funktionaliteten: då kan vi börja snacka.
Det är lite av det som är hela problemet också i artikeln. Han sitter och prisar nVidia för vad de sagt att deras kort potentiellt sätt kan göra, inte för vad de faktiskt kan göra idag just nu.

Angående fel i artikeln så är det lite sent egentligen eftersom han rättat en hel del av felen sedan han blivit tillrättavisad av mer kunniga personer (som tex. Dave Baumann på Beyond3D, förmodligen en av de två-tre mest kompetenta grafikkortsredaktörerna i världen.)

Men här är ett par:

"Even the complex shaders that Valve is doing for Half-Life 2 are only a dozen instructions long at most."
- Valve har själva sagt i tidigare intervjuer att de har nosat på de maximala specifikationerna för DirectX9 med många av sina shaders. Mycket mer info har vi egentligen inte på instruktionsantal i Half Life 2s Pixel Shaders.

"So, in current applications, the overall VS throughput using VS 2.0 shaders will be significantly faster on the ATI parts, not only due to the extra VS unit, but also to the decreased complexity of the ATI units being able to process the VS 2.0 based shaders faster."
- Haltande logik här. Lägre komplexitet behöver knappast stå i direkt relation till mer råstyrka. Inte på något sätt.

"The more complex NVIDIA VS units are not as fast per clock, but their complexity approaches that of the VS 3.0 specification. Here the NVIDIA part is more future proof, but due to this increased complexity, the performance is not as fast as the simpler and more focused ATI part."
- Framtidssäkert på vilket sätt? Vi vet redan att nVidias vertex shading är långsammare än ATis. Varför skulle man tro att den skulle bli snabbare om vi slängde mer komplexa vertex programs på det?
Felande logik igen.

"ATI doesn’t have to rely on complex compilers for its R3x0 series of chips due to two reasons. The first is that the DX9 spec is essentially built around the R3x0 processor. The second is that Microsoft has released HLSL (High Level Shading Language), and it is heavily optimized for PS/VS 2.0. Since PS/VS 2.0 functionality so closely mimics ATI’s hardware, it stands to reason that anything compiled with HLSL will automatically be set up to run optimally on ATI hardware. NVIDIA doesn’t have this luxury."
- ATi hade redan run time compilers i sina drivrutiner långt innan nVidia, faktum är att de kan arrangera om instruktioner båda i drivrutinerna och i hårdvaran.
Själva "boo hoo det är synd om nVidia de måste anstränga sig extra mycket för att prestera bra" är bara knasigt. ATi ansträngde sig före nVidia helt enkelt, men det ska de inte få cred för?

Lite off topic är detta ett roligt fenomen:
Företag A och B släpper produkter samtidigt.
Företag As kort presterar bra från dag ett och drivrutinerna gör ingen större förbättring.
Företag Bs kort presterar rätt dåligt från början men blir bättre och bättre med tiden.

Av någon anledning så brukar denna situation alltid leda till att företag B prisas för deras grymma drivrutiner.
Borde inte företag A istället prisas för att de släppte en färdig produkt både vad det gällde mjukvara och hårdvara?
Exempel: det är fint att Microsoft släpper säkerhetsuppdateringar, men vore det inte bättre om Windows var säkert redan när det släpptes?

"Of course Cg was heavily optimized for NVIDIA parts, but NVIDIA also took great pains to make Cg run well on the competitions’ parts."
- nVidia gjorde inte ett skit för att få Cg att funka bra med andra kort. De har inga back ends för andra kort. De har inte ens basic stöd för helt vanliga DirectX-funktioner enbart för att ATi var de enda som hade stöd för funktionerna. (Tänker på Pixel Shader 1.4 tex.)

"One of the first released Cg based games is Gunmetal, which features PS 1.1/2.0 and VS 2.0 code.[...]It also inherently has a lot of optimizations for ATI parts."
- GunMetal: spelet dvs. använder bara DirectX 8. Benchmarket använder EN STYCK Vertex Shader 2.0. Någon Pixel Shader 2.0 finns inte så långt ögat når.
Vilka optimeringar för ATi skulle det vara? De som gör att Tomb Raider går slöare på ATis kort när de använder Cg än när de använder HLSL? (Mycket slöare.)

Om "fusk": "Only when professional reviewers take a very close look at the rendered output do the differences show up."
- Allt började med 3Dmark03 och där handlade det inte ens om "fusk" som blotta ögat kan se. De använde empirisk data för att manipulera testet. I princip hade de lika gärnat kunnat hacka slutscoren så att de la till 1000 poäng istället.

"Typically these quality differences have to be enlarged to show the distorted or missing detail."
- Så man måste zooma in på en bild och vara en professionell redaktör för att se att nVidia stänger av ljuseffekter helt och hållet eller helt enkelt avböjer att rendera rök/dimma?

"We all like things to look nice, but looking almost as nice but running faster is typically a better scenario."
- Inget sakfel men lite väl försvarande. När "motståndarna" både har det "nice" och "running fast" så...

"The R300 has approximately 300 registers spread out between the pixel and vertex shaders. The NV30 has approximately 280 registers. Not the night and day difference that many were talking about."
- Här förvränger han sanningen av det grövsta. nVidias registeranvändningsproblem ligger i deras pixel shaders och deras temporära registers. Det totala antalet registers har inte ett skvatt med saken att göra.

"The biggest difference is the Temp registers, of which ATI has 32 and NVIDIA has 16. DX9 specs only indicate the presence of 16, so programs optimized for HLSL will most likely only take advantage of the 16 temp registers."
- Problemet ligger redan i användningen av multipla registers, det är inte maxgränsen som är problemet. Ännu en skön omskrivning av sanningen.

"Overall, the entire register issue is a non-issue."
- Aha så den största bidragande faktorn till att nVidia har dålig prestanda med full flyttalsprecension (Pixel Shader 2.0 moa) är " a non-issue". Gee who would have known.

"ATI will eventually have to go to true FP32 rendering, and they will run into the same transistor count problems that NVIDIA currently suffers from."
- nVidia fick problemet för att de ville göra en "för komplex" design "för tidigt". ATi, som gör sin design ett år senare med en mindre tillverkningsprocess och uppenbarligen en väldigt god förståelse för hur man krämar ur max ur en tillverkningsprocess, lär inte stöta på samma problem. Vidare så har ju ATi också en fördel av att vara andra man på plan då tillverkningshusen faktiskt drar lärdom av de chip som de tillverkar.

"They will also have to design a lot more flexibility into their pixel shaders so they can handle both FP16 and FP32 formats. NVIDIA has already done this, and they continue to tweak their designs and functionality. DX9.1 should make a showing next Spring with the release of the R420 and NV40, as both of these products will support PS/VS 3.0. While it is not entirely evident that PS 3.0 will require FP32 functionality over FP24, I am guessing that it will."
- Notera: första delen presenterar han som fakta. Men i andra delen erkänner han att han faktiskt bara spekulerade. Kanske vore det lika bra att visa att allt bara var spekulation istället för att låtsas som om det var någon sanning skriven i sten att ATi måste göra en FP16/FP32-design.

"NVIDIA has already laid all the groundwork for a highly programmable processor using flexible precision, as well as worked very hard to develop a high performance driver level compiler. ATI has been riding along with its DX9.0 part that was optimized for PS/VS 2.0 operation."
- ATi har också en compiler på drivrutinsnivå. Faktum är att de tom. lite grundläggande optimeringsfunktioner på hårdvarunivå.

"ATI will have to retool their entire GPU lineup to be PS/VS 3.0 compliant, while NVIDIA is almost already there."
- Uppenbarligen har han inte hängt med i nyheterna:
R42x ÄR desginat från "ground up" sen dag ett eftersom hela chippet utvecklas av ett annat team än det som utvecklade R3x0.
Detta har varit vida känd information i ett år ändå har allas vår expert Josh helt lyckats missa det.
Jag skulle tom. tro att nVidia också har ett annat designteam som utvecklar NV4x än de som utvecklade NV3x. De har jobbat så förr men frågan är om denb helt nya designen kommer med NV4x eller NV5x.

Det finns ju mer men här är några av de grövre missarna.
Det som är lite ångest med artikeln är att all hans misinformation får Ati framstå i "dålig dager" eller iaf sämre.
Jag tror helt ärligt inte att detta är för att Josh favoriserar nVidia. Att döma av vad han sagt på forum om artikeln är et snarare för att han:
1. Inte är så himla insatt.
2. I princip uteslutande fått all sin information från nVidias PR-team. (Det roliga är att jag hört många av argumenten förr direkt från nVidia själva så jag känner igen mycket av hans resonemang.)

Under de två omständigheterna borde han ALDRIG skrivit en sådan här artikel. Artikeln är inte skriven med ont uppsåt, men faktum kvarstår att oavsett intention så borde den aldrig ha blivit skriven. I alla fall inte av Josh.

Givetvis är det tråkigt att ATi inte kunnat stå till tjänst bättre. Jag tycker själv att ATi har det rätt dåligt ställt med tecnical PR managers (typ mellanting mellan tekniker och pr-snubbar med stark dragning åt det senare).

Angående nVidias personal (Adam och Andrew) på Comdex så var de trevliga och så, men knappast särskilt tekniskt kunniga. De var marknadsföringsfolk helt enkelt.
Absolut inget illa menat mot dem, de är hur trevliga som helst och kan ju såklart en del om tekniken också men de är båda PR-managers inget annat.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AnteP
Tokmycket text.

Creds

Visa signatur

I like my women how i like my coffee... In a plastic cup.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av S_Z
En liten rättelse. FP16/24/32 = 16/24/32 bitars flyttal, inte heltal.

Ah så sant! Tankspritt av mig.

Permalänk
Avstängd

CineFX är en marknadsföringsterm för deras DirectX9 funktionalitet. ATi kallar sin implementering för Smartshader.
Det är inget hokuspokus inblandat.
nVidia kan göra en del saker med sina kort som inte ATi kan men faktum är att det just nu finns minst lika mycket saker som Ati kan göra som nVidia inte kan.

Kommentar: Kan du ge några exempel på vad ATI kan göra som inte Nvidia kan göra?

Som det ser ut nu krävs det mycket arbete i nVidias drivrutiner eftersom de inte exponerar kortens funktionalitet (som nVidia påstår ska finnas i korten dvs, något bevis har vi inte eftersom det inte finns stöd för det i drivrutinerna).
Att prisa någon för en specifikation som finns på ett papper känns ganska menlöst. När de får det att funka i drivrutinerna och tex. skapar ett demo som visar upp funktionaliteten: då kan vi börja snacka.
Det är lite av det som är hela problemet också i artikeln. Han sitter och prisar nVidia för vad de sagt att deras kort potentiellt sätt kan göra, inte för vad de faktiskt kan göra idag just nu.

Kommentar: Tekniskt sett så har NV30 funktionaliteter som inte utnyttjas idag. Visst skulle Nvidia kunna ta fram drivrutiner som till fullo utnyttjade detta, problemet är bara att det inte följer DX9 standarden, vilket innebär att man kan få fram en snygg demo, men att sen få någon i verkligheten att använda detta är en helt annan sak. I praktiken är alltså denna extra funktionalitet värdelös eftersom ingen använder den.

Angående fel i artikeln så är det lite sent egentligen eftersom han rättat en hel del av felen sedan han blivit tillrättavisad av mer kunniga personer (som tex. Dave Baumann på Beyond3D, förmodligen en av de två-tre mest kompetenta grafikkortsredaktörerna i världen.)
Men här är ett par:
"Even the complex shaders that Valve is doing for Half-Life 2 are only a dozen instructions long at most."
- Valve har själva sagt i tidigare intervjuer att de har nosat på de maximala specifikationerna för DirectX9 med många av sina shaders. Mycket mer info har vi egentligen inte på instruktionsantal i Half Life 2s Pixel Shaders.
"So, in current applications, the overall VS throughput using VS 2.0 shaders will be significantly faster on the ATI parts, not only due to the extra VS unit, but also to the decreased complexity of the ATI units being able to process the VS 2.0 based shaders faster."
- Haltande logik här. Lägre komplexitet behöver knappast stå i direkt relation till mer råstyrka. Inte på något sätt.

Kommentar: Jag påstår att det finns ett samband mellan komplexitet och råstyrka.
Vid konstruktion av en ny elektronisk krets så sätter man tidigt ett mål för hur många transistorer man kommer att använda. Sedan vill man få så stor prestanda som möjligt ur dessa transistorer. Man kan då antigen försöka göra en så intelligent lösning som möjligt eller satsa på enkla lösningar med mer ”råstyrka”. Om man både satsar på ”råstyrka” och komplexitet så missar man målet med antal transistorer.

"The more complex NVIDIA VS units are not as fast per clock, but their complexity approaches that of the VS 3.0 specification. Here the NVIDIA part is more future proof, but due to this increased complexity, the performance is not as fast as the simpler and more focused ATI part."
- Framtidssäkert på vilket sätt? Vi vet redan att nVidias vertex shading är långsammare än ATis. Varför skulle man tro att den skulle bli snabbare om vi slängde mer komplexa vertex programs på det?
Felande logik igen.

Kommentar: Citat från:
http://www.beyond3d.com/articles/nv30r300/index.php?p=2
“Because of supporting nested subroutines, dynamic flow control, and per channel masking, NV30 shows its muscle here. In theory, NV30 can carry more powerful vertex shading programs which can show complex visual effects running faster.”
“In my opinion, NV30 is a little better than R300 in register analysis due to the Condition Code Register”
“Generally speaking, we must admit that instruction sets of NV30 even exceed VS3.0 in several aspects, such as BRA. It seems that NV30 has a better instruction set.”
“NVIDIA declares that vertex program performance of NV30 to be over 3x faster than NV20 and over 1.5x faster than NV25, clock for clock. As we all know, NV20 has one VS unit and NV25 has two VS units, so we may assume that NV30 must have three VS units. The question has a clear answer.
It’s sure that VS unit in NV30 must have a complex and optimized architecture too, because NVIDIA claims that older VS1.0 and VS1.1 programs go faster too. More detail would require additional information from NVIDIA, though it is almost impossible that NV30 holds on the antique hardware T&L unit.
So, as we can see R300 has more raw power than NV30 in theory, clock for clock.”
“It seems that DX9 PS2.0 follows the specification of R300 exactly. The strength of NV30 PS specification impresses all of us. It is qualitative difference that 1024 instruction slots is compared with 160 slots and also has significant value to DCC applications. We see the influence of NV30 in DX9 PS3.0 too.”
“It is possible that NV30 will gain more fame when running future 3D games with complex shading effects (Note: its highly likely that we will be serveral architectural generations down the line before this level of complexity in games actually occurs. Look at DoomIII as an example as this is is only just making use of the majority of features introduced in NV15/R100 - Ed.).”
Ett exempel på vad smartare pixel shader ger är följande test:
Procedural wood surface ( credit: Larry Gritz )
R200, 50 passes
R300, 7 passes
NV30, 1 passes

"ATI doesn’t have to rely on complex compilers for its R3x0 series of chips due to two reasons. The first is that the DX9 spec is essentially built around the R3x0 processor. The second is that Microsoft has released HLSL (High Level Shading Language), and it is heavily optimized for PS/VS 2.0. Since PS/VS 2.0 functionality so closely mimics ATI’s hardware, it stands to reason that anything compiled with HLSL will automatically be set up to run optimally on ATI hardware. NVIDIA doesn’t have this luxury."
- ATi hade redan run time compilers i sina drivrutiner långt innan nVidia, faktum är att de kan arrangera om instruktioner båda i drivrutinerna och i hårdvaran.
Själva "boo hoo det är synd om nVidia de måste anstränga sig extra mycket för att prestera bra" är bara knasigt. ATi ansträngde sig före nVidia helt enkelt, men det ska de inte få cred för?

Kommentar: Klart att ATI har gjort ett bra jobb med R300 och att de har ett intimt samarbete med Microsoft. Nvidias stora fel med NV30 är att de i hybris missbedömde konkurrensen från ATI+MS. Jag tror att Nvidia är lite mer ödmjuka nu och kommer att ge ATI hård konkurrens när NV40 kommer på marknaden.

Lite off topic är detta ett roligt fenomen:
Företag A och B släpper produkter samtidigt.
Företag As kort presterar bra från dag ett och drivrutinerna gör ingen större förbättring.
Företag Bs kort presterar rätt dåligt från början men blir bättre och bättre med tiden.

Av någon anledning så brukar denna situation alltid leda till att företag B prisas för deras grymma drivrutiner.
Borde inte företag A istället prisas för att de släppte en färdig produkt både vad det gällde mjukvara och hårdvara?
Exempel: det är fint att Microsoft släpper säkerhetsuppdateringar, men vore det inte bättre om Windows var säkert redan när det släpptes?

"Of course Cg was heavily optimized for NVIDIA parts, but NVIDIA also took great pains to make Cg run well on the competitions’ parts."
- nVidia gjorde inte ett skit för att få Cg att funka bra med andra kort. De har inga back ends för andra kort. De har inte ens basic stöd för helt vanliga DirectX-funktioner enbart för att ATi var de enda som hade stöd för funktionerna. (Tänker på Pixel Shader 1.4 tex.)

"One of the first released Cg based games is Gunmetal, which features PS 1.1/2.0 and VS 2.0 code.[...]It also inherently has a lot of optimizations for ATI parts."
- GunMetal: spelet dvs. använder bara DirectX 8. Benchmarket använder EN STYCK Vertex Shader 2.0. Någon Pixel Shader 2.0 finns inte så långt ögat når.
Vilka optimeringar för ATi skulle det vara? De som gör att Tomb Raider går slöare på ATis kort när de använder Cg än när de använder HLSL? (Mycket slöare.)

Om "fusk": "Only when professional reviewers take a very close look at the rendered output do the differences show up."
- Allt började med 3Dmark03 och där handlade det inte ens om "fusk" som blotta ögat kan se. De använde empirisk data för att manipulera testet. I princip hade de lika gärnat kunnat hacka slutscoren så att de la till 1000 poäng istället.

"Typically these quality differences have to be enlarged to show the distorted or missing detail."
- Så man måste zooma in på en bild och vara en professionell redaktör för att se att nVidia stänger av ljuseffekter helt och hållet eller helt enkelt avböjer att rendera rök/dimma?

"We all like things to look nice, but looking almost as nice but running faster is typically a better scenario."
- Inget sakfel men lite väl försvarande. När "motståndarna" både har det "nice" och "running fast" så...

"The R300 has approximately 300 registers spread out between the pixel and vertex shaders. The NV30 has approximately 280 registers. Not the night and day difference that many were talking about."
- Här förvränger han sanningen av det grövsta. nVidias registeranvändningsproblem ligger i deras pixel shaders och deras temporära registers. Det totala antalet registers har inte ett skvatt med saken att göra.

"The biggest difference is the Temp registers, of which ATI has 32 and NVIDIA has 16. DX9 specs only indicate the presence of 16, so programs optimized for HLSL will most likely only take advantage of the 16 temp registers."
- Problemet ligger redan i användningen av multipla registers, det är inte maxgränsen som är problemet. Ännu en skön omskrivning av sanningen.

"Overall, the entire register issue is a non-issue."
- Aha så den största bidragande faktorn till att nVidia har dålig prestanda med full flyttalsprecension (Pixel Shader 2.0 moa) är " a non-issue". Gee who would have known.

"ATI will eventually have to go to true FP32 rendering, and they will run into the same transistor count problems that NVIDIA currently suffers from."
- nVidia fick problemet för att de ville göra en "för komplex" design "för tidigt". ATi, som gör sin design ett år senare med en mindre tillverkningsprocess och uppenbarligen en väldigt god förståelse för hur man krämar ur max ur en tillverkningsprocess, lär inte stöta på samma problem. Vidare så har ju ATi också en fördel av att vara andra man på plan då tillverkningshusen faktiskt drar lärdom av de chip som de tillverkar.

"They will also have to design a lot more flexibility into their pixel shaders so they can handle both FP16 and FP32 formats. NVIDIA has already done this, and they continue to tweak their designs and functionality. DX9.1 should make a showing next Spring with the release of the R420 and NV40, as both of these products will support PS/VS 3.0. While it is not entirely evident that PS 3.0 will require FP32 functionality over FP24, I am guessing that it will."
- Notera: första delen presenterar han som fakta. Men i andra delen erkänner han att han faktiskt bara spekulerade. Kanske vore det lika bra att visa att allt bara var spekulation istället för att låtsas som om det var någon sanning skriven i sten att ATi måste göra en FP16/FP32-design.

"NVIDIA has already laid all the groundwork for a highly programmable processor using flexible precision, as well as worked very hard to develop a high performance driver level compiler. ATI has been riding along with its DX9.0 part that was optimized for PS/VS 2.0 operation."
- ATi har också en compiler på drivrutinsnivå. Faktum är att de tom. lite grundläggande optimeringsfunktioner på hårdvarunivå.

"ATI will have to retool their entire GPU lineup to be PS/VS 3.0 compliant, while NVIDIA is almost already there."
- Uppenbarligen har han inte hängt med i nyheterna:
R42x ÄR desginat från "ground up" sen dag ett eftersom hela chippet utvecklas av ett annat team än det som utvecklade R3x0.
Detta har varit vida känd information i ett år ändå har allas vår expert Josh helt lyckats missa det.
Jag skulle tom. tro att nVidia också har ett annat designteam som utvecklar NV4x än de som utvecklade NV3x. De har jobbat så förr men frågan är om denb helt nya designen kommer med NV4x eller NV5x.

Det finns ju mer men här är några av de grövre missarna.
Det som är lite ångest med artikeln är att all hans misinformation får Ati framstå i "dålig dager" eller iaf sämre.
Jag tror helt ärligt inte att detta är för att Josh favoriserar nVidia. Att döma av vad han sagt på forum om artikeln är et snarare för att han:
1. Inte är så himla insatt.
2. I princip uteslutande fått all sin information från nVidias PR-team. (Det roliga är att jag hört många av argumenten förr direkt från nVidia själva så jag känner igen mycket av hans resonemang.)

Under de två omständigheterna borde han ALDRIG skrivit en sådan här artikel. Artikeln är inte skriven med ont uppsåt, men faktum kvarstår att oavsett intention så borde den aldrig ha blivit skriven. I alla fall inte av Josh.

Givetvis är det tråkigt att ATi inte kunnat stå till tjänst bättre. Jag tycker själv att ATi har det rätt dåligt ställt med tecnical PR managers (typ mellanting mellan tekniker och pr-snubbar med stark dragning åt det senare).

Angående nVidias personal (Adam och Andrew) på Comdex så var de trevliga och så, men knappast särskilt tekniskt kunniga. De var marknadsföringsfolk helt enkelt.
Absolut inget illa menat mot dem, de är hur trevliga som helst och kan ju såklart en del om tekniken också men de är båda PR-managers inget annat.

Kommentar: Min bedömning är att Nvidia både hård och mjukvarumässigt är väl i nivå med ATI. Nvidia har ju varit marknadsledande både vad gäller prestanda och volym ett längre tag tills ATI lanserade R300. Nu klantade Nvidia till det med NV30 eftersom man trodde att man styrde marknaden mer än man i verkligheten gör. Prestigemässigt har Nvidia lidit skada och i viss mån försäljningsmässigt, men man är fortfarande ledande på grafikkortsmarknaden försäljningsmässigt. (Intel säljer dock fler integrerade grafiklösningar).
Om Nvidias ledning och marknadfolk gör sitt jobb väl så tror jag att det blir hård konkurrens mellan NV40 och ATIs R420.

Visa signatur

MrTT
Intel tjänar hutlöst mycket pengar, dela bolaget i två delar, så att det blir bättre konkurrens på CPU marknaden."