FutureMark begränsar Nvidia

Permalänk
Melding Plague

FutureMark begränsar Nvidia

<img src="http://www.sweclockers.com/img/ico_note.gif" alt="Nyhet"><b class="red">FutureMark begränsar Nvidia</b> <small class="small">Torsdag den 13 November 2003<a href="mailto:herman@sweclockers.com"> Herman</a><br /></small>
Många hårdvarusajter och användare blev förvånade igår när de testade den nya 3DMark-patchen version 340. Prestandan på GeforceFX-baserade grafikkort kunde sjuka så mycket som 20% i vissa tester. <a href="http://www.xbitlabs.com/news/video/display/20031112031947.htm..." target="_blank" >X-Bit Labs</a> har dock en förklaring varför prestandan sjönk så mycket. Nvidia släppte som bekant sin <a href="http://www.xbitlabs.com/articles/video/display/fx5950ultra-98..." target="_blank" >Unified Complier</a> i och med den nya Detonator-drivrutinen kallad ForceWare (52.16). Den optimerar PixelShader-kod under alla DirectX 9-applikationer.<br><br>Tydligen har 3DMark03-patchen inaktiverat Unified Complier, vilket låter processorn på moderkortet sköta arbetet med att jobba på instruktionerna istället för grafikkortet. Detta är en av förklaringarna att prestandan sjunkit så pass mycket. Vi har inte sett någon reaktion från FutureMark än - men 3DMark-soppan är säkerligen inte avslutad.<br><br>Uppdatering: Informationen att Unified Complier skulle vara avstängd kommer bland annat från Gainward:s europa-avdelning. Vi undersöker just nu ifall det möjligt att stänga av Unified Complier via 3DMark.<p>
<table border="0" cellpadding="0" cellspacing="0" width="100%">
<tr><td width="50%"><small class="small"> </small></td>
<td width="50%"><p align="right"><a href="http://forum.sweclockers.com/showthread.php?threadid=207172">Kommentera</a> | <a href="http://www.sweclockers.com/html/felanmal.php">Felanmäl</a></p></td></tr></table><p>

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Futuremark kan inte stänga av nVidias unified compiler. Det där var bara Wolfram från Gainward som försökte sig på lite "damage control".

Futuremark ändrar på sin mjukvara inte på nVidias drivrutiner. Dessutom är det en teknisk omöjlighet då Futuremark inte har kontroll på så låg nivå som en runtime compiler i drivrutinen. Dessutom: om Futuremark nu på något magiskt sätt fått kontroll över nVidias drivrutiner så skulle inte belastningen läggas på processorn bara för det. Den skulle helt enkelt kört de "råa" instruktionerna precis som de gjort hela tiden innan Detonator 52.16.

Men i vilket fall, Futuremark skulle aldrig vågat göra något sådant om det nu ens var möjligt. nVidia skulle krossat dem.

Det som Futuremark har förhindrat är tillämpningsspecifika optimeringar bara.

BTW så har ATi också en "unified compiler" i sina drivrutiner, den har funnits där sedan Catalyst 3.4.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

Tack AnteP, skönt att nån har koll på saker och ting. Jag tycker nästan att nyheten ska redigeras eller helt tas bort då den helt enkelt inte stämmer för fem öre...

Visa signatur
Permalänk
Medlem

um jo den borde ändras.. om man inte installerar nya drivers till Kortet så kommer detta aldrig att hända.

Visa signatur

Gaming: Epenis ++
Everything else: MacBook Air M1
Work: MBP M1

Permalänk
Medlem

Hmm sweclockers lyckades lura mig där ett tag. Jävla tur att jag råkade gå in o kolla på kommentarerna.

Visa signatur

“Our enemies are innovative and resourceful, and so are we. They never stop thinking about new ways to harm our country and our people, and neither do we.” - President Bush - August 5, 2004

Permalänk
Medlem

dessutom så kan vi ju se på nordichardwares test at det inte är PS som gör att nvidias kort går på knäna utan vertex shaders...

Visa signatur

Have you witnessed the power of the Twisted Rune?
Linux är bara gratis om din tid är värdelös.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av AnteP
Futuremark kan inte stänga av nVidias unified compiler. Det där var bara Wolfram från Gainward som försökte sig på lite "damage control".

Futuremark ändrar på sin mjukvara inte på nVidias drivrutiner. Dessutom är det en teknisk omöjlighet då Futuremark inte har kontroll på så låg nivå som en runtime compiler i drivrutinen. Dessutom: om Futuremark nu på något magiskt sätt fått kontroll över nVidias drivrutiner så skulle inte belastningen läggas på processorn bara för det. Den skulle helt enkelt kört de "råa" instruktionerna precis som de gjort hela tiden innan Detonator 52.16.

Men i vilket fall, Futuremark skulle aldrig vågat göra något sådant om det nu ens var möjligt. nVidia skulle krossat dem.

Det som Futuremark har förhindrat är tillämpningsspecifika optimeringar bara.

BTW så har ATi också en "unified compiler" i sina drivrutiner, den har funnits där sedan Catalyst 3.4.

Frågan är vad som egentligen gäller. Det är ju trots allt Hans-Wolfram Tismer vilket är marknadschef för Gainward Europe som säger detta. Om det bara är "Damage Control" är det mycket fult av dem isf. Ni har ju själva skrivit en artikel där prestandan på tex VertexShaders dyker enormt mycket i prestanda, så varför kan det inte stämma? Jag lägger till en kommentar i nyheten, men tar bort den gör jag inte.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Medlem

så slutsatsen man kan dra av detta är att nvidias fusk drivar inte längre hjälper dom i racet om poäng inom 3dmark2003 för att vinna konsumenter till sin fullstängdigt värdelösa FX serie?

man skulle förnärvarande kunna jämföra ati o nvidia med amd o intel....dvs amd kör linjen mindre mhz mer hästkrafter vilket intel inte gör :/ samma då med ati dom kör också med mindre mhz mer hästkrafter (AA + Aniso + dx9 funkar vilket det ska också eftersom det är dx9 kort dom tillverkar) bara att AMD o Intel är jämna eftersom amd inte har nån prolle som kör i samma mhz som intels vassaste :/ .....fast nu på i ATIs fall så har dom kort som både är lika snabba fast även har hästkrafterna (alltså klarar av det som deras skapare säger att dom skall klarar av ) så med andra ord är dom löjligt överlägsna tänk er själva om AMD skulle ge ut en Barton på 3.2ghz med 2mb minne HERREJÄVLAR ja då skulle intel kursa *skämt åsido* kursa skulle dom säkert inte göra :/

ATIs dx9 kort klarar av dx9 spel är inte det meningen ?

FX-serien är dx9 kort? va? helt otroligt löjligt e ju som om ati skulle sälja sina kort som dx10 kort

-"Nvidia the way youre meant to be played" <--lol

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Frågan är vad som egentligen gäller. Det är ju trots allt Hans-Wolfram Tismer vilket är marknadschef för Gainward Europe som säger detta........................

He he, skulle gissa på att Hans-Wolfram Tismer bara rapar det som han fått höra från nvida.

Tycker för övrigt att det är jädrigt lustigt att nvidias FX-serie av en slump skulle lyckas prestera bättre än ATI:s motsvarighet i 3DMark03. Framför allt när deras FX-kort presterar så pass mycket sämre i nyare spel, dvs det som 3DMark avser att testa. Det är dessutom i VS-tester som nvidia plötsligt går bet, dvs inom det område där ATI har en klar arkitekturisk fördel. Jag tycker iaf att V.340 verkar visa en mycket mer snarlik bild av verkligheten (nyare spel som finns att tillgå) än v.330 gjorde.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Frågan är vad som egentligen gäller. Det är ju trots allt Hans-Wolfram Tismer vilket är marknadschef för Gainward Europe som säger detta. Om det bara är "Damage Control" är det mycket fult av dem isf. Ni har ju själva skrivit en artikel där prestandan på tex VertexShaders dyker enormt mycket i prestanda, så varför kan det inte stämma? Jag lägger till en kommentar i nyheten, men tar bort den gör jag inte.

Jag kan skriva vad jag skickade till Gainward innan idag:

Citat:

Problemet är att för 3Dmark03 har nVidia byggt in tillämpningsspecifika shaders.

Dvs. drivrutinerna kollar ”körs shader A1 just nu?” och om svaret är ja så byter de ut shaders mot nVidias handskrivna.

Vad jag vet gör inte nVidia detta i något annat spel och detta beteende skiljer sig från det som Wolfram beskriver.

Dvs. nVidia unified compiler arbetar i vanliga fall per automatik och arrangerar om shaders för bättre prestanda. Detta är skitbra och allt är kalas. ATi gör exakt samma sak: de har tom. gjort det en ännu längre tid än nVidia.

Skillnaden är att i 3Dmark03 så går de (nVidia) in specifikt för det testet och ändrar på saker.

Om de inte gör det på andra program/spel så blir det ju ”inflation” i 3dmark-scoren: därav ändrar Futuremark på sina shaders för att nVidias manuella optimeringar inte ska känna igen shadern och byta ut den.

Deras Unified Compiler fungerar fortfarande, det är bara den tillämpningsspecifika optimeringen som ”bekämpas”.

Men även om Futuremark hade kunnat stänga av nVidias unified compiler så betyder det inte, som Wolfram antydde, att någon belastning skulel läggas på CPUn. Istället skulle kortet bara kört ”råa shaders” så som Futuremark programmerat dem.

Hade Futuremark lyckats med det hade prestandan sjunkit ännu mer än vad den gjorde med nya patchen.

Om Wolfram har tid att svara på en fråga (jag skickade samma fråga till Adam Foat) så lyder den:

I hur många spel, vilka specifikt och till vilken grad byter nVidia ut shaders mot sådana som de själva skrivit manuellt?

Min gissning är i inget spel alls, eller som mest något enstaka.

Vilket gör att den typen av optimeringa alltså är vilseledande om de får finnas i 3Dmark03.

Men om jag å andra sidan har fel och nVidia manuellt byter ut shaders mot handskrivna i en majoritet av (nya) spel så är det ju istället Futuremark som har gjort fel när de släppts sin patch. Eftersom då skulle den nya patchen förhindra nVidias kort från att prestera som de normalt gör.

Det enda Futuremark har gjort är att inverterat sin register allokering. Detta bör inte på något sätt påverka prestandan.

Man kan tom. kolla på källkoden själv för att se vad Futuremark ändrat.

I slutändan så har ju ändå nVidia själva sagt att denna typ av optimeringar inte är acceptabla ”An optimization much accelerate more than just a benchmark” och Futuremark är också tydliga med vad de accepterar:

”It is prohibited to detect 3DMark directly or indirectly. In its sole discretion, Futuremark may approve detection in order to fix a specified hardware error.” Och “Optimizations that utilize the empirical data of 3DMark are prohibited.”.

Men för att specifikt förklara detta fallet (detta svar jag skickade till dem är som synes svar på en del annat också men jag vet inte om jag får posta mailet jag fick av dem).

Det Futuremark har gjort är att de inverterat register allokeringen i sina shaders.
Det är det hela. Om du vill se vad de ändrat så finns shaderkoden på nätet så det är inga hemligheter vi snackar om.

I vilket fall: Det är inget som stänger av något.
Och som nämnt tidigare det här med att det skulle överföras på CPUn är bara absurt: stänger man av "unified shader compiler" så läggs ingen last på CPUn, enda skillnader kommer att vara att grafikkortet får köra de råa instruktionerna.

En förklaring av vad en "shader compiler" i drivrutinerna är är på sin plats känns det som:
För att förbättra prestandan kan man skyffla runt instruktioner och optimera registerallokeringar i shaderkod. Att göra detta ändrar inte slutresultatet.
Med en runtime "recomplier" kan grafikkortstillverkarna just skyffla runt instruktioner och optimera registeranvänding. På så sätt tjänar de en massa gratis prestanda utan att bildkvalitén ens blir en endaste pixel annorlunda.

Men det som nVidia gör är att de helt sonika kollar om 3dmark körs och om det gör det så byter de ut hela shaders mot sådana som de själv skrivit manuellt.
Om det kan räknas in i "unified compiler" ställer jag mig ytterst tveksam till. Det är snarare bara en vanlig tillämpningsspecifik optimering. I stil med att kolla om "Quake3.exe" körs och ändra något om i fall att det körs.

Och det Futuremark har gjort är ungefär att ändra sahderinstruktioner såhär:
från
a+a+a=b
till
a*3 = b

Om det ska räknas som "att stänga av nVidia unified compiler" så vet jag inte vart jag ska ta vägen.

Fick besök så jag kan inte vara så utförlig nu.
Men jag vill i alla fall få sagt att jag inte insinuerat att du skulel ta bort nyheten, jag ville helt enkelt bara diskutera dess innehåll.

Visa signatur

Från den andra sidan. :)

Permalänk
Glömsk

Nu tycker jag vi lugnar ner oss lite, problemet attackeras i fel vinkel. För att se hur tillförlitligt den nya 3dMark2003 egentligen är bör man inte trassla in sig i tekniska diskussioner isolerade till problemen med 3dMark, man bör först titta på spelen sedan se hur bra 3dMark överenstämmer med sanningen.

AntePs artikel skriver att FX5950 får ca 14% lägre prestanda i 3dMark2003. MEN tittar man på speltester i vilken recension som helst mellan nVidias kort och ATIs motsvarighet ser man att prestanda i regel bara skiljer sig ett par få procent. Det är inte så att FX5950 generellt sett får 10% lägre prestanda i alla spel jämfört med 9800 Pro. Alltså är 3dMark2003 inte tillförlitligt och bör inte få sådan uppmärksamhet som det nu gör.

Jag skulle vilja påstå att hela problemet bygger på det här med "I want to belive". Visst är det roligt att bojkotta och visst är det lättare för konsumenterna att veta att det ena företaget gör bra kort och de andra företaget är ett gäng fuskare och lögnare som bara skapar skräp. Problemet är inte så enkelt.

Tänk efter: Det senaste året har nVidia "fuskat". Hur många gånger har fusket varit optimeringar i 3dMark? Väldigt många gånger. Hur många gånger har nVidia varit bokstavligt talat skitkassa i spel jämfört med ATI? Inte så många gånger. Generellt sätt har det alltid varit så att nVidias motsvarighet till ATIs kort haft prestanda inom ett felmariginal på ett par procent. I 3dMark har resultaten kunnat variera så mycket som 20% eller mer.

Ska man skylla på någon är det 3dMark-teamet. Att vara med i deras betaprogram kostar helvetes mycket pengar. Är man inte med i deras program så kommer tillverkaren som är det få övertaget. Snälla, skit i 3dmark.

Visa signatur

...man is not free unless government is limited. There's a clear cause and effect here that is as neat and predictable as a law of physics: As government expands, liberty contracts.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Psionicist
Nu tycker jag vi lugnar ner oss lite, problemet attackeras i fel vinkel. För att se hur tillförlitligt den nya 3dMark2003 egentligen är bör man inte trassla in sig i tekniska diskussioner isolerade till problemen med 3dMark, man bör först titta på spelen sedan se hur bra 3dMark överenstämmer med sanningen.

AntePs artikel skriver att FX5950 får ca 14% lägre prestanda i 3dMark2003. MEN tittar man på speltester i vilken recension som helst mellan nVidias kort och ATIs motsvarighet ser man att prestanda i regel bara skiljer sig ett par få procent. Det är inte så att FX5950 generellt sett får 10% lägre prestanda i alla spel jämfört med 9800 Pro. Alltså är 3dMark2003 inte tillförlitligt och bör inte få sådan uppmärksamhet som det nu gör.

Jag skulle vilja påstå att hela problemet bygger på det här med "I want to belive". Visst är det roligt att bojkotta och visst är det lättare för konsumenterna att veta att det ena företaget gör bra kort och de andra företaget är ett gäng fuskare och lögnare som bara skapar skräp. Problemet är inte så enkelt.

Tänk efter: Det senaste året har nVidia "fuskat". Hur många gånger har fusket varit optimeringar i 3dMark? Väldigt många gånger. Hur många gånger har nVidia varit bokstavligt talat skitkassa i spel jämfört med ATI? Inte så många gånger. Generellt sätt har det alltid varit så att nVidias motsvarighet till ATIs kort haft prestanda inom ett felmariginal på ett par procent. I 3dMark har resultaten kunnat variera så mycket som 20% eller mer.

Ska man skylla på någon är det 3dMark-teamet. Att vara med i deras betaprogram kostar helvetes mycket pengar. Är man inte med i deras program så kommer tillverkaren som är det få övertaget. Snälla, skit i 3dmark.

Jag håller med till 100% att man inte ska stirra sig blind på ett enda program, försök se helheten i det hela istället. Som det ser ut idag är det så att om ett kort råkar få 50000p i 3DMark så är det kortet bäst oavsett om det endast får 10fps i Q3 eller inte. Medan ett kort som endast får 500p i 3DMark är sämst oavsett om det får 500fps i [stoppa in modernt krävande spel här] eller inte. Som sagt skit i 3DMark!

Visa signatur

Studerande på Fucking U.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Psionicist
Nu tycker jag vi lugnar ner oss lite, problemet attackeras i fel vinkel. För att se hur tillförlitligt den nya 3dMark2003 egentligen är bör man inte trassla in sig i tekniska diskussioner isolerade till problemen med 3dMark, man bör först titta på spelen sedan se hur bra 3dMark överenstämmer med sanningen.

AntePs artikel skriver att FX5950 får ca 14% lägre prestanda i 3dMark2003. MEN tittar man på speltester i vilken recension som helst mellan nVidias kort och ATIs motsvarighet ser man att prestanda i regel bara skiljer sig ett par få procent. Det är inte så att FX5950 generellt sett får 10% lägre prestanda i alla spel jämfört med 9800 Pro. Alltså är 3dMark2003 inte tillförlitligt och bör inte få sådan uppmärksamhet som det nu gör.

Jag skulle vilja påstå att hela problemet bygger på det här med "I want to belive". Visst är det roligt att bojkotta och visst är det lättare för konsumenterna att veta att det ena företaget gör bra kort och de andra företaget är ett gäng fuskare och lögnare som bara skapar skräp. Problemet är inte så enkelt.

Tänk efter: Det senaste året har nVidia "fuskat". Hur många gånger har fusket varit optimeringar i 3dMark? Väldigt många gånger. Hur många gånger har nVidia varit bokstavligt talat skitkassa i spel jämfört med ATI? Inte så många gånger. Generellt sätt har det alltid varit så att nVidias motsvarighet till ATIs kort haft prestanda inom ett felmariginal på ett par procent. I 3dMark har resultaten kunnat variera så mycket som 20% eller mer.

Ska man skylla på någon är det 3dMark-teamet. Att vara med i deras betaprogram kostar helvetes mycket pengar. Är man inte med i deras program så kommer tillverkaren som är det få övertaget. Snälla, skit i 3dmark.

Titta i andra DirectX 9 tester. 3dmark 2003 är representabelt för prestanda-skillnaden...

Visa signatur
Permalänk
Medlem

=> Psionicist

Sedan när visar det sig att det enbar skiljer någon enstaka procent mellan FX5950 och Radeon 9800XT? De senaste tester jag läst visar det sig att 9800XT har ett klart grepp över FX5950 i majoriteten av alla DX8-spel och rent av utklassar FX5950 i DX9-spel. Vi snackar föga om någon ytterst lite skillnad, inom en felmarginal på 3% (för det måste vara det du menar). De enda som iaf. jag sett att FX5950 presterar lika bra eller bättre i, är främst spel av den äldre generationen. Jag ska dock vara ärlig och även nämna att det finns ett stort undantag; Halo. Anser dock personligen att detta spel är ett av de sämst optimerade på bra länge (funkar iaf. mycket dåligt på mitt GF4 Ti4200, XP2500+ och 1GB DDR, utan att ge vidare imponerande grafikupplevelse).

Håller vidare med om att man ej ska utgå från 3DMark03 vid köp av grafikkort. Hävdar dock samtidigt att v.340 speglar verkligheten och framtiden bättre än v.330 iaf i nvidias fall. Runt femton procents skillnad låter inte osannolikt i mina öron, detta med tanke på FX-seriens klart sämre DX9-prestanda (det är ju i det testet som FX presterar sämst, 3DMark ger ju ett genomsnittsvärde).

Jag ser mig själv varken som extremt pro nvidia eller pro ATI (är dock med pro ATI än nvida, detta med utgångspunkt från det gångna årets händelser/skandaler). Tycker att dina påståenden ang. prestandaskillnaden mellan FX5950 vs Radeon 9800XT är direkt missvisande.

Permalänk
Glömsk
Citat:

Ursprungligen inskrivet av Untitled
Titta i andra DirectX 9 tester. 3dmark 2003 är representabelt för prestanda-skillnaden...

Givetvis kan man använda 3dMark2003 för att isolera vissa delar av ett grafikkort, exempelvis hur bra ett visst kort är på vertex shaders eller pixel shaders eller fill rate. Det har jag ingenting emot. Det jag däremot inte gillar är slutresultatet, själva "poängen" som beräknas utifrån de individuella testerna efter en ekvation som 3dmark-teamet hittat på.

Eftersom speltesterna säger att resultaten mellan ATI och nVidia är ganska lika så tycker jag inte att man kan använda 3dMark-poängen för att säga hur bra ett grafikkort är. Man kan däremot använda programmet för att bestämma vilket kort som är bäst på en viss sak - fullkomligt ointressant när man väl spelar datorspelen - väldigt intressant när man recenserar grafikkort och vill förklara abnormaliteter och skillnader varför det ena kortet är bättre än det andra.

Visa signatur

...man is not free unless government is limited. There's a clear cause and effect here that is as neat and predictable as a law of physics: As government expands, liberty contracts.

Permalänk
Glömsk
Citat:

Ursprungligen inskrivet av milohenke
=> Psionicist

Sedan när visar det sig att det enbar skiljer någon enstaka procent mellan FX5950 och Radeon 9800XT? De senaste tester jag läst visar det sig att 9800XT har ett klart grepp över FX5950 i majoriteten av alla DX8-spel och rent av utklassar FX5950 i DX9-spel. Vi snackar föga om någon ytterst lite skillnad, inom en felmarginal på 3% (för det måste vara det du menar). De enda som iaf. jag sett att FX5950 presterar lika bra eller bättre i, är främst spel av den äldre generationen. Jag ska dock vara ärlig och även nämna att det finns ett stort undantag; Halo. Anser dock personligen att detta spel är ett av de sämst optimerade på bra länge (funkar tex mycket dåligt på mitt Ti4200, utan att ge vidare imponerande grafikupplevelse).

Håller vidare med om att man ej ska utgå från 3DMark03 vid köp av spel. Hävdar dock samtidigt att v.340 speglar verkligheten och framtiden bättre än v.330 iaf i nvidias fall. Runt femton procents skillnad låter inte osannolikt i mina öron, detta med tanke på FX-seriens klart sämre DX9-prestanda (det är ju i det testet som FX presterar sämst, 3DMark ger ju ett genomsnittsvärde).

Jag ser mig själv varken som extremt pro nvidia eller pro ATI (är dock med pro ATI än nvida, detta med utgångspunkt från det gångna årets händelser/skandaler). Tycker att dina påståenden ang. prestandaskillnaden mellan FX5950 vs Radeon 9800XT är direkt missvisande.

Det du säger är givetvis sant, men jag tror du tog mig allt för bokstavligt när jag sade "lite". Tittar man på 3dMark2003 patch 330 vs 340 så är skillnaden att FX5950 får ca 10% lägre resultat än 9800 Pro. Det här gäller inte i alla spel.

Givetvis är det inte så att båda grafikkorten är lika bra bortsätt från + 3% eller så, det är snarare så att skillnaden INTE är 10% som 3dMark säger.

Visa signatur

...man is not free unless government is limited. There's a clear cause and effect here that is as neat and predictable as a law of physics: As government expands, liberty contracts.

Permalänk
Hedersmedlem

I min mening är den här diskussionen löjeväckande, alla parter är jäviga (och konstigt vore väl annars). Vilket grafikkort som presterar bäst i 3DMark och på vilka grunder ser jag inte som det primära, det viktiga är ju hur det presterar i spel. Om du spelar ett flertal olika spel av olika karaktär kommer du med allra största säkerhet inte märka någon skillnad på ATI:s och Nvidia:s värstingkort (som det ser ut nu) även om det skiljer ”massor” av poäng i ”benchamark”-program. Mitt råd är istället att välj grafikkort efter pris och tillbehör (om det anses viktigt). Enda gången det enligt mig är vettigt att titta på specifika prestandasiffror om man spelar ett specifikt spel mycket och ett specifikt kort presterar så pass mycket bättre att man kan förhöja spelupplevelsen utan att prestandan blir lidande.

Visa signatur

"En gång ingen gång, två gånger en gånggång"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Psionicist
Nu tycker jag vi lugnar ner oss lite, problemet attackeras i fel vinkel. För att se hur tillförlitligt den nya 3dMark2003 egentligen är bör man inte trassla in sig i tekniska diskussioner isolerade till problemen med 3dMark, man bör först titta på spelen sedan se hur bra 3dMark överenstämmer med sanningen.

Men nu var det ju varken det som nyheten eller diskussionen handlade om.

Jag tycker inte själv heller att 3DMark är världsbäst. Har inte försökt påstå det heller. Har inte heller insinuerat att ATi är bra och nVidia dåliga.
Jag bara presenterar fakta i diskussionen. Och faktu´met vi har att göra med är att vad Wolfram sa inte var sant.

Angående hur väl det reflekterar spelprestanda så kan jag dock inte hålla med dig om att det skulle vara särskilt jämny. Speciellt inte i spel med avancerade shaders (dvs DX9) och det är ju just det som 3dmark förskte/försöker ge en prognos av.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

Psionicist: Hur snurrig är du? Inse att 3dmark 03 är ett DX9 test. Så om nuvarande spel har likvärdig prestanda på ATI och NVIDIAs nyaste kort så kan du inte dra några paralleller till att 3dmark 03 skulle vara felaktigt med denna stora skillnad som kommit fram! För de spel du pratar om använder inte ens DX9 fullt ut, därmed är dom en helt annan sak än 3dmark 03.

Visa signatur

“Our enemies are innovative and resourceful, and so are we. They never stop thinking about new ways to harm our country and our people, and neither do we.” - President Bush - August 5, 2004

Permalänk
Glömsk
Citat:

Ursprungligen inskrivet av SamiRaj
Psionicist: Hur snurrig är du? Inse att 3dmark 03 är ett DX9 test. Så om nuvarande spel har likvärdig prestanda på ATI och NVIDIAs nyaste kort så kan du inte dra några paralleller till att 3dmark 03 skulle vara felaktigt med denna stora skillnad som kommit fram! För de spel du pratar om använder inte ens DX9 fullt ut, därmed är dom en helt annan sak än 3dmark 03.

Såklart det är felaktigt. Att (om) det ändras i framtiden kan varken du eller jag svara på. Jag kommer inte hindra dig från att tro att det kommer bli värre sen, det är nuet jag är intresserad av, och i nuet överenstämmer inte 3dMark-poängen med verkligheten.

Visa signatur

...man is not free unless government is limited. There's a clear cause and effect here that is as neat and predictable as a law of physics: As government expands, liberty contracts.

Permalänk
Hedersmedlem

Detta rapporterar X-bit labs igen. intrigen tätnar - och 3dmark-soppan fortsätter..

Citat:

An official from NVIDIA Corporation confirmed Mr. Tismer’s accusation that “patch 340 disables the GPU compiler. The compiler has to run on the CPU instead resulting in code harder to digest and taking away 20% of the performance.” “Yes, that is actually the case with the new patch 340 that Futuremark posted,” said an NVIDIA spokesperson on Wednesday.

“Few weeks ago we released our 52.16 driver that includes our brand new unified compiler technology. With the new patch the benchmark, our unified compiler gets not used by the app so it goes to CPU and we are definitely slower,” Luciano Alibrandi, NVIDIA’s European Product PR Manager, added.

Visa signatur

SWECLOCKERS.COM :: If Quake was done today ::
WS: Gigabyte Z690 UD DDR5 :: Core i5 12600K :: 32 GB RAM :: Geforce RTX 3060 Ti :: 10 GbE NIC :: AOC C32G1 32" :: Seagate FireCuda 530 1TB :: Deepcool Matrexx 55
NAS: SM X10-SLM-F :: Mellanox Connect2X SFP+ :: Intel XL710-QDA1 QSFP+

Permalänk
Medlem

http://www.xbitlabs.com/articles/editorial/display/hl2.html

http://www.tomshardware.com/graphic/20031015/radeon9600xt-16....

Dx9 prestanda i spel. Kolla in toms tester oxå eftersom han lyckas för en gångs skull presentera en bench där Nvidia får stryk av ATI. När det händer kan man iaf kolla på testerna lite, även om de oftast till alla pris vill att Intel och Nvidia vill vinna tester ;P Se oxh skillnaden i Tomb raider benchen mellan chetonator 52 och en lite mindre fusk drivisen 43, lite skillnad eller?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av festisXP
man skulle förnärvarande kunna jämföra ati o nvidia med amd o intel....dvs amd kör linjen mindre mhz mer hästkrafter vilket intel inte gör :/ samma då med ati dom kör också med mindre mhz mer hästkrafter (AA + Aniso + dx9 funkar vilket det ska också eftersom det är dx9 kort dom tillverkar) bara att AMD o Intel är jämna eftersom amd inte har nån prolle som kör i samma mhz som intels vassaste :/ .....fast nu på i ATIs fall så har dom kort som både är lika snabba fast även har hästkrafterna (alltså klarar av det som deras skapare säger att dom skall klarar av ) så med andra ord är dom löjligt överlägsna tänk er själva om AMD skulle ge ut en Barton på 3.2ghz med 2mb minne HERREJÄVLAR ja då skulle intel kursa *skämt åsido* kursa skulle dom säkert inte göra :/

ATIs dx9 kort klarar av dx9 spel är inte det meningen ?

FX-serien är dx9 kort? va? helt otroligt löjligt e ju som om ati skulle sälja sina kort som dx10 kort

-"Nvidia the way youre meant to be played" <--lol

Än har snön inte falligt men vissa är tydligen redan rejält insnöade.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kr^PacMan
Detta rapporterar X-bit labs igen. intrigen tätnar - och 3dmark-soppan fortsätter..

Men som sagt: det här med att CPUn skulle ta en smäll är fortfarande bullshit.
Även är det bullshit att Futuremark stänger av något i nVidias drivrutiner.

Man kan sträcka sig så långt som att:
"Futuremark ändrar sin programkod så att nVidias optimeringar inte längre biter på 3DMark03"
Och det är ju exakt det som Futuremark själva säger att de gör.

Här är några utdrag ur mina diskussioner med Patric Ojala, vd för Futuremark:

Citat:

Not possible.

We send drawing instructions to DirectX, which converts them and sends them to the driver. We have no way what so ever to interact with the driver (and we have no way of knowing what the driver actually does with the instructions it gets, except maybe by checking the image quality afterwards). A GPU compiler without 3DMark03 identification should render version 340 exactly as fast as v330, also the rendering between these two versions should be per pixel identical.

Patric

Citat:

The only change in version 340 of 3DMark03 affecting the tests and results are minor changes in the shaders. These disable 3DMark03 specific shader identification and replacement. If the old shader for example added the numbers A, B and C by first adding A+B then adding C to the result of that, the new shader first adds B+C and then A to the result. The shaders are in other words mathematically identical and the resulting rendering also remains per pixel identical. One would believe that this would not affect the benchmark results at all, which it doesn't, unless the drivers contain benchmark specific identification and optimization. If the drivers identify 3DMark by taking a checksum of the shader instructions, this identification will not work anymore with small changes like this. This in turn makes the drivers render the 3DMark test the way we programmed it, instead of substituting the shaders in 3DMark with manually changed such by the driver programmers.
Running 3DMark03 using the shaders that comes with the benchmark, without identifying it in the drivers, is the only way to get genuinely comparable results.

Tjenis,
Patric

Men för att återgå till "CPU-dilemmat"...
Om Futuremark genom att ändra sin shaderkod förhindrar nVidias tillämpningsspecifika optimeringar (för det är det som "stängs av", nVidia kallar dessa optimeringar för "en del av deras Unified Compiler" vilket rent tekniskt inte klingar särkskilt väl) så matas kortet med råa shaderinstruktioner, dvs. de orörda instruktionerna som ser ut precis som Futuremark tänkts sig.

MEN, det finns två MEN här.
För det första så lär en lågnivå compiler FORTFARANDE fungera, dvs nVidias "Unified Compiler". Det är bara utbytet mot en manuellt skriven shader som inte längre fungerar.
För det andra: om Futuremark har programmerat om nVidias drivrutiner och gör detta "on the fly" medan 3DMark körs (vilket de aldrig skulle våga göra dessutom tror jag inte de har tillräcklig info för att kunna "reverse engineer":a drivrutiner på det sättet) så skulle som sagt instruktionerna gått direkt till kortet precis som de gjorde på pre-Detonato 5x.xx (dvs innan det ens fanns någon "Unified Compiler".

Jag tror inte ens de själva vet vad de menar med att något skulle köras på CPUn, skulle omorganiseringen av instruktioner ske på CPUn. I så fall:
1. Varför skulle CPUn göra jobbet?
2. Om nu CPUn gör jobbet: Varför skulle det ge en prestandahit? Det är bara ett fåtal shaders som ska laddas in vilket tar en bråkdel av en sekund så även om CPUn skulle göra jobbet räknar vi enstaka klockcyklar. En process som hinner ske under bråkdelen av den tid det tar att rendera en hel frame. Kort sagt prestandan skulle förändras i bråkdelar av en promille snarare än tiotals procent.

Varken nVidias eller Wolframs resonemang håller. Det är helt enkelt fel.
Sen har jag personligen inte fått en uppfattning av att Wolfram skulle vara direkt expert på den mer tekniska 3D-delen. Hans område, efter de telefonsamtal vi haft och när vi träffats, verkar snarare vara PCB-tillverkning och det som tillhör detta område. Där är han en jäkla fena och jag tror inte många skulle ha en suck i en diskussion med honom inom det ämnet.
Men just de mer intima delarna av en 3D-pipeline eller en drivrutin verkar inte vara hans främsta område. (Visst han vet ju lååååångt mer än "Avarage Joe", men det i sig behöver inte betyda att han är någon slags auktoritet inom ämnet.)

Egentligen är ju inte det så konstigt: det är ju knappast Gainward som programmerar varken drivrutiner eller tillverkar chipen. Tredjepartstillverkarna (som Gainward tex.) har ju inte ens full insikt i vad som försigår i nVidias drivrutiner (inte för att nVidia vill lura någon men att låta halva jordklotet veta ens innsersta hemligheter även om de för tillfället är ens partners är knappast en god idé) eller ens deras chip.
Dvs. om han skulle vara überinsatt så vore det av rent personligt intresse och helt ärligt så tror jag inte en man i Wolframs framträdande position har tid att vara drivrutinsdetektiv. Snarare får han sin info från nVidia direkt helt enkelt.

På tal om att få info från nVidia så är det inte första gången vi fått sådana här underliga förklaringar.

Under året har nVidia också sagt att de inte sänkt bildkvalitén i 3DMark03. Detta sa de då de bytte ut shaders och ersatte dem med shaders som hade betydligt lägre precision och alldeles uppenbarligen sänkte kvalitén.
Ren och skär lögn i samband med 3DMark03.

De påstod att de inte alls hade några optimeringar i 3DMark03 när de först blev påkomna. Istället påstod de att det bara var buggar. Senare erkände de att det var optimeringar.
Ren och skär lögn i samband med 3DMark03.

De har också sagt att deras optimeringar måste skapa exakt likvärdig kvalité: ändå använder de sig av "brilinear" som ni själva rapporterat om här på Swec:
Ren och skär lögn i samband med optimeringar.

Varför lita på dem denna gång, nu när deras argument inte ens håller rent tekniskt?

Missförstå mig inte.
Jag är inte ute efter att bevisa dig fel, snarare att bevisa deras uttalande felaktiga.

Inte för att jag tycker att Futuremark är bäst i världen, jag använder inte ens 3DMark till recensioner.
Inte för att bevisa att nVidia är dåliga: helt enkelt eftersom detta inte är ett spel så i slutändan för slutkonsumenten kvittar det vad som händer i just 3DMark: OM de är medvetna om vad som händer, varför och hur allt ligger till.

Framförallt tycker jag bara att det är roligt att diskutera. Jag bryr mig inte direkt om vad nVidia gör i 3DMark, men lite kinkig blir jag allt när en massa lögner och falska anklagelser mot Futuremark börjar flyga runt.
Men i slutändan så är det ju också många som baserar sina inköp på 3DMark och då är det ju viktigt att folk vet vad som ligger bakom dessa scores.

Men som många andra nämnt: 3DMark03 är inget spel. Det säger egentligen allt.
Hela den här karusellen påverkar ju faktiskt inte hur nVidia presterar i spel och i mina ögon är det det som har verklig betydelse.

Visa signatur

Från den andra sidan. :)

Permalänk
Glömsk

Rotade lite på B3Ds forum och hittade den här tråden: http://www.beyond3d.com/forum/viewtopic.php?t=8986

Se WaltCs inlägg. Väldigt klockrent skrivet.

Visa signatur

...man is not free unless government is limited. There's a clear cause and effect here that is as neat and predictable as a law of physics: As government expands, liberty contracts.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Psionicist
Rotade lite på B3Ds forum och hittade den här tråden: http://www.beyond3d.com/forum/viewtopic.php?t=8986

Se WaltCs inlägg. Väldigt klockrent skrivet.

Jepp WaltC slår huvudet på spiken.
Samma sak som jag (bland annat) försökt få fram bara det att WaltC inte behövde fyra A4-sidor på sig och dessutom lyckades bättre.

Hehe damn, jag kanske borde gå en retorik-kurs.
Eller så får jag väl skylla på att jag inte känne rmig hemma i att föra denna typ av diskussioner på svenska (Vilket är synd; det är lite dåligt med "avancerade" diskussioner på svenska i allmänhet både på Swec, NH och 64bits.)

Visa signatur

Från den andra sidan. :)

Permalänk
Glömsk
Citat:

Ursprungligen inskrivet av AnteP
Jepp WaltC slår huvudet på spiken.
Samma sak som jag (bland annat) försökt få fram bara det att WaltC inte behövde fyra A4-sidor på sig och dessutom lyckades bättre.

Hehe damn, jag kanske borde gå en retorik-kurs.
Eller så får jag väl skylla på att jag inte känne rmig hemma i att föra denna typ av diskussioner på svenska (Vilket är synd; det är lite dåligt med "avancerade" diskussioner på svenska i allmänhet både på Swec, NH och 64bits.)

Det är mycket bekvämare att länka än att skriva själv ibland.

Visa signatur

...man is not free unless government is limited. There's a clear cause and effect here that is as neat and predictable as a law of physics: As government expands, liberty contracts.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Psionicist
Det är mycket bekvämare att länka än att skriva själv ibland.

Jo det är ju sant.

Men visst vore det roligt om man kunde få upp nivån på de tekniska diskussionerna lite sådär i allmänhet i det svenska "datorcommunityt" så att säga?

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

En annan tomte med huvet på skaft:

"That part of NVIDIA's UCT ( Unified Compiler Technology ) which are shader replacements should never be called "Compiler", or even "GPU Compiler" as someone from Gainward said. But PR and Marketing did their job, and that's what we got now.

FM disables the "shader replacement" part of UCT. The legit parts remain used. NVIDIA is trying to keep face by claiming it disables UCT as a whole, which it doesn't."
- Uttar, den magiska 16-åringen komprimerar allt till två korta stycken text.

http://www.nvnews.net/vbulletin/showthread.php?s=&threadid=20...

Tänk om man kunnat så mycket när man var så liten, då hade man nog varit... smart just nu..

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AnteP

Men visst vore det roligt om man kunde få upp nivån på de tekniska diskussionerna lite sådär i allmänhet i det svenska "datorcommunityt" så att säga?

Det behövs kunskap för att delta i diskussioner ala' B3D och frågan är om det är så många som är tillräckligt pålästa i ämnet på Swec/NH.
Själv läser jag det mesta som skrivs där men jag fattar inte ett jota om shaders etc, så tyvärr kan jag inte hoppa in i debatten
Men man lär sig lite iaf..

Men du som kan en hel del om detta, skriv lite "tekniska" artiklar på NH och dra igång intresset så kanske vi får några trådar i grafikkortsforumet som inte handlar om vilket kort man ska köpa i 2000 kr-klassen