"Nvidia lurar 3DMark"

Trädvy Permalänk
Avstängd
Plats
Västervik
Registrerad
Jan 2004

Tycker det är fel att AMD ska säga det (barnfasoner). Gillar inte heller att AMD/Nvidia kastar skit på varandra över huvud taget. Hade det varit 3DMark själva som sagt att Nvidia lurar dom så hade det varit en helt annan sak

AMD Phenom II 955BE x4 @3.61GHz|SamSung 2 x 500GB 7200 RPM|Asus M4A79T Deluxe|4GB OCZ Black Edition 12800@1600MHz|Sapphire HD5870 1GB RAM|OS varierar, men mest Win XP x64

Trädvy Permalänk
Medlem
Plats
Sundsvall
Registrerad
Jul 2001

Tja om en vecka vet vi om CUDA funkar på alla ATI HD kort.

Well... well... sadly, the HD 4800 family won't be supported, because AMD thinks NGOHQ.com is not worthy enough to borrow review samples (definitely a bad idea). Anyway, expect to see some cool demo video in several days-weeks. Remember, it takes a lot of time and work to make CUDA compatible enough with Radeon to get it to fully work without any issues.
http://www.ngohq.com/news/14219-physx-gpu-acceleration-radeon...

ATI Runs PhysX With Modified Drivers.
http://www.tomshardware.com/news/nvidia-physx-ati,5764.html

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Trädvy Permalänk
Medlem
Plats
Trelleborg
Registrerad
Sep 2003
Citat:

Ursprungligen inskrivet av Hunter(Swe)
Tycker det är fel att AMD ska säga det (barnfasoner). Gillar inte heller att AMD/Nvidia kastar skit på varandra över huvud taget. Hade det varit 3DMark själva som sagt att Nvidia lurar dom så hade det varit en helt annan sak

Någon måste ta upp det.

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Apr 2003
Citat:

Ursprungligen inskrivet av mr_krut
Jävligt idiotiskt angrepp från AMD's sida. Det är ungefär lika dumt som att Intel skulle anklaga Nvidia och AMD för att deras kort stöder DX10 och kan köra 3DMark Vantage. Självklart använder sig Nvidia av deras fysikteknik som deras kort stöder om dom kan de. Skärp er AMD och gör kort som klarar av fler saker istället för att kasta sand på barnen bredvid!

Men om de andra barnen har så mycket sand i ögonen så att de inte ser, så är det lättare ett erövra sandlådan...

System: CPU: 4790K, MB: Asus Z97-A, Memory: 16GB DDR3, GPU: 1x GTX 1070

Trädvy Permalänk
Medlem
Plats
Skåne
Registrerad
Feb 2006

Har för mig att dom fuskade med Crysis med..

Vattenkylt SilverStone FT02B, i7 2600k, Asus P8Z68 Deluxe, Corsair AX 850W, Corsair 8GB VENGEANCE BLUE, Asus GTX 570 SLI, Asus Xonar Essence STX, OCZ Vertex2 60GB, WD Black 1TB, 2x WD Green 2TB, 2x Seagate 500GB.
//Rhalla

Trädvy Permalänk
Chefredaktör
Jacob Hugosson
Plats
Gävle
Registrerad
Okt 2007
Citat:

Ursprungligen inskrivet av rhalla
Har för mig att dom fuskade med Crysis med..

Crysis är mer optimerat för GeForce SLI bara.

Det som Nvidia troligen fuskade med var att ta bort DX 10.1 stödet till Assasins Creed som gav kort från ATI 20% boost

Kontaktas enklast via PM, nyhetstips skickas helst genom SweClockers kontaktformulär. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Trädvy Permalänk
Medlem
Plats
Ängelholm (Munka-Ljungby)
Registrerad
Nov 2005

Jahopp !
Så var det dax igen !
Samma sak var ju på tapeten för snart (2?) år sedan om jag inte missminner mig.
Tycker det är märkligt att det ena företaget skall lägga sig i hur det andra gör (optimerar) sina drivrutiner.
Om jag inte har helt fel så är det just därför det kommer nya versioner hela tiden, just för att man OPTIMERAR dem samt rensar dem från buggar o läggar till mer kompabilitet för spel osv...
Mycket märkligt utspel från AMD må jag säga, speciellt när de har fått till en MYCKET bra svit med nya grafikkort som till o med jag tror på.
Har själv kört med Nvidia sedan 4600TI kom ut, men har i skrivande stund 2 st HD4850 liggandes på posten.

/Homer_S1

INTEL Core i7 8700K @ 4.7GhZ| Gigabyte GA-Z370 Gaming 5 | NVidia GTX1080 TI| ASUS Xonar Essence stx II | 2x8Gb Vengeance PRO RED 3200 MhZ DDR4 | Samsung 950-Series PRO 256Gb M.2 | EVGA Supernova 1300WATT 80+ Gold| 27" Acer Predator XB271HU IPS| G910 Orionspark & G900 Chaos Spectrum | Sennheiser PC363D Headset

Trädvy Permalänk
Medlem
Plats
Västra Götaland
Registrerad
Mar 2006

Var det bara jag eller flög en paj precis förbi i luften?

Trädvy Permalänk
Medlem
Plats
Enköping
Registrerad
Nov 2002

Klart att detta ska räknas i 3dmark. Det är ju en prestandahöjjande egenskap. Troligen kommer vi få se mer fysik beräkningar av grafikkorten i framtiden, nvidia vara bara lite snabbare ut med det denna gång. Sen kan man ju kritisera 3dmark litegrann kanske för lite missvisande resultat. De kanske skulle fokusera lite tydligare på en allround poäng. Det nvidia gör här är ju framförallt att förbereda inför spel som kräver mer fysikberäkningar i framtiden så att systemet inte går på knäna helt då.

Hade jag varit ati så skulle jag nog varit lite tyst angående 3dmark optimeringar då ati ett par generationer bakåt presterat väldigt mycket bättre i 3dmark än i spel. Det kan ju tåla att diskuteras.

Är det bara i denna branch man är så omogna så man kommenterar konkurentens produkter. När Gigabyte kritiserade asus blev det ett jävla liv, här verkar företagen tycka det är ok.

Trädvy Permalänk
Medlem
Plats
vimmerby
Registrerad
Feb 2005
Citat:

Ursprungligen inskrivet av acana79
http://www.theinquirer.net/gb/inquirer/news/2008/06/26/nvidia...

Tja...varför klanka ner på en metod som mer effektivt kan hantera fysik? Nvidia köpte ju PhysX just för att implementera hårdvarustöd för fysik i deras grafikkort. Smart drag skulle jag vilja påstå.
Borde inte det viktigaste vara vad korten faktiskt presterar, inte hur? Om någon ändra spelreglerna till fördel för dom själva är det givetvis fel. Men båda tillverkarna utsätts för samma tester/problem, men man använder olika metoder för att lösa problemen.

Grattis Nvidia skulle jag vilja säga...!

Grejen är ju den att nu går hela kortet in för fysiken och inte bara en liten del . Så kan det aldrig vara när du tex spelar då grafikkortet är upptaget med annat .

Ghost S1 Large Top,Intel 9900K,Kraken X62,Z390 Phantom Gaming-ITX,32 GB GSKILL LED@CL14@3740,Nvidia 2080ti, Samsung 970 EVO 1TBx2 Raid0, Dell UP3218K,HP OMEN 35

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Sep 2004

Detta handlar inte om att Nvidia optimerar sina drivrutiner, det använder GPUn i ett testprogram där programmet SKA testa CPUn, i spel har du inte den möjligheten då GPUn har fullt upp med att rita upp grafiken, men nu, när man testar GPU och CPU separat så fungerar det, men det är BARA i 3Dmark som detta är möjligt. Tanken Nvidia har med att köra PhysX på ett sekundärt kort och grafiken på det primära, inte i SLI altså, utan ett av korten dedikerade till fysik, ett till grafiken, men om man i detta test tar det enda grafikkort till fysiken så finns det inget kvar till grafiken. vilket är orimligt.

Men nu är det ju så att Nvidia itne ens vågar lämna in dessa drivrutiner för godkännande, för att dom VET att det är fusk, så det är ju egentligen inte något att diskutera mer.

WS1: | Asus RoG Strix X470 Gaming-F | Ryzen 7 2700x | 32gb G.Skill Flare X | AMD Radeon 7 16GB | Corsair RM650i | Lian-Li PC-O11 Dynamic | Corsair H100i | SRVR: | AsRock AB350 Gaming/mITX | Ryzen 5 2400G With Vega 11 | 8gb | FD Array | ESX Srvr | Mac Pro 5.1 | 2x Xeon X5650 | 64GB ECC DDR3

Trädvy Permalänk
Medlem
Registrerad
Apr 2006

Det är absolut inget fusk av Nvidia med tanke på att de visar ju vad deras kort kan göra...

CPU i9-9900k MB ASUS ROG STRIX Z390-E GAMING RAM Corsair VENGEANCE RGB 2x8GB DDR4 3200MHz Case Corsair 900D PSU EVGA G3 850W Cooling XSPC D5 RX480+RX360 Monitor Philips 65PUS6262/12 SSD Samsung EVO970 500GB EVO 860 500GB HDD 1x WDC Red 10TB 1x Red 4TB 1x Black 4TB Audio DENON 2313 | DALI Zensor 7,5,1, Vokal, SUB E-12F

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Aug 2004

tycker den här diskussionen har varit på tapeten ganska länge, själv tycker jag det verkar ganska orimligt att nVidia och 3DMark skulle samarbeta..

Error: Keyboard not attached. Press F1 to continue.
< Intel Core i7 2600K @ 4,4 GHz | Asus P8P67 Deluxe B3 | Corsair Vengeance 2x 4GiB 1,6 GHz CL8 | Asus GTX 780 DirectCuII >

Trädvy Permalänk
Medlem
Plats
Umeå
Registrerad
Okt 2004

Är ju enkelt att avgöra om detta "fusk" har något syfte annat än att ge en högre 3dmark score.

Testa ett spel med äldre vs nya drivern som använder physx.

Det troliga är att fps är exakt samma pga att gpu har inte tid att göra mer physx instruktioner då den är upptagen med annan grafik renderering.

I fallet med 3dmark är det som många sagt en special miljö där grafikkortet egentligen är idle medan med den nya drivern så jobbar det fullt med physx.
Hur många spel som behöver fysik indstruktioner kan ni lira undertiden grafikkortet idlar?

Trist att de gör så här..ingen är dock oskyldig men är inte detta egentligen ett grymt bra betyg på Ati denna generation? ..varför skulle de annars göra en optimering enbart för ett bench prog?

i7-3770k | AMD 7970

Trädvy Permalänk
Avstängd
Plats
Jönköping
Registrerad
Jul 2001
Citat:

Ursprungligen inskrivet av Ecchi-BANZAII!!!
Det är absolut inget fusk av Nvidia med tanke på att de visar ju vad deras kort kan göra...

Nej, det är just det de ljuger om.

3Dmark ska mäta hur bra datorn är på spel. Men för att man ska få lite detaljer testar den CPU och GPU vid olika tillfällen. Men genom att använda en GPU vid båda mätningarna så kan nVidia visa en skev bild av prestandan. För i spel så är GPUn upptagen med grafiken.
nVidia utnyttjar det faktum att testet delas upp, så att GPUn, som i riktiga spel varit upptagen med nu kan användas för att höja prestandan på CPU testen.

Skulle 3Dmark inte ge dessa detaljerade informationer utan bara testat allt i ett svep så hade ju inte nVidia får alls lika hög poäng eftersom de inte kunnat utnyttja GPUn som PhysX kort samtidigt som den gör grafik. Hade de haft ett dedikerat grafikkort som gjorde PhysX endast så hade det varit lugnt. Men nu använder de kraft som inte kan användas i spel.

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007

Jag tycker som sagt att det är Futuremark som klantat till det riktigt rejält.
Nvidia gick ut med att dom skulle köpa Ageia andra Februari, 3DMark släpptes tre månader senare.
Att Nvidia skulle möjliggjöra PhysX på sina kort har varit känt sen dom köpte det, varför Futuremark då valt att skapa ett deltest som ensidigt gynnar en aktör är en gåta.

Och Nej; testet speglar inte hur hårdvaran presterar i spel, knappt några spel stödjer PPU-kort, och de få som gör det använder den så lite så CPU:n klarar uppgiften lika bra.

AMD Ryzen 7 1700 | Vega RX 64 Super | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Sthlm/Södermalm
Registrerad
Maj 2004
Citat:

Ursprungligen inskrivet av Smartidiot89
Crysis är mer optimerat för GeForce SLI bara.

Det som Nvidia troligen fuskade med var att ta bort DX 10.1 stödet till Assasins Creed som gav kort från ATI 20% boost

Det han syftade på var när nvidia sänkte bildkvaliteten i Crysis för att få högre FPS, bl.a. genom att rita vattnet fult.
http://www.elitebastards.com/cms/index.php?option=com_content...
Genom att byta namn på crysis.exe-filen fick man drivrutinen att rita allt på rätt sätt igen (men inte lika höga scores).

Av någon underlig anledning hände detta bara med den drivrutin (169.04) som man skickade ut till pressen och bad dem benchmarka Crysis med. Ungefär som man nu alldeles nyss bad pressen benchmarka 3DMark Vantage med 177.39 (det denna tråd handlar om).... eller som när man bad pressen benchmarka HD HQV med 163.11-drivarna
http://www.xtremesystems.org/forums/showthread.php?t=157297
http://www.dailytech.com/article.aspx?newsid=8608

Här ser man Anandtechs review som använder just dessa drivare
http://www.anandtech.com/video/showdoc.aspx?i=3047&p=1
... och här ser man hur Rick Allen, nvidias talesman går ut och säger att drivarna var gamla
http://www.nforcershq.com/amd-alleges-nvidia-cheats-in-hd-hqv...
.. gamla? GAMLA? De skickades ut till pressen bara ett par dagar innan testerna!
... och anandtech har givetvis inte gått ut och sagt att de blivit lurade - det skulle sänka deras trovärdighet och vara katastrofalt eftersom deras roll som recensionssajt bygger på just trovärdighet...

Mönstret upprepar sig: nvidia kommer på ett nytt sätt att fuska, oftast i samband med nån release (PhysX, Crysis, 8600-serien), skriver beta-drivrutiner som implementerar fusket, och skickar ut till journalister. Många (de flesta?) journalisterna kör sedan blint igenom just exakt de benchmarks nvidia specificerat, och sprider en bild av att nvidias fusksiiffror är korrekta. När nån journalist (eller ATI) i efterhand viftar med en röd flagga, är det för sent - få journalister vill medge att de blivit lurade, och nvidia skyller allt på 'buggar' i sina betadrivrutiner.

Trädvy Permalänk
Moderator, Testpilot
f.d. Dinoman 🦖
Plats
Älmhult
Registrerad
Jan 2002
Citat:

Ursprungligen inskrivet av lincoln
Det han syftade på var när nvidia sänkte bildkvaliteten i Crysis för att få högre FPS, bl.a. genom att rita vattnet fult.
http://www.elitebastards.com/cms/index.php?option=com_content...
Genom att byta namn på crysis.exe-filen fick man drivrutinen att rita allt på rätt sätt igen (men inte lika höga scores).

Av någon underlig anledning hände detta bara med den drivrutin (169.04) som man skickade ut till pressen och bad dem benchmarka Crysis med. Ungefär som man nu alldeles nyss bad pressen benchmarka 3DMark Vantage med 177.39 (det denna tråd handlar om).... eller som när man bad pressen benchmarka HD HQV med 163.11-drivarna
http://www.xtremesystems.org/forums/showthread.php?t=157297
http://www.dailytech.com/article.aspx?newsid=8608

Här ser man Anandtechs review som använder just dessa drivare
http://www.anandtech.com/video/showdoc.aspx?i=3047&p=1
... och här ser man hur Rick Allen, nvidias talesman går ut och säger att drivarna var gamla
http://www.nforcershq.com/amd-alleges-nvidia-cheats-in-hd-hqv...
.. gamla? GAMLA? De skickades ut till pressen bara ett par dagar innan testerna!
... och anandtech har givetvis inte gått ut och sagt att de blivit lurade - det skulle sänka deras trovärdighet och vara katastrofalt eftersom deras roll som recensionssajt bygger på just trovärdighet...

Mönstret upprepar sig: nvidia kommer på ett nytt sätt att fuska, oftast i samband med nån release (PhysX, Crysis, 8600-serien), skriver beta-drivrutiner som implementerar fusket, och skickar ut till journalister. Många (de flesta?) journalisterna kör sedan blint igenom just exakt de benchmarks nvidia specificerat, och sprider en bild av att nvidias fusksiiffror är korrekta. När nån journalist (eller ATI) i efterhand viftar med en röd flagga, är det för sent - få journalister vill medge att de blivit lurade, och nvidia skyller allt på 'buggar' i sina betadrivrutiner.

Problemet är att majoriteten av de folk som sitter och skriver och kör tester på hårdvarusidorna inte är journalister och skall inte heller kallas för journalister.

Att kritiskt granska sina källor är inget dem gör i någon större uttsträckning. Många gånger har de flesta av de också en ohällsosamt god relation med företaget. Speciellt med tanke på att dem ofta får hårdvara m.m.

Håller med Ratatosk dock att det är klantigt av Futuremark att ens ta med fysik i beräkningen, i så fall hade dem väl lika gärna kunnat ha ett PPU-test? Varför inte liksom?

Asus Maximus VII Hero - Intel Core i7 4770K @ 4,6Ghz - Corsair H110i - 16GB RAM - ASUS ROG STRIX 1080 Ti @ 2000/12 000MHz - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz

Trädvy Permalänk
Medlem
Plats
Karlskrona
Registrerad
Feb 2007

Nu är jag iofs rätt sen med att kommentera nyheten, men jag är rätt förvånad att inte fler inser det som pekkasteele och lincoln redan påpekat ett flertal gånger.

Nu är det ju futuremark som lämnat ett "kryphål" i sitt program och nVidia utnyttjar det för att höja sin poäng.
Ni som säger att det är en "feature" och att nVidia självklart ska få använda sig av det, har ni ens tänkt på vad följden skulle bli om man körde fysikberäkningarna på grafikkortet samtidigt som grafikkortet användes till 3d-beräkningar?

AMD 1800X@Noctua NH-U12F | asus prime x370pro | MSI ARMOR 1070 8GB| 4x8GB Corsair Vengeance DDR4 3GHZ | NZXT H440 | CoolerMaster V850 | NVME 1TB WD BLACK + 240GB*3 SSD | Samsung C34J791 | DELL 2713HM | Coolermaster quickfire | Razer Deathadder 2013.

Phenom X6 1045T | Corsair TWIN2X PC6400C4DHX 2x2GB + Crucial Ballistix Sport 2x2GB | Gigabyte ma785gmt-us2h | Silverstone Temjin 08 | Corsair VX450

Trädvy Permalänk
Avstängd
Plats
Bohus
Registrerad
Mar 2008

ett CPU test som använder ett instickskort? moget

Trädvy Permalänk
Hjälpsam
Plats
Karlskoga
Registrerad
Jan 2007
Citat:

Ursprungligen inskrivet av DeluxXxe
Nu är jag iofs rätt sen med att kommentera nyheten, men jag är rätt förvånad att inte fler inser det som pekkasteele och lincoln redan påpekat ett flertal gånger.

Nu är det ju futuremark som lämnat ett "kryphål" i sitt program och nVidia utnyttjar det för att höja sin poäng.
Ni som säger att det är en "feature" och att nVidia självklart ska få använda sig av det, har ni ens tänkt på vad följden skulle bli om man körde fysikberäkningarna på grafikkortet samtidigt som grafikkortet användes till 3d-beräkningar?

Det är klart att resultaten inte speglar verkligheten på något som helst sätt.
Men jag vill dela upp detta i delar.

1) Är detta ett vettigt test?
Nej, få spel stödjer funktionen och bara en liten del av GPU:n kan användas till fysikberäkningar, resten måste anvädas till grafik.
Felet är Futuremarks.

2) Är det fel av Nvidia att möjliggjöra fysikberäkningar på grafikkortet?
Nej, om tex 10% av GPU:n används till fysik kan det ge lite bättre flyt i något enstaka spel.

3) Är det rätt av testsaiter att köra dessa tester?
Nej, även om Nvidia håller på att göra på sig av upphetsning, skall saiterna vara källkritiska och dom skall orka stå emot tillverkarna.
Felet är testsaiternas.

Vad som nu skett enligt min mening, är att 3DMark Vantage blivit fullständigt meningslöst och att Futuremark tappat all trovärdighet, som tillverkare av benchmarkprogram.

AMD Ryzen 7 1700 | Vega RX 64 Super | 64 GB Corsair @2933 MT/s | https://valid.x86.fr/fgqnte | Stockkylaren | Bitfenix Whisper M 750W.
AMD FX8350 | Polaris RX 460 4 GB | 32 GB Kingston ECC | https://valid.x86.fr/0q5pkm | Cooler Master V 700W.
HTPC | https://valid.x86.fr/ez1zxw |

Trädvy Permalänk
Medlem
Plats
Dalarna
Registrerad
Sep 2006
Citat:

Ursprungligen inskrivet av Kazutoyo
Det enda ATI fusk jag kommer ihåg är deras Quake 3 grej.

NVIDIA fuskade dock med 3DMark under våren 2003, så deras 5xxx serie skulle få bättre resultat.

nvidia fuska i crysis också

| ASUS P8Z77-V DELUXE | Intel Core i7 2700K @ 4.7Ghz | 16GB Corsair Vengeance 1600Mhz @ 8-8-8-24 |
| ATi Radeon HD 6950@6970 (900|1350Mhz @ 1.14v) | Corsair Force GT 120GB | Corsair HX 650W |
| Nvidia's GT300 yields are less than 2% | Min ArmA2 YouTube Kanal |

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Feb 2005

Som jag sagt, tolka det som ni vill, men att nvidia ens har stöd för det är ett plus.
Varför inte använda det.

Sen att nvidia fuskat i Crysis kan man diskutera vidare. Jag anser det inte som fusk, då de fixade det i drivrutinerna som kom därpå samt hade samma prestanda.

Hade ATi haft möjligheten att beräkna fysikberäkningar på sina kort tvivlar jag inte en sekund på att de hade gjort det.

|Intel i5 4670K@4.4GHz| |Asus Z97-A| |A-Data 16GB CL9 1600MHz| |ASUS GeForce GTX 1080 Ti ROG Strix Gaming OC| |Samsung 860 Evo 1TB| |Samsung 850 Evo 500GB| |Samsung 840 Evo 250GB| |WD Green 3TB| |Corsair RM1000| |Fractal Design Define R5| |LG IPS Display@74Hz|

Trädvy Permalänk
Medlem
Plats
Lappland
Registrerad
Feb 2008
Citat:

Ursprungligen inskrivet av Devil May Cry

Hade ATi haft möjligheten att beräkna fysikberäkningar på sina kort tvivlar jag inte en sekund på att de hade gjort det.

Vi får väl se om dom använder detta http://mikrodatorn.idg.se/2.1030/1.170182

Trädvy Permalänk
Medlem
Plats
Ålesund
Registrerad
Jun 2002

Haller med om att det ar till stor del futuremarks fel, de har klantat sig men Nvidia har ganska tydlig utnyttjat kryphalet vilket ar fult. Jag tycker att det ar mycket fulare att optimera for 3dMark an for spel. Detta eftersom om en drivrutin ar optimerat for ettvisst spel sa kan anvandarna i alla fall utnyttja det men 3dMark ar ju bara ett testprogram och ar inte alls lika roligt som ett spel
Futuremark borde komma med en patch snart som haller koll pa vilket grafikkort som anvands till 3d berakningar och sen inte inkludera det i cpu testet...

Trädvy Permalänk
Medlem
Plats
Örebro
Registrerad
Feb 2005
Citat:

Ursprungligen inskrivet av Chibariku
Vi får väl se om dom använder detta http://mikrodatorn.idg.se/2.1030/1.170182

Dock är det det inte AMD som gjort, alltså inoffeciellt. Klart inte AMD använder physX då när de precis anklagat nvidia. Hade det från första början varit omvända roller hade de gjort det.

|Intel i5 4670K@4.4GHz| |Asus Z97-A| |A-Data 16GB CL9 1600MHz| |ASUS GeForce GTX 1080 Ti ROG Strix Gaming OC| |Samsung 860 Evo 1TB| |Samsung 850 Evo 500GB| |Samsung 840 Evo 250GB| |WD Green 3TB| |Corsair RM1000| |Fractal Design Define R5| |LG IPS Display@74Hz|

Trädvy Permalänk
Medlem
Registrerad
Jan 2003
Citat:

Ursprungligen inskrivet av Devil May Cry
Som jag sagt, tolka det som ni vill, men att nvidia ens har stöd för det är ett plus.
Varför inte använda det.

Sen att nvidia fuskat i Crysis kan man diskutera vidare. Jag anser det inte som fusk, då de fixade det i drivrutinerna som kom därpå samt hade samma prestanda.

Hade ATi haft möjligheten att beräkna fysikberäkningar på sina kort tvivlar jag inte en sekund på att de hade gjort det.

Håller helt med gällande Crysis "fusket". Att släppa nya drivrutiner så snabbt ändå med bibehållen prestanda tydde snarare på att någon klantat sig när de optimerade.

Det är inte Nvidias fel att futuremark använder PPU under CPU testet.
Att Nvidias grafikkort tar över rollen som PPU när den idlar är ju då futuremarks fel.

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Trädvy Permalänk
Medlem
Plats
Stockholm
Registrerad
Mar 2004

Jo, Nvidia fuskar, fast kanske inte som ni tror...

Jag har 2 x HD4850 + ett Ageia physX kort (hur sällsynta dom än är...).
De senaste drivers som nvidia levererat till PhysX fungerar inte på
mitt physX kort, jag måste använda gamla, antagligen för att man
inte med ett ATI system ska kunna få samma prestanda.....

Antagligen fungerar bara physX kortet ifall man har Nvidia grafik....

/Daniel

Trädvy Permalänk
Medlem
Plats
Scania-Earth-Milky way
Registrerad
Nov 2001
Citat:

Ursprungligen inskrivet av mortifer666

Det är inte Nvidias fel att futuremark använder PPU under CPU testet.
Att Nvidias grafikkort tar över rollen som PPU när den idlar är ju då futuremarks fel.

Det krävs mixtrande med drivrutiner för att få grafikkortet att användas för PPU-beräkningar, och nVidia ger instruktioner om hur man gör för att höja poängen. Dessutom rekommenderar nVidia att testa i 'performance' då CPU-testen har störst inverkan på slutresultatet i den testen. I 'extreme' har CPU-testen mindre inverkan på slutresultatet, och denna testen är inte lämplig att testa i enligt nVidia.

nVidia har inte lämnat in drivrutinen för godkännande till Futuremark, eftersom de vet att den aldrig kommer godkännas.

Poäng som fås med nämda drivrutin kommer inte på topplistan, så poängen blir inofficiella, men det hindrar inte nVidia och test-sajter att sprida resultatet.

nVidia har hittat ett sätt att manipulera 3Dmark-poängen, och utnyttjar det till att kunna presentera höga prestandasiffror..

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Trädvy Permalänk
Medlem
Registrerad
Apr 2002
Citat:

Ursprungligen inskrivet av Devil May Cry
Som jag sagt, tolka det som ni vill, men att nvidia ens har stöd för det är ett plus.
Varför inte använda det.

Att det har stöd för det är ju självklart ett plus. Tror inte det finns nån som inte tycker det. Det är ju sättet som det används på i 3DMark som ifrågasätts.

I detta fall kan nVidias kort tillgodoräkna sig poäng genom nåt som de i praktiken inte kan göra då ditt grafikkort skulle vara belastat med andra uppgifter som flera redan skrivit.

Felet ligger till största del hos Futuremark enligt mig. Att nVidia sedan utnyttjar det är jag inte alls förvånad över... Och ja för de som kommer påpeka det, ATI har "fuskat" i 3DMark också men inte i närheten av samma grad. De har varit betydligt duktigare på att rätta sig efter det regler Futuremark har satt upp.