"Nvidia lurar 3DMark"

Permalänk
Avstängd

Tycker det är fel att AMD ska säga det (barnfasoner). Gillar inte heller att AMD/Nvidia kastar skit på varandra över huvud taget. Hade det varit 3DMark själva som sagt att Nvidia lurar dom så hade det varit en helt annan sak

Visa signatur

AMD Phenom II 955BE x4 @3.61GHz|SamSung 2 x 500GB 7200 RPM|Asus M4A79T Deluxe|4GB OCZ Black Edition 12800@1600MHz|Sapphire HD5870 1GB RAM|OS varierar, men mest Win XP x64

Permalänk
Medlem

Tja om en vecka vet vi om CUDA funkar på alla ATI HD kort.

Well... well... sadly, the HD 4800 family won't be supported, because AMD thinks NGOHQ.com is not worthy enough to borrow review samples (definitely a bad idea). Anyway, expect to see some cool demo video in several days-weeks. Remember, it takes a lot of time and work to make CUDA compatible enough with Radeon to get it to fully work without any issues.
http://www.ngohq.com/news/14219-physx-gpu-acceleration-radeon...

ATI Runs PhysX With Modified Drivers.
http://www.tomshardware.com/news/nvidia-physx-ati,5764.html

Visa signatur

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Hunter(Swe)
Tycker det är fel att AMD ska säga det (barnfasoner). Gillar inte heller att AMD/Nvidia kastar skit på varandra över huvud taget. Hade det varit 3DMark själva som sagt att Nvidia lurar dom så hade det varit en helt annan sak

Någon måste ta upp det.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mr_krut
Jävligt idiotiskt angrepp från AMD's sida. Det är ungefär lika dumt som att Intel skulle anklaga Nvidia och AMD för att deras kort stöder DX10 och kan köra 3DMark Vantage. Självklart använder sig Nvidia av deras fysikteknik som deras kort stöder om dom kan de. Skärp er AMD och gör kort som klarar av fler saker istället för att kasta sand på barnen bredvid!

Men om de andra barnen har så mycket sand i ögonen så att de inte ser, så är det lättare ett erövra sandlådan...

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Har för mig att dom fuskade med Crysis med..

Visa signatur

Vattenkylt SilverStone FT02B, i7 2600k, Asus P8Z68 Deluxe, Corsair AX 850W, Corsair 16GB VENGEANCE BLUE, Asus GTX 570 SLI, Asus Xonar Essence STX, OCZ Vertex2 60GB, WD Black 1TB, 2x WD Green 2TB, 2x Seagate 500GB.

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av rhalla
Har för mig att dom fuskade med Crysis med..

Crysis är mer optimerat för GeForce SLI bara.

Det som Nvidia troligen fuskade med var att ta bort DX 10.1 stödet till Assasins Creed som gav kort från ATI 20% boost

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem

Jahopp !
Så var det dax igen !
Samma sak var ju på tapeten för snart (2?) år sedan om jag inte missminner mig.
Tycker det är märkligt att det ena företaget skall lägga sig i hur det andra gör (optimerar) sina drivrutiner.
Om jag inte har helt fel så är det just därför det kommer nya versioner hela tiden, just för att man OPTIMERAR dem samt rensar dem från buggar o läggar till mer kompabilitet för spel osv...
Mycket märkligt utspel från AMD må jag säga, speciellt när de har fått till en MYCKET bra svit med nya grafikkort som till o med jag tror på.
Har själv kört med Nvidia sedan 4600TI kom ut, men har i skrivande stund 2 st HD4850 liggandes på posten.

/Homer_S1

Visa signatur

INTEL Core i9 9900K @ 5.2GhZ| Gigabyte GA-Z370 Gaming 5 | NVidia RTX 4070 TI| 4x8Gb Vengeance PRO RED 3600 MhZ DDR4 | Samsung 970 EVO plus 1tb M.2 | EVGA Supernova 1300WATT 80+ Gold| 27" Acer Predator XB271HU IPS| Logitech G915 Lightspeed & G900 Chaos Spectrum | Steelseries Nova Pro Wireless

Main TV & Sound. Samsung 75" QN85A + HW-Q910A 7.1.2ch Soundbar

Permalänk
Medlem

Var det bara jag eller flög en paj precis förbi i luften?

Permalänk
Medlem

Klart att detta ska räknas i 3dmark. Det är ju en prestandahöjjande egenskap. Troligen kommer vi få se mer fysik beräkningar av grafikkorten i framtiden, nvidia vara bara lite snabbare ut med det denna gång. Sen kan man ju kritisera 3dmark litegrann kanske för lite missvisande resultat. De kanske skulle fokusera lite tydligare på en allround poäng. Det nvidia gör här är ju framförallt att förbereda inför spel som kräver mer fysikberäkningar i framtiden så att systemet inte går på knäna helt då.

Hade jag varit ati så skulle jag nog varit lite tyst angående 3dmark optimeringar då ati ett par generationer bakåt presterat väldigt mycket bättre i 3dmark än i spel. Det kan ju tåla att diskuteras.

Är det bara i denna branch man är så omogna så man kommenterar konkurentens produkter. När Gigabyte kritiserade asus blev det ett jävla liv, här verkar företagen tycka det är ok.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av acana79
http://www.theinquirer.net/gb/inquirer/news/2008/06/26/nvidia...

Tja...varför klanka ner på en metod som mer effektivt kan hantera fysik? Nvidia köpte ju PhysX just för att implementera hårdvarustöd för fysik i deras grafikkort. Smart drag skulle jag vilja påstå.
Borde inte det viktigaste vara vad korten faktiskt presterar, inte hur? Om någon ändra spelreglerna till fördel för dom själva är det givetvis fel. Men båda tillverkarna utsätts för samma tester/problem, men man använder olika metoder för att lösa problemen.

Grattis Nvidia skulle jag vilja säga...!

Grejen är ju den att nu går hela kortet in för fysiken och inte bara en liten del . Så kan det aldrig vara när du tex spelar då grafikkortet är upptaget med annat .

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Corsair 2TB m.2 / 4TB, Samsung 57" G9

Permalänk

Detta handlar inte om att Nvidia optimerar sina drivrutiner, det använder GPUn i ett testprogram där programmet SKA testa CPUn, i spel har du inte den möjligheten då GPUn har fullt upp med att rita upp grafiken, men nu, när man testar GPU och CPU separat så fungerar det, men det är BARA i 3Dmark som detta är möjligt. Tanken Nvidia har med att köra PhysX på ett sekundärt kort och grafiken på det primära, inte i SLI altså, utan ett av korten dedikerade till fysik, ett till grafiken, men om man i detta test tar det enda grafikkort till fysiken så finns det inget kvar till grafiken. vilket är orimligt.

Men nu är det ju så att Nvidia itne ens vågar lämna in dessa drivrutiner för godkännande, för att dom VET att det är fusk, så det är ju egentligen inte något att diskutera mer.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk

Det är absolut inget fusk av Nvidia med tanke på att de visar ju vad deras kort kan göra...

Visa signatur

CPU i9-9900K GPU ASUS RTX 2080 TI Strix OC MB ASUS STRIX Z390-E RAM Corsair VENGEANCE RGB 32GB DDR4 3200MHz Case Fractal Design Define C PSU EVGA G3 850W Cooling Noctua D15
Monitor MSI Optix MAG342CQR SSD Samsung 970 EVO 500GB 860 EVO 500GB 860 QVO 2TB + QVO 4TB PLEX Server 2x HC560 20TB+WD RED 2x10TB+12TB

Permalänk

tycker den här diskussionen har varit på tapeten ganska länge, själv tycker jag det verkar ganska orimligt att nVidia och 3DMark skulle samarbeta..

Visa signatur

Error: Keyboard not attached. Press F1 to continue.
< AMD Ryzen 7 5700X | ASUS ROG Strix B450-E | Corsair Vengeance RGB PRO 4x8GB 3200MHz | Sapphire Radeon RX 7700 XT >

Permalänk
Medlem

Är ju enkelt att avgöra om detta "fusk" har något syfte annat än att ge en högre 3dmark score.

Testa ett spel med äldre vs nya drivern som använder physx.

Det troliga är att fps är exakt samma pga att gpu har inte tid att göra mer physx instruktioner då den är upptagen med annan grafik renderering.

I fallet med 3dmark är det som många sagt en special miljö där grafikkortet egentligen är idle medan med den nya drivern så jobbar det fullt med physx.
Hur många spel som behöver fysik indstruktioner kan ni lira undertiden grafikkortet idlar?

Trist att de gör så här..ingen är dock oskyldig men är inte detta egentligen ett grymt bra betyg på Ati denna generation? ..varför skulle de annars göra en optimering enbart för ett bench prog?

Visa signatur

i7-3770k | AMD 7970

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Ecchi-BANZAII!!!
Det är absolut inget fusk av Nvidia med tanke på att de visar ju vad deras kort kan göra...

Nej, det är just det de ljuger om.

3Dmark ska mäta hur bra datorn är på spel. Men för att man ska få lite detaljer testar den CPU och GPU vid olika tillfällen. Men genom att använda en GPU vid båda mätningarna så kan nVidia visa en skev bild av prestandan. För i spel så är GPUn upptagen med grafiken.
nVidia utnyttjar det faktum att testet delas upp, så att GPUn, som i riktiga spel varit upptagen med nu kan användas för att höja prestandan på CPU testen.

Skulle 3Dmark inte ge dessa detaljerade informationer utan bara testat allt i ett svep så hade ju inte nVidia får alls lika hög poäng eftersom de inte kunnat utnyttja GPUn som PhysX kort samtidigt som den gör grafik. Hade de haft ett dedikerat grafikkort som gjorde PhysX endast så hade det varit lugnt. Men nu använder de kraft som inte kan användas i spel.

Permalänk
Hjälpsam

Jag tycker som sagt att det är Futuremark som klantat till det riktigt rejält.
Nvidia gick ut med att dom skulle köpa Ageia andra Februari, 3DMark släpptes tre månader senare.
Att Nvidia skulle möjliggjöra PhysX på sina kort har varit känt sen dom köpte det, varför Futuremark då valt att skapa ett deltest som ensidigt gynnar en aktör är en gåta.

Och Nej; testet speglar inte hur hårdvaran presterar i spel, knappt några spel stödjer PPU-kort, och de få som gör det använder den så lite så CPU:n klarar uppgiften lika bra.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Smartidiot89
Crysis är mer optimerat för GeForce SLI bara.

Det som Nvidia troligen fuskade med var att ta bort DX 10.1 stödet till Assasins Creed som gav kort från ATI 20% boost

Det han syftade på var när nvidia sänkte bildkvaliteten i Crysis för att få högre FPS, bl.a. genom att rita vattnet fult.
http://www.elitebastards.com/cms/index.php?option=com_content...
Genom att byta namn på crysis.exe-filen fick man drivrutinen att rita allt på rätt sätt igen (men inte lika höga scores).

Av någon underlig anledning hände detta bara med den drivrutin (169.04) som man skickade ut till pressen och bad dem benchmarka Crysis med. Ungefär som man nu alldeles nyss bad pressen benchmarka 3DMark Vantage med 177.39 (det denna tråd handlar om).... eller som när man bad pressen benchmarka HD HQV med 163.11-drivarna
http://www.xtremesystems.org/forums/showthread.php?t=157297
http://www.dailytech.com/article.aspx?newsid=8608

Här ser man Anandtechs review som använder just dessa drivare
http://www.anandtech.com/video/showdoc.aspx?i=3047&p=1
... och här ser man hur Rick Allen, nvidias talesman går ut och säger att drivarna var gamla
http://www.nforcershq.com/amd-alleges-nvidia-cheats-in-hd-hqv...
.. gamla? GAMLA? De skickades ut till pressen bara ett par dagar innan testerna!
... och anandtech har givetvis inte gått ut och sagt att de blivit lurade - det skulle sänka deras trovärdighet och vara katastrofalt eftersom deras roll som recensionssajt bygger på just trovärdighet...

Mönstret upprepar sig: nvidia kommer på ett nytt sätt att fuska, oftast i samband med nån release (PhysX, Crysis, 8600-serien), skriver beta-drivrutiner som implementerar fusket, och skickar ut till journalister. Många (de flesta?) journalisterna kör sedan blint igenom just exakt de benchmarks nvidia specificerat, och sprider en bild av att nvidias fusksiiffror är korrekta. När nån journalist (eller ATI) i efterhand viftar med en röd flagga, är det för sent - få journalister vill medge att de blivit lurade, och nvidia skyller allt på 'buggar' i sina betadrivrutiner.

Visa signatur

Gammal och gnällig

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av lincoln
Det han syftade på var när nvidia sänkte bildkvaliteten i Crysis för att få högre FPS, bl.a. genom att rita vattnet fult.
http://www.elitebastards.com/cms/index.php?option=com_content...
Genom att byta namn på crysis.exe-filen fick man drivrutinen att rita allt på rätt sätt igen (men inte lika höga scores).

Av någon underlig anledning hände detta bara med den drivrutin (169.04) som man skickade ut till pressen och bad dem benchmarka Crysis med. Ungefär som man nu alldeles nyss bad pressen benchmarka 3DMark Vantage med 177.39 (det denna tråd handlar om).... eller som när man bad pressen benchmarka HD HQV med 163.11-drivarna
http://www.xtremesystems.org/forums/showthread.php?t=157297
http://www.dailytech.com/article.aspx?newsid=8608

Här ser man Anandtechs review som använder just dessa drivare
http://www.anandtech.com/video/showdoc.aspx?i=3047&p=1
... och här ser man hur Rick Allen, nvidias talesman går ut och säger att drivarna var gamla
http://www.nforcershq.com/amd-alleges-nvidia-cheats-in-hd-hqv...
.. gamla? GAMLA? De skickades ut till pressen bara ett par dagar innan testerna!
... och anandtech har givetvis inte gått ut och sagt att de blivit lurade - det skulle sänka deras trovärdighet och vara katastrofalt eftersom deras roll som recensionssajt bygger på just trovärdighet...

Mönstret upprepar sig: nvidia kommer på ett nytt sätt att fuska, oftast i samband med nån release (PhysX, Crysis, 8600-serien), skriver beta-drivrutiner som implementerar fusket, och skickar ut till journalister. Många (de flesta?) journalisterna kör sedan blint igenom just exakt de benchmarks nvidia specificerat, och sprider en bild av att nvidias fusksiiffror är korrekta. När nån journalist (eller ATI) i efterhand viftar med en röd flagga, är det för sent - få journalister vill medge att de blivit lurade, och nvidia skyller allt på 'buggar' i sina betadrivrutiner.

Problemet är att majoriteten av de folk som sitter och skriver och kör tester på hårdvarusidorna inte är journalister och skall inte heller kallas för journalister.

Att kritiskt granska sina källor är inget dem gör i någon större uttsträckning. Många gånger har de flesta av de också en ohällsosamt god relation med företaget. Speciellt med tanke på att dem ofta får hårdvara m.m.

Håller med Ratatosk dock att det är klantigt av Futuremark att ens ta med fysik i beräkningen, i så fall hade dem väl lika gärna kunnat ha ett PPU-test? Varför inte liksom?

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Nu är jag iofs rätt sen med att kommentera nyheten, men jag är rätt förvånad att inte fler inser det som pekkasteele och lincoln redan påpekat ett flertal gånger.

Nu är det ju futuremark som lämnat ett "kryphål" i sitt program och nVidia utnyttjar det för att höja sin poäng.
Ni som säger att det är en "feature" och att nVidia självklart ska få använda sig av det, har ni ens tänkt på vad följden skulle bli om man körde fysikberäkningarna på grafikkortet samtidigt som grafikkortet användes till 3d-beräkningar?

Visa signatur

AMD 5700X@Vatten | asus prime x370pro | Asus 2080 Strix | 2x16GB Kingston Fury Renegade RGB DDR4 3.6GHZ | Lian Li O11d EVO + 2x240 EKWB RAD + 6 Lian Li AL120 | CoolerMaster V850 | NVME 2TB Seagate Firecuda 510 + NVME 1TB WD BLACK + 3 SSD | Samsung Odyssey 49" G9| DELL 2713HM | Varmilo VA69 Clear/brown | Logitech G502 2016.

Phenom X6 1045T | Corsair TWIN2X PC6400C4DHX 2x2GB + Crucial Ballistix Sport 2x2GB | Gigabyte ma785gmt-us2h | Silverstone Temjin 08 | Corsair VX450

Permalänk
Avstängd

ett CPU test som använder ett instickskort? moget

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av DeluxXxe
Nu är jag iofs rätt sen med att kommentera nyheten, men jag är rätt förvånad att inte fler inser det som pekkasteele och lincoln redan påpekat ett flertal gånger.

Nu är det ju futuremark som lämnat ett "kryphål" i sitt program och nVidia utnyttjar det för att höja sin poäng.
Ni som säger att det är en "feature" och att nVidia självklart ska få använda sig av det, har ni ens tänkt på vad följden skulle bli om man körde fysikberäkningarna på grafikkortet samtidigt som grafikkortet användes till 3d-beräkningar?

Det är klart att resultaten inte speglar verkligheten på något som helst sätt.
Men jag vill dela upp detta i delar.

1) Är detta ett vettigt test?
Nej, få spel stödjer funktionen och bara en liten del av GPU:n kan användas till fysikberäkningar, resten måste anvädas till grafik.
Felet är Futuremarks.

2) Är det fel av Nvidia att möjliggjöra fysikberäkningar på grafikkortet?
Nej, om tex 10% av GPU:n används till fysik kan det ge lite bättre flyt i något enstaka spel.

3) Är det rätt av testsaiter att köra dessa tester?
Nej, även om Nvidia håller på att göra på sig av upphetsning, skall saiterna vara källkritiska och dom skall orka stå emot tillverkarna.
Felet är testsaiternas.

Vad som nu skett enligt min mening, är att 3DMark Vantage blivit fullständigt meningslöst och att Futuremark tappat all trovärdighet, som tillverkare av benchmarkprogram.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kazutoyo
Det enda ATI fusk jag kommer ihåg är deras Quake 3 grej.

NVIDIA fuskade dock med 3DMark under våren 2003, så deras 5xxx serie skulle få bättre resultat.

nvidia fuska i crysis också

Visa signatur

| ASUS P8Z77-V DELUXE | Intel Core i7 2700K @ 4.7Ghz | 16GB Corsair Vengeance 1600Mhz @ 8-8-8-24 |
| ATi Radeon HD 6950@6970 (900|1350Mhz @ 1.14v) | Corsair Force GT 120GB | Corsair HX 650W |
| Nvidia's GT300 yields are less than 2% | Min ArmA2 YouTube Kanal |

Permalänk
Medlem

Som jag sagt, tolka det som ni vill, men att nvidia ens har stöd för det är ett plus.
Varför inte använda det.

Sen att nvidia fuskat i Crysis kan man diskutera vidare. Jag anser det inte som fusk, då de fixade det i drivrutinerna som kom därpå samt hade samma prestanda.

Hade ATi haft möjligheten att beräkna fysikberäkningar på sina kort tvivlar jag inte en sekund på att de hade gjort det.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Devil May Cry

Hade ATi haft möjligheten att beräkna fysikberäkningar på sina kort tvivlar jag inte en sekund på att de hade gjort det.

Vi får väl se om dom använder detta http://mikrodatorn.idg.se/2.1030/1.170182

Permalänk
Medlem

Haller med om att det ar till stor del futuremarks fel, de har klantat sig men Nvidia har ganska tydlig utnyttjat kryphalet vilket ar fult. Jag tycker att det ar mycket fulare att optimera for 3dMark an for spel. Detta eftersom om en drivrutin ar optimerat for ettvisst spel sa kan anvandarna i alla fall utnyttja det men 3dMark ar ju bara ett testprogram och ar inte alls lika roligt som ett spel
Futuremark borde komma med en patch snart som haller koll pa vilket grafikkort som anvands till 3d berakningar och sen inte inkludera det i cpu testet...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Chibariku
Vi får väl se om dom använder detta http://mikrodatorn.idg.se/2.1030/1.170182

Dock är det det inte AMD som gjort, alltså inoffeciellt. Klart inte AMD använder physX då när de precis anklagat nvidia. Hade det från första början varit omvända roller hade de gjort det.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Citat:

Ursprungligen inskrivet av Devil May Cry
Som jag sagt, tolka det som ni vill, men att nvidia ens har stöd för det är ett plus.
Varför inte använda det.

Sen att nvidia fuskat i Crysis kan man diskutera vidare. Jag anser det inte som fusk, då de fixade det i drivrutinerna som kom därpå samt hade samma prestanda.

Hade ATi haft möjligheten att beräkna fysikberäkningar på sina kort tvivlar jag inte en sekund på att de hade gjort det.

Håller helt med gällande Crysis "fusket". Att släppa nya drivrutiner så snabbt ändå med bibehållen prestanda tydde snarare på att någon klantat sig när de optimerade.

Det är inte Nvidias fel att futuremark använder PPU under CPU testet.
Att Nvidias grafikkort tar över rollen som PPU när den idlar är ju då futuremarks fel.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Medlem

Jo, Nvidia fuskar, fast kanske inte som ni tror...

Jag har 2 x HD4850 + ett Ageia physX kort (hur sällsynta dom än är...).
De senaste drivers som nvidia levererat till PhysX fungerar inte på
mitt physX kort, jag måste använda gamla, antagligen för att man
inte med ett ATI system ska kunna få samma prestanda.....

Antagligen fungerar bara physX kortet ifall man har Nvidia grafik....

/Daniel

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mortifer666

Det är inte Nvidias fel att futuremark använder PPU under CPU testet.
Att Nvidias grafikkort tar över rollen som PPU när den idlar är ju då futuremarks fel.

Det krävs mixtrande med drivrutiner för att få grafikkortet att användas för PPU-beräkningar, och nVidia ger instruktioner om hur man gör för att höja poängen. Dessutom rekommenderar nVidia att testa i 'performance' då CPU-testen har störst inverkan på slutresultatet i den testen. I 'extreme' har CPU-testen mindre inverkan på slutresultatet, och denna testen är inte lämplig att testa i enligt nVidia.

nVidia har inte lämnat in drivrutinen för godkännande till Futuremark, eftersom de vet att den aldrig kommer godkännas.

Poäng som fås med nämda drivrutin kommer inte på topplistan, så poängen blir inofficiella, men det hindrar inte nVidia och test-sajter att sprida resultatet.

nVidia har hittat ett sätt att manipulera 3Dmark-poängen, och utnyttjar det till att kunna presentera höga prestandasiffror..

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Devil May Cry
Som jag sagt, tolka det som ni vill, men att nvidia ens har stöd för det är ett plus.
Varför inte använda det.

Att det har stöd för det är ju självklart ett plus. Tror inte det finns nån som inte tycker det. Det är ju sättet som det används på i 3DMark som ifrågasätts.

I detta fall kan nVidias kort tillgodoräkna sig poäng genom nåt som de i praktiken inte kan göra då ditt grafikkort skulle vara belastat med andra uppgifter som flera redan skrivit.

Felet ligger till största del hos Futuremark enligt mig. Att nVidia sedan utnyttjar det är jag inte alls förvånad över... Och ja för de som kommer påpeka det, ATI har "fuskat" i 3DMark också men inte i närheten av samma grad. De har varit betydligt duktigare på att rätta sig efter det regler Futuremark har satt upp.