"Nvidia lurar 3DMark"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mr.Snark
haha klockrent : ). Tycker, om du får skit poäng i "E-Penis mark/Vantage" Men systemet presterar 100% i spel och andra grafik krävande grejer. Vad spelar det för roll? Fast man gör väl vad man vill : )

GL HF
MVH!

Hm, ligger något i det men endå inte.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Evilmonkey
Pajkastning så det heter duga mellan de stora företagen!
bara att bita ihop som konsument och ignorera allt skit!

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem

Dock är det ju inte fusk, klart att nvidia använder fysiken i kortet om de kan.
Det är ATi som inte kan göra så därför säger de att det är fusk.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem

Håller med Devil May Cry fullständigt, klockrent sagt.

Visa signatur

Desktop: Core I7 2600K @ 4Ghz, 8GB Corsair XMS3 DDR3 @ 1600 MHz, GTX 680.
TV-dator: Core I7 965 @ 3.6 Ghz, 6GB Corsair XMS3 DDR3 @ 1333 MHz, EVGA GTX 680.

Dell XPS M1730, X9000 @3.4 GHz, 4GB, 9800m GTX SLI, 320GB Raid 0 SATA, AGEIA PHYSX, 1920x1200 WUXGA Screen.

Permalänk
Medlem

PhysX är väl räknas som en feature som gtx200-serien har? : o
vad är fusk med det? som om det vore fusk att kunna ändra upplösning eller något.

Visa signatur

Rgeek L65, hdplex 200w, 4650G, Asrock a520 ITX, Crucial 32gb 3600 cl16, Black ridge.

Permalänk

jag tycker inte att ati/amd ska gnälla på nvidia när de har bjudit in ati att få physkX

Permalänk
Medlem

är inte själva poängen om att det är fusk för att det är CPU score som blir högre för att vantage tror att det är cpun som gör beräkningarna och det går fort som attan och därför tror vantage "WOW VILKEN JÄTTE SNABB CPU" men det spelar ingen roll för vem fan bryr sig om cpu scoren när det är GPU score man vill ha?

eller har jag fattat fel?

Visa signatur

| ASUS P8Z77-V DELUXE | Intel Core i7 2700K @ 4.7Ghz | 16GB Corsair Vengeance 1600Mhz @ 8-8-8-24 |
| ATi Radeon HD 6950@6970 (900|1350Mhz @ 1.14v) | Corsair Force GT 120GB | Corsair HX 650W |
| Nvidia's GT300 yields are less than 2% | Min ArmA2 YouTube Kanal |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The Mupp
är inte själva poängen om att det är fusk för att det är CPU score som blir högre för att vantage tror att det är cpun som gör beräkningarna och det går fort som attan och därför tror vantage "WOW VILKEN JÄTTE SNABB CPU" men det spelar ingen roll för vem fan bryr sig om cpu scoren när det är GPU score man vill ha?

eller har jag fattat fel?

"3DMark Vantage har dock stöd för instickskorten, och om ett sådant är installerat kommer ett av CPU-testerna att få bättre resultat."

Skillnaden är att instickskort inte längre säljs utan nvidia har det inbyggt. Så fusk är det ju inte någonstans.

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk

Men detta är ett CPU test där en GPU används för beräkningar, i vantage så pressas inte GPUn i detta test, eftersom det är en CPU test, men nu läggs lite beräkningar över på GPUn så systemet får bättre resultat. Men detta speglar ju itne spelprestanda, för i spel så är GPUn redan så belastad så den itne hade kunnat ta hand om dessa beräkningar. Därav "fusket". Dock, hade man haft ett PhysX-kort så hade vantage så klart fått använda det.

För tanken som Nvidia har annars är väl ändå att deras PhysX-drivrutin skall använda ett sekundärt grafikkort för fysikberäkningar, inte det primära, det har ju redan fullt upp med grafiken.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Medlem

Men låt Nvidia använda sig av PhysX bäst dom vill drivrutinerna kommer dock aldrig att accepteras av FutureMark. Det känns som Nvidia är riktigt pressade just nu.

Visa signatur

Athlon x2 5000+ BE_Stepping G2_14x200 = 2800mhz_ VCore 1.15

Vilka jävla nötter det finns här!

Permalänk
Citat:

Ursprungligen inskrivet av pekkasteele
Men detta är ett CPU test där en GPU används för beräkningar, i vantage så pressas inte GPUn i detta test, eftersom det är en CPU test, men nu läggs lite beräkningar över på GPUn så systemet får bättre resultat. Men detta speglar ju itne spelprestanda, för i spel så är GPUn redan så belastad så den itne hade kunnat ta hand om dessa beräkningar. Därav "fusket". Dock, hade man haft ett PhysX-kort så hade vantage så klart fått använda det.

För tanken som Nvidia har annars är väl ändå att deras PhysX-drivrutin skall använda ett sekundärt grafikkort för fysikberäkningar, inte det primära, det har ju redan fullt upp med grafiken.

Precis så. Allt för många som komenterar utan att läsa nyheten ordentligt.

Kan helt klart se att ATI/AMD är lite missnöjda. Men att det skulle vara Nvidias fel håller jag inte med om. Det är som sagt bara en feature. Har du en applikation som endast gör fysikberäkningar och har stöd för PhysX så varför skulle man inte vilja att ens GPU kan hjälpa till om det är möjligt och man inte har ett dedikerat Physx-kort? Att det sedan ger missvisande resultat i Vantage är ju trotts allt Futuremarks problem. Det är de som inte utformat sitt "objektiva" test rätt enligt mig.

Visa signatur

i7 930 @ 3.8 | P6X58D-E | 6GB Corsair XMS3 | 2x R9280X | Intel SSD|
Dell UltraSharp 2707WFP | Logitech Z5500 | Logitech Illuminated | MIONIX Saiph 1800 |

Permalänk
Medlem

Orka bry sig om 3DMark-poäng...

Visa signatur

|[●▪▪●]| #Lekburk#: Ryzen 3700X >-< GB-X570-AE >-< 32GB DDR4 >-< MSI RTX 3070 >-< 970 EVO 1TB SSD>--
--< Arctic Freezer 34 >-< FD Define R4 >-< Seasonic F.+ 650W >-< Acer XF270HUA >-< AOC Q2778VQE >--
#Servering#: Ryzen 1700@3,6GHz >-< Prime X470 Pro >-< 16GB DDR4 >-< GTX 1030 >-< 970 EVO 500GB SSD >--
--< Stockkylare >-< Antec P182 >-< Silver Power 600W >-< Samsung 245T |[●▪▪●]|

Permalänk
Citat:

Ursprungligen inskrivet av )ExecutoR(
Precis så. Allt för många som komenterar utan att läsa nyheten ordentligt.

Kan helt klart se att ATI/AMD är lite missnöjda. Men att det skulle vara Nvidias fel håller jag inte med om. Det är som sagt bara en feature. Har du en applikation som endast gör fysikberäkningar och har stöd för PhysX så varför skulle man inte vilja att ens GPU kan hjälpa till om det är möjligt och man inte har ett dedikerat Physx-kort? Att det sedan ger missvisande resultat i Vantage är ju trotts allt Futuremarks problem. Det är de som inte utformat sitt "objektiva" test rätt enligt mig.

Iofs sant att det är en "feature", MEN, 3D mark skall testa spelprestanda, finns inte många spel som inte kräver bra grafik, vilket resulterar i att GPUn BÖR vara upptagen med annat, hade det däremot varit i PCmark, där grafikkortet inte pressas till max oftast, då tycker jag det have varit OK.

Sen så är det väl bara i just 3Dmark detta fungerar? För gör den på samma sätt i spel, så lär man tappa massa grafikprestanda pga detta. Då hade jag inte varit nöjd om jag var nvidia-kund iaf.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Trollfabrik 🫶🏻
Citat:

Ursprungligen inskrivet av Simri
Jo här:
PhysX Runs On RV670, Scores 22,000 CPU Marks in 3DMark Vantage

Dåså. 3Dmark är ändå bara en penis förlängare och säger lite om faktisk spel-prestanda

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av acana79
http://www.theinquirer.net/gb/inquirer/news/2008/06/26/nvidia...

Tja...varför klanka ner på en metod som mer effektivt kan hantera fysik? Nvidia köpte ju PhysX just för att implementera hårdvarustöd för fysik i deras grafikkort. Smart drag skulle jag vilja påstå.
Borde inte det viktigaste vara vad korten faktiskt presterar, inte hur? Om någon ändra spelreglerna till fördel för dom själva är det givetvis fel. Men båda tillverkarna utsätts för samma tester/problem, men man använder olika metoder för att lösa problemen.

Grattis Nvidia skulle jag vilja säga...!

Problemet ligger väll i att 3dMark kör test på PhysX respektive Video separat. Det betyder att den belastning som PhysX beräkningarna lägger på grafikkortet under mätningen inte påverkar grafikprestandanunder grafiktestet.

Att 3DMark har med denna PhysX beräkningen är må hända inte så genomtänkt men man borde väll rimligtvis kunna låta PhysX beräkningarna läggas till GPU poängen istället för CPU poängen och så köra PhysX och GPU testen samtidigt, så tjänar NVidia inget på sitt "lilla trick" utan man får se hur det verkliga presterar samt att det får en relevant poäng.

Visa signatur

AMD R7700/ASRock X670E/GSkill 32GB DDR5 6000cl32/XFX RX6800/Kingston Fury 2TB NVMe/Corsair RM850e
KIDS: i7 4790K/16GB/GF1070Ti/1TB NVMe #2: i7 4790K/16GB/GF970/1TB SSD
CLUB: i5 6600K/16GB/GF980/1TB SSD #2: i7 2600K/16GB/GF680/256GB SSD #3: Q9550/4GB/GF770/500GB SSD
HTPC: E8400/4GB/R4600/2TB HDD SONY VAIO: i3 2310M/6GB/R6470M/500GB SSD
AMIGA A4000/PPC, A4000/060, A1200/060, A600/030, A500/020, A1000 etc.

Permalänk
Medlem

Väldigt dåligt av Nvidia imo att dom gör såhär

Visa signatur

ThermalTake Tsunami Dream "Ljudisolerad", Corsair HX 650W Plus Gold, Gigabyte Z68XP-UD3P, Intel Core i5 2500K 4GHz, 2x Corsair 8GB (2x4096MB) CL9 1600Mhz XMS3 1,5V, MSI GeForce GTX 1060 Gaming X 6G, Samsung SSD 840 Evo 250GB. Vi människor är mystiska varelser
-
http://www.minhembio.com/Camridge

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av acana79
http://www.theinquirer.net/gb/inquirer/news/2008/06/26/nvidia...

Tja...varför klanka ner på en metod som mer effektivt kan hantera fysik? Nvidia köpte ju PhysX just för att implementera hårdvarustöd för fysik i deras grafikkort. Smart drag skulle jag vilja påstå.
Borde inte det viktigaste vara vad korten faktiskt presterar, inte hur? Om någon ändra spelreglerna till fördel för dom själva är det givetvis fel. Men båda tillverkarna utsätts för samma tester/problem, men man använder olika metoder för att lösa problemen.

Grattis Nvidia skulle jag vilja säga...! [/B]

Ja men dom presterar ju inte bättre med PhysX. Det enda PhysX gör är väl att ge mer poäng i 3dmark?
Rätta mig om jag har fel, gärna med länk.

Visa signatur

All datorprestanda kan jämföras i kronor och ören (kr/poäng). Exempel: Prestanda/krona på grafikkort | www.intrnet.se

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av budbrain
Vill minnas när jag var aktiv på grafikkortsmarknaden att just ATI gjorde något liknande med någon drivrutin långt bak i tiden

Det enda ATI fusk jag kommer ihåg är deras Quake 3 grej.

NVIDIA fuskade dock med 3DMark under våren 2003, så deras 5xxx serie skulle få bättre resultat.

Permalänk
Medlem

Tekniskt sett ligger 'felet' först och främst hos Futuremark, eftersom de konstruerat ett benchmark med kryphål i.

Om Vantage-testet kört GPU och CPU-testet samtidigt, precis som ett spel, skulle man inte kunna använda grafikkortet för båda sakerna och därmed räkna samma beräkningskraft dubbelt.

Utöver detta tycker jag dock ganska tveksamt om det är rent spel av nvidia att utnyttja detta kryphål... Och vad är det för nys om att det var en 'service' till sina kunder?

Litet närmare titt på grundmaterialet gör att nvidias beteende blir än mer tveksamt, och det framstår snarast som de verkligen försökt, och faktiskt lyckats, dra en rövare;

I artikeln på HotHardware säger nvidias talesman "Legitimate optimization are reasonable and important, only if it improves real game play. Optimizing solely for benchmarks is simply not done at NVIDIA."

... och ändå är denna 'optimering' något som man bara tjänar på i 3DMark Vantage... Det går ju inte riktigt ihop...

Talesmannen fortsätter sedan "In terms of 3DMark Vantage, if you’re interested in making a driver change and submitting that, Futuremark's BDP (Bechmark Development Plan) process has strict guidelines you must adhere to. We have followed them to a tee and this new beta driver has not been submitted for consideration."

... dvs drivrutinen inte har blivit skickad till Futuremark... Däremot är det ju uppenbarligen inget som hindrar dem från att ändå använda poängen i marknadsföringsmaterial...

Det märker man när man kollar upp _originalartikeln_ på TomsHardware - inte den som sweclockers länkar till http://www.tomshardware.com/news/Nvidia-PhysX-GTX2800,5725.ht...
... i den är det uppenbart att journalisten på Tom's inte har en aning om att nvidias drivare räknar poäng dubbelt, eller att drivaren aldrig kommer releasas till allmänheten. Tvärtom står det som slutkläm att drivaren kommer under juli.

Alltså: Vantage har ett kryphål. nvidia försöker utnyttja det, men blir avslöjade.

Förstår inte att vissa klandrar AMD/ATI för att man avslöjar det när det är uppenbart att journalisterna (som _borde_ avslöja det) gått på det...

Visa signatur

Gammal och gnällig

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Magnus72
Vem fasiken bryr sig om Nvidia skulle få några mer poäng i E-Penis Mark. Kör spel istället det är där ni märker skillnaden. Men det finns väl folk som tycker det är roligt att loopa E-Penis Mark/Vantage i all oändlighet.

"Tjena bruden, jag får ca 20.000 i 3DMark, lust att komma hem till mig och se den?".

På tal om penisförlängare...3DMark är en penisförlängare enligt mig.

Visa signatur

Hiroshima 45, Tjernobyl 86, Windows 95.

Leeloo Dallas Multipass

Permalänk
Medlem

Skulle ju inte va förstå gången Nvidia gjort det..

Visa signatur
Permalänk
Sötast

min mamma är bättre än din!!!!

*suck*

Permalänk
Medlem

Båda företagen höll ju på med att lura 3dmark för flera år sedan. För min del så bryr jag mig inte för bryr mig inte om benchmark-program eller liknande sen några år tillbaka.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem

ahhh detta eviga bråk om allting.....jag tycker det är 3d-marks problem om deras testar inte visar ett resultat som liknar spelens...

Permalänk
Avstängd

Har använt mig av 3Dmark en enda gång.. värdelöst skit, fick sämre poäng än vad kompisen men min prestera bättre i spel, skillnaden var att jag hade Radeon 9800OPRO(360core)

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Avstängd

Jävligt idiotiskt angrepp från AMD's sida. Det är ungefär lika dumt som att Intel skulle anklaga Nvidia och AMD för att deras kort stöder DX10 och kan köra 3DMark Vantage. Självklart använder sig Nvidia av deras fysikteknik som deras kort stöder om dom kan de. Skärp er AMD och gör kort som klarar av fler saker istället för att kasta sand på barnen bredvid!

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Emrik
PhysX är väl räknas som en feature som gtx200-serien har? : o
vad är fusk med det? som om det vore fusk att kunna ändra upplösning eller något.

Detta har även AMD rent tekniskt- men de har inte licensen.
Det är fusk på så sätt att den lurar systemet.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mr_krut
Jävligt idiotiskt angrepp från AMD's sida. Det är ungefär lika dumt som att Intel skulle anklaga Nvidia och AMD för att deras kort stöder DX10 och kan köra 3DMark Vantage. Självklart använder sig Nvidia av deras fysikteknik som deras kort stöder om dom kan de. Skärp er AMD och gör kort som klarar av fler saker istället för att kasta sand på barnen bredvid!

*host* dx10.1 *host*

Visa signatur

1: 3600x-16GB-1070ti
2: 1600x-16GB-580x
3: fx8350-16GB-1050ti

Permalänk
Medlem

det har väl sagts många gånger tidigare men om futuremark vill försöka upprätthålla någon form av trovärdighet får de väl köra rena gpu-tester, cpu-tester och fysiktester utan att blanda ihop saker och ting... vilket är svårt då allting ändå beror på varandra... jag förstår att amd tycker att det är orättvist då testerna gynnar de med nvidia-kort.. fast det säger väl mer om futuermarks trovärdighet än deras egna då folk i allt högre grad inser hur meningslösa dessa syntetiska tester är..

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Medlem

nVidia says

"We recommend testing in Performance Preset for the best final score with GeForce PhysX. In Extreme Preset the score is mainly determined by the GPU score. A faster CPU Test 2 result will not make much difference."

"Nvidia has not submitted 177.39 for approval, and likely will never do so because the chance of it being approved are something between zero and having to buy Futuremark. Until they submit a bad driver, no harm, no foul. The Futuremark policy is that if it isn't up on ORB, it isn't a 3DMark score, and that is quite sensible.

Nvidia engineers know that there is no way they can get this driver approved, so they don't try. They know they are not running 3DMark, but they don't even try to hide it. They are however disingenuously doing a different workload and trying to cynically pass it off as the same old workload. There is a word for this behavior, cheating."

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara