Futuremark stoppar "fysikfusk" i 3DMark Vantage

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av anders.149
Ska klämma in antingen Ubuntu eller Kubuntu igen bara.. sen ska jag bräcka dig. ;P

Provade 01'an förut med men det var innan Wine började bli så fin som den är nu. Gick skit med andra ord. =P

01'an är skit fortfarande.. förstår inte varför någon ens försökte få den att fungera riktigt. Försök slår mig nog inte iaf.. många som försökt - men nu får man ju tänka på att min dator är till åren så finns säkert någon med 8-serien och en quad som slår mig.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Förstår bara inte varför det verkar vara fel med att köra fysik på grafikkortet? funkar ju skitbra i unreal tournament 3 oxå, om nvidia köpte psysx borde dom väll få rätten att använda tekniken ffs!

Visa signatur

Gam dator: Rampage 3 Extrem, 6x4GB Ram lägsta hastighet på minnet är 1600mhz Högsta G.skill ripjaws 2133mhz + ramkylare, Processor(ER) 6Core12Trådig Xeon x5660 Men eftersom jag haft så jädra ont i ryggen har jag bara kommit till att ta ut gamla processorn den nya ligger ihopklistrad i ett brev en x5670(Kan vara 75) Iaf många multipliers högre. Ljudkort Asus Z. Några normala diskar + 2ssd Intel 730 mm. Gfx Asus matrix platinum 290x. Corsair hx650 ca 3 år gammalt. Fractal design R4 window. Skärm phillips brilliance 29" 2560x1080p Finfin skärm :)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av gryzor
Sitter du och gissar ihop sådant här rappel, utan att vara viss om att 3dmark enbart har tut och klang när den kör i "demomode", ej i de löjliga intetsägande benchmarksen?

Vad i helv...?!?!?!

Översättning tack!

Visa signatur

Massa skit innanför ett CoolerMaster Cosmos II

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av invztr
01'an är skit fortfarande.. förstår inte varför någon ens försökte få den att fungera riktigt. Försök slår mig nog inte iaf.. många som försökt - men nu får man ju tänka på att min dator är till åren så finns säkert någon med 8-serien och en quad som slår mig.

Mitt system bör klå dig lätt. Q6600 på 3,2GHz, 8800GTS 512MB.
Sedan är glxgears inte ett benchverktyg. Men fps visar den iallafall.

Permalänk
Medlem

Jag fattar inte varför man kan kalla en funktion på ett kort för fusk. Det sitter ju där på kortet, varför inte använda fysikberäkningarna då? Futuremark tycker att det blir missvisande... När var 3Dmark en bra måttstock på hur bra datorn är i ett specifikt spel?!

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av anders.149
Mitt system bör klå dig lätt. Q6600 på 3,2GHz, 8800GTS 512MB.
Sedan är glxgears inte ett benchverktyg. Men fps visar den iallafall.

Visar ju inte hur snabbt man kompilerar precis.. men en kul grej är det självklart.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Avstängd

Kan förstå att AMD och alla som har Radeon kort känner sig bedragna men det är fan ändå inget fusk. Nvidia har en teknik som inte AMD har så jag kallar inte det för fusk, snarare ett bättre kort. Iofs så blev ju Ubisoft tvungna att ta bort DX10.1 stödet i Assassin's Creed, så det står väl lika nu, men som sagt, jag tycker det är fel av Futuremark att inte låta Nvidia få utnyttja sina kort fullt ut, det är ju trots allt en teknik som korten har stöd för. Det är en teknik som gör så spel med PhysX-funktion flyter på bättre, alltså förtjänar ju korten självklart ett högre resultat då 3DMark handlar om vad grafikkorten presterar generellt i spel.

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av mr_krut
Kan förstå att AMD och alla som har Radeon kort känner sig bedragna men det är fan ändå inget fusk. Nvidia har en teknik som inte AMD har så jag kallar inte det för fusk, snarare ett bättre kort. Iofs så blev ju Ubisoft tvungna att ta bort DX10.1 stödet i Assassin's Creed, så det står väl lika nu, men som sagt, jag tycker det är fel av Futuremark att inte låta Nvidia få utnyttja sina kort fullt ut, det är ju trots allt en teknik som korten har stöd för. Det är en teknik som gör så spel med PhysX-funktion flyter på bättre, alltså förtjänar ju korten självklart ett högre resultat då 3DMark handlar om vad grafikkorten presterar generellt i spel.

Självklart, men nu är ju frågan om inte nvidia använder för mycket kraft på grafikkortet för fysikberäkningar, mer än vad som hade använts i ett riktigt spel.

Tycker personligen att PhysX funktionen bör finnas med, likaså dx10.1. Problemet ligger till viss del hos Futuremark som gör orealistiska test som inte säger alltför mycket vad ens dator klarar av för spel. Vore intressantare med ett bench program som samlar ihop stora populära spel och kör timedemos via de istället. DET skulle vara givande.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Mantus
Förstår bara inte varför det verkar vara fel med att köra fysik på grafikkortet? funkar ju skitbra i unreal tournament 3 oxå, om nvidia köpte psysx borde dom väll få rätten att använda tekniken ffs!

Dom får använda tekniken, det finns ingenting som säger annat. Nvidia vill fuska i prestandamätningen i programet som detta anhör genom att ta med fusik i sin beräkning, och det är fusk. Det betyder att Nvidia får högre poäng trots att grafikkortet inte är bättre tillexempel om det bara är det man vill mäta, och det är inte var Vantage är till för så därför stoppar dom Nvidia från att göra detta.

Hänger du med nu? Det har ingenting att göra med om dom får använda tekniken eller inte.

Visa signatur

Jag är en vampyr, jag suger och spyr, låt mig komma in, jag vill bli din

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blade80
Jag fattar inte varför man kan kalla en funktion på ett kort för fusk. Det sitter ju där på kortet, varför inte använda fysikberäkningarna då? Futuremark tycker att det blir missvisande... När var 3Dmark en bra måttstock på hur bra datorn är i ett specifikt spel?!

Problemet uppstår ju när dessa fysikberäkningar räknas två gånger, en gång för CPU och en för GPU. Speciellt då iallafall jag har svårt att se samma sak hända i verkliga situationer. Knappast troligt att samma fysikfunktion på grafikkortet både jobbar med fysik som GPU annars skulle fått ta, samtidigt som det avlastar processorn.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mr_krut
Kan förstå att AMD och alla som har Radeon kort känner sig bedragna men det är fan ändå inget fusk. Nvidia har en teknik som inte AMD har så jag kallar inte det för fusk, snarare ett bättre kort. Iofs så blev ju Ubisoft tvungna att ta bort DX10.1 stödet i Assassin's Creed, så det står väl lika nu, men som sagt, jag tycker det är fel av Futuremark att inte låta Nvidia få utnyttja sina kort fullt ut, det är ju trots allt en teknik som korten har stöd för. Det är en teknik som gör så spel med PhysX-funktion flyter på bättre, alltså förtjänar ju korten självklart ett högre resultat då 3DMark handlar om vad grafikkorten presterar generellt i spel.

3dMark är ett benchmarkingprogram och inget spel - den parallelen folk drar där poängen i 3dMark även representerar spelprestanda hoppas jag dött ut sedan länge. Att få en maskin att visa en förprogrammerad videosekvens i 3D är inte samma sak som att ge samma maskin en interaktiv platform i 3D.

Nvidia utnyttjar deras teknik på fel sätt, då det lurar programmet hellre än att faktiskt göra jobbet. Om detta var en medveten tvist Nvidia prylat med självmant eller inte kommer jag inte kommentera, men det ger en bedömning som inte är helt korrekt.

Sedan tycker jag även Vantage är lite av ett skämt. Ett nytt program som inte stödjer DirectX10.1 verkar ypperligt tveksamt då detta är något som kommer marknadsstandard inom båda tillverkare senare i år.

Permalänk
Medlem

Istället för att CPUn tar hand om alla fysikberäkningar för de som inte har ett Aegia kort så hjälper GPUn på nvidias kort till med hårdvaruaccelarationen. Du får högre poäng om du har ett instickskort, är det orättvist även det? Varför är det orättvist eller fusk om nvidia har teknologi som gör att PhysX beräkningar kan göras helt eller delvis på GPUn då den är bättre lämpad för den uppgiften än vad en CPU är? Fullkommligt skitsnack att det skulle vara fusk. Det kan och används redan i vissa spel. AMD/ATI kort klarar inte av det, 2bad... amd/ati bölar o snackar massa skit precis som vanligt när de ligger i underläge. Jag använder funktionen med glädje i UT3 t.ex. Eller det får jag inte, kanske orättvist mot de som har ATI kort för de inte kan lira de kartorna. snyft snyft

Visa signatur

Intel 7700K @ 5,1ghz (Binned) | Custom H2O Loop | Asus Maximus IX Hero | 32GB Corsair @ 3200mhz | GTX 3080 | Samsung 960 EVO 500GB | Samsung 870 EVO 500GB | Samsung 860 EVO 2TB | Soundblaster Z-Xr | Asus ROG Swift PG279Q | Corsair 850W-HX | Thermaltake The Tower 900

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrfisse
Istället för att CPUn tar hand om alla fysikberäkningar för de som inte har ett Aegia kort så hjälper GPUn på nvidias kort till med hårdvaruaccelarationen. Du får högre poäng om du har ett instickskort, är det orättvist även det? Varför är det orättvist eller fusk om nvidia har teknologi som gör att PhysX beräkningar kan göras helt eller delvis på GPUn då den är bättre lämpad för den uppgiften än vad en CPU är? Fullkommligt skitsnack att det skulle vara fusk. Det kan och används redan i vissa spel. AMD/ATI kort klarar inte av det, 2bad... amd/ati bölar o snackar massa skit precis som vanligt när de ligger i underläge. Jag använder funktionen med glädje i UT3 t.ex. Eller det får jag inte, kanske orättvist mot de som har ATI kort för de inte kan lira de kartorna. snyft snyft

Fortfarande, problemet är inte att nvidia har möjligheter till fysikberäkningar på sina kort, problemet är att de extra poäng detta ger räknas på två ställen (med nvidias tweak).

Som du själv säger, om beräkningarna istället görs på GPU för att den är bättre lämpad, så skall ju denna extra kraft räknas med i de testerna. Det är det ingen som protesterat emot. Problemet är att med de tweaks som nvidia gjort så räknas ju detta med även på CPU, d.v.s. att samma sak räknas med två gånger trots att det vid faktiskt användande bara används på ett ställe. Och alltså blir det en form av fusk.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem

1. När Vantage utvecklades kördes PhysX-beräkningar på PhysX-kort. Dvs, både ATI och Nvidia-ägare hade fått högre testresultat. Det är inte Nvidia som fuskar, det är Vantage som är omodernt... och det kommer så förbli tills de patchar det så att GPUns beräkningskraft inte används två gånger.

edit: ...och det är precis vad dom nu alltså gör. Läste inte nyheten först... eller rubriken.

2. ATI-kort kommer förmodligen också kunna köra PhysX inom en inte alltör lång framtid så då kan alla "fuska".

3. Vem fan bryr sig om Vantage-resultat? Om det vilseleder konsumenter så kanske datorpressen kunde sluta fokusera så förbannat syntetiska tester!

Off topic: Någon som vet om man t.ex kan köra ett 8600 GT eller något annat billigt kort som ett dedikerat fysikkort? Typ HD 4870 som grafikkort och ett 8600 GT som fysikkort? Om man ser till beräkningskapasitet så borde inte 8600 ha några som helst problem att hänga med de gamla AGEIA-korten, och till en tredjedel av priset.

Visa signatur

CPU: Ryzen 5 1600 GPU: Asus GeForce GTX 1060 6GB DUAL Moderkort: MSI B350M Mortar
RAM: 16GB Corsair Vengeance DDR4 3200MHz PSU: Corsair RM750X
Laptop: ThinkPad T480s, Core i7 8550U, 16GB RAM Mobil: Samsung Galaxy S10

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av mrfisse
Istället för att CPUn tar hand om alla fysikberäkningar för de som inte har ett Aegia kort så hjälper GPUn på nvidias kort till med hårdvaruaccelarationen. Du får högre poäng om du har ett instickskort, är det orättvist även det?
--Text---

Ja, det är det.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

min slutsats på detta blir att vantage mäter på ett dåligt sätt (mäter fel i och med att vissa resultat kommer två gånger). givetvis ska nvidia försöka få sitt kort att prestera så bra som möjligt skulle inte förvänta mig något annat.

tror alla kan hålla med om att även amd gör vad de kan för att få sina grafikkretsar att prestera så bra som möjligt.

att det pratas om fusk är bara larvigt i mina ögon...

Visa signatur

~warez the phuture~

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Egd
Om inte jag har fel så har X-Fi en egen ljudprocessor och ett eget RAM-minne som avlastar den vanliga CPU:n och lättar upp användningen av vanligt RAM-minne. Resultat: datorns (främst processorns) belastning vad gäller ljudavkodning sjunker, vilket i sin tur ger mer prestanda till 3DMark.
(Om jag har fel så rätta mig).

http://se.europe.creative.com/products/product.asp?category=2...

http://www.tomshardware.se/multimedia/ljudkort/20050819/

Du har fel då 3dmark inte har något ljud.

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9

Permalänk
Medlem

Om det nu är så att nvidia byter ut dll-filer för att få detta att fungera så tycker jag det är lite fuskigt.

Men egentligen förstår jag inte varför det skulle vara fel att låta nvidia göra physx på sina kort om dessa nu stödjer physx.
Argumenten var ju lite att detta ändå inte går att göra i spel sedan då kortet ska användas till antingen grafik eller fysik. Då kan man ju tycka att ett forum fullt med folk som varje gång ett resultat från 3dmark presenteras, säger någonting i stil med: "3dmark säger ändå ingenting". Låt det säga ingenting att nvidia kan köra sina kort som physx om man nu vill det istället för att köra det som grafikkort.

Gillar inte fulspel men 3dmark skiter jag fullständigt i.

Visa signatur

//Bacon

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Aure
Ursäkta, kan du förklara vad du menar? Menade du att det var rappakalja och att han fabulerade?

Citat:

Ursprungligen inskrivet av Gratzner
Vad i helv...?!?!?!

Översättning tack!

Hej på er, slugskallar!

Detta är SWEclockers -- inte RUSSIANclockers ellre ARABclockers, således skriver vi på svenska här. Skriver ni svenska som idioter, får ni acceptera att bli betraktade som sådana också.

Vad var det ni undrade över, nu igen?

Visa signatur

Move.L #BEEF, $4 -- Värkar är något kvinnor har innan de föder barn, visst verkar det konstigt?

Permalänk
Avstängd

Tycker folket ska ta och läsa nyheten riktigt innan de kommenterar.

Nvidia har länge medvetet gjort fixar för att få bättre prestanda i benchmarks - oavsett om det här var medvetet eller inte så har de samarbetat och utvecklat Vantage.

Då är det självklart att det är ett fel begått avav Nvidia och inte av Futuremark!

Testerna visar helt fel resultat då gpu'n endast är tillägnad fysikberäkningar och gpu'n belastas inte av annat jobb som de då gör i spel.

En anledning varför AMD inte vill lägga fysikberäkningar på deras gpu, alltså har AMD ett bättre utgångsläge då de går efter flerkärniga system och kan lägga fysikberäkningar på en gpu och andra beräkningar på en annan. Men finns säkert plus och minus för det med.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Jag tycker att nvidia å amd kan sluta kasta skit på varandra och istället koncentrera sig på att uteveckla grafikkort!! för mkt snack å alldeles för lite roliga nyinventioner!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Palme_570
Du har fel då 3dmark inte har något ljud.

Okej, då har jag väl det då. Men jag var inte helt säker så det blev lite spekulerande från min sida. Men som jag ser det så är det tänkt att 3DMark ska ge ett mått på datorns prestanda, right? Och då borde det egentligen inkludera ljud också för att göra testet så realistiskt som möjligt. Jag menar, hur många är det som t. ex. spelar utan ljud? Inte jag i alla fall. I och för sig så har inte 3DMark något ljud nu, och jag äger inget X-Fi (kör med det fullt acceptabla integrerade Realtek ALC889A). Men med tanke på allt snack om ökad prestanda som Creative kom med när de släppte X-Fi så borde det öka prestandan lite.
Förresten, har inte Windows någon ljudkörning (vet ej vad jag ska kalla det) igång hela tiden ändå?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mrfisse
Istället för att CPUn tar hand om alla fysikberäkningar för de som inte har ett Aegia kort så hjälper GPUn på nvidias kort till med hårdvaruaccelarationen. Du får högre poäng om du har ett instickskort, är det orättvist även det? Varför är det orättvist eller fusk om nvidia har teknologi som gör att PhysX beräkningar kan göras helt eller delvis på GPUn då den är bättre lämpad för den uppgiften än vad en CPU är? Fullkommligt skitsnack att det skulle vara fusk. Det kan och används redan i vissa spel. AMD/ATI kort klarar inte av det, 2bad... amd/ati bölar o snackar massa skit precis som vanligt när de ligger i underläge. Jag använder funktionen med glädje i UT3 t.ex. Eller det får jag inte, kanske orättvist mot de som har ATI kort för de inte kan lira de kartorna. snyft snyft

Fusket är hur denna kalkylationen faktiskt fungerar i praktiken - både processor och grafikkort tänker fysiken varsin gång hellre än att den görs samtidigt eller varken eller.

Sedan klarar AMD av Ageia fysik på sina kort, dels har de tekniken som krävs sedan länge och 4000-serien kommer klara detta bättre än någonsin med sina enorma mängder shaders. Det vi snackar om är ett gäng som sitter och har programmerat om Nvidias drivrutiner till RV670-kretsen för att få ökat fysikprestanda i Vantage i 3800-serien.

Snackar vi spel så är Nvidias lösning tveksam. Det krävs ju att vissa delar av grafikkortet prioriteras om för vissa fysikuppgifter, vilket jag sällan tror leder till en faktiskt ökad prestanda i spel då Unreal 3-baserade spel ofta är duktiga på att utnyttja all kraft i hårdvaran. Aegiafysiken är inte magi.

Nvidias kort är inget bra val för Ageia för tillfället, de behöver antingen en dedikerad fysikenhet eller ökat antal shaders för att det faktiskt skall bli en förbättring i prestanda. I nuläget blir det lätt att den skalar bort på en sak för att lägga in en annan. I teorin står sig AMD starkare med fysikuträckningar med deras extrema antal shaders i åtanke - men det återstår och se om det finns tillräckligt uträckningskraft där för att inte straffa grafikprestandan i aktion.

Permalänk
Medlem

Nvidia har potentiellt fuskat i vantage?.. jaha så intressant då......

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av skruvis
Nvidia har potentiellt fuskat i vantage?.. jaha så intressant då......

Ja exakt allt är som vanligt med Nvidia

Visa signatur

ola33