Allt från Computex 2023

Nvidia PhysX beroende av CPU

Permalänk
Melding Plague

Nvidia PhysX beroende av CPU

För bara några dagar sedan släppte Nvidia en drivrutin som ger alla ägare av Geforce 8 och senare grafikkort möjligheten att låta GPU räkna fysik. Syftet är att avlasta den vanliga processorn, men ett test visar att PhysX är kraftigt beroende av CPU.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa leder till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

hur blir det om man kör separat graffe till phys x, krävs det mkt av cpun endå?

Visa signatur

Surf: FD S/\Msi Mpg Gaming Edge/\i9 9900k
(H150i pro)/\5700 xt (H90)/\32G 3200mhz/\970 pro/\860 evo

Htpc/spel: Ghost S1/\Msi Gaming Edge/\ 9600k
GTX 1660TI windforce 3x/\ 16G 3000mhz/\860 evo

Permalänk
Medlem

Det enda som testet visar är att CPU:n blir en stor flaskhals under 100% belastning. Konstigt. Tänk att ifall jag belastar CPU:n 100% och försöker starta MSN så går det också skitsegt. Det måste betyda att MSN belastar CPU:n väldigt mycket...

Vad som vore mer intressant är hur CPU:ns frekvens påverkar PhysX-prestandan.

Visa signatur

// Jay-C
CPU: i7 2600K @ 4.5GHz 1.35V (load) w/ H80i v2 | GPU: GTX 1660 GAMING
SSD: MX500 500GB | MB: P8Z68-V Pro | RAM: 2x8GB G.Skill 2133 MHz CL11
APU: X-Fi Titanium Pro | PSU: AX850
Samla alla dina betalkort, gratis valutaväxling, Google Pay m.m. med Curve. £5 bonus med länken: https://www.curve.app/join#EAVGZ56E

Permalänk
Hedersmedlem

Vänta bara...ATI kommer snart och fixar till det.

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Medlem

Måste dock få påpeka att hela artiklen är väldigt konstigt utformad. Man får läsa den ett par gånger för att förstå och diagrammet är väldigt konstigt utformat.

Permalänk
Hjälpsam

Nvidas PhysX avlastar processorn, men det avlastar den inte lika bra som en PPU, en del av fysiken måste fortfarande köras på CPU:n.
Om man tänker efter är det inte så konstigt att en PPU klarar fler sorters fysikberäkningar än en GPU.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MrStalker
Det enda som testet visar är att CPU:n blir en stor flaskhals under 100% belastning. Konstigt. Tänk att ifall jag belastar CPU:n 100% och försöker starta MSN så går det också skitsegt. Det måste betyda att MSN belastar CPU:n väldigt mycket...

Vad som vore mer intressant är hur CPU:ns frekvens påverkar PhysX-prestandan.

Nja, inte riktigt. Hela poängen här var ju att GPU:n skulle hantera fysiken och inte CPU:n.

Med din liknelse skulle man kunna säga att man belastar CPU:n till 100% och sen låta GPU:n starta MSN, vilket i så fall borde fungera bra eftersom CPU:n inte ska ha något med saken att göra.

Visa signatur

CPU: Intel Xeon E5-2620v3 (6x2.4 GHz) RAM: 16GB (4x4GB) 2133 MHz DDR4 ECC
GPU: EVGA GeForce GTX 970 4GB Chassi: Dell Precision Tower 7910, 1300W (v2)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Quickzor
ännu en nvidia flopp:P

Något måsta man ju vara bra på.

Permalänk
Medlem

Haha :D.. hur tänker du då Ratatosk? vad är det som är så speciellt med en PPU förutom att den kallas "Physics" processing unit? :P... Du ser ju också att Ageias chip och Nvidias chip presterar ungefär lika när processorn belastas för fullt. Alltså är den logiska slutsatsen att datorn flaskar någon annanstans. Själva det här påståendet att det inte ska vara cpu-beroende är ju löjlig, klart det är cpu-beroende... och om cpun flaskar så att den inte kan mata GPGPU/GPU/PPU med information då får man den här snarlika prestandan oberoende av vilket chip man använder eftersom cpun flaskar lika mycket och matar information lika snabbt.

Och nej GPUn kan ju inte hantera fysiken själv.. den kan accelerera parallela beräkningar, men om cpun inte talar om för GPUn vad den ska göra hur ska den då ha något att accelerera?

Låt mig förklara lite enklare:

endast cpu:

=>Objekt1 flyger och krockar med objekt 2=>beräkna kollison och nya hastigheter=>objekt 3 krockar med objekt 4=> beräkna kollision=>objekt 5 krockar med objekt 6=> beräkna kollision.

cpu + gpu/ppu/gpgpu

cpu [beräkningslista]=>objekt 1 flyger krockar med objekt2=>beräkna kollision
=>objekt 3 flyger krockar med objekt 4=>beräkna kollision.
=>objekt 5 flyger krockar med objekt 6=>beräkna kollision

gpun kan göra den här beräkningen i ett svep, det är exakt samma sak som grafikberäkning där cpun kan flaska så att man inte ser någon skillnad mellan en geforce 5200 och en gtx 280

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av piXtor
Haha :D.. hur tänker du då Ratatosk? vad är det som är så speciellt med en PPU förutom att den kallas "Physics" processing unit? :P... Du ser ju också att Ageias chip och Nvidias chip presterar ungefär lika när processorn belastas för fullt. Alltså är den logiska slutsatsen att datorn flaskar någon annanstans. Själva det här påståendet att det inte ska vara cpu-beroende är ju löjlig, klart det är cpu-beroende... och om cpun flaskar så att den inte kan mata GPGPU/GPU/PPU med information då får man den här snarlika prestandan oberoende av vilket chip man använder eftersom cpun flaskar lika mycket och matar information lika snabbt.

Och nej GPUn kan ju inte hantera fysiken själv.. den kan accelerera parallela beräkningar, men om cpun inte talar om för GPUn vad den ska göra hur ska den ha något att accelerera?

Det där förstod man bra.

Visa signatur

Intel Core i7 3770K@3.5, ASUS P8Z77V-DELUXE, 16GB RAM, GeForce GTX 660 Ti, ASUS XONAR ESSENCE STX, SAMSUNG 830 256GB SSD, 5x Samsung HD204UI, 4x WD40EFRX, 1x Western Digital Caviar Green WD20EARX, 1x Samsung HD103UJ, Windows 8.1 Pro

Permalänk
Avstängd

wtf? är det nån som drar skit över Nvidia å ger ATI PR nu eller?

1: massa Nvidia kort e defekta (jag har aldrig haft fel på mina Nvidia kort
2: drivrutiner är falska (jag har aldrig haft problem med dom
3: å nu detta

Varför är swec så snabba på att döma Nvidia? jag tycker att dom borde se mer vad ATI å rota lite i deras saker med nu.

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk

Haha vad fasen är detta för flummtest?!

Klart som fan att vilket program som helst går segt om t.ex Prime belastar CPUn till 100%

Om man nu skulle ha en speciell hårdvara för att MSN ska gå snababre och dra mindre CPU. Då behöver MSN, säg, bara 3% CPU tid istälelt för t.ex 20%. Men om CPUn går på 100% då är det ju självklart att man inte får någon prestanda vinst eftersom MSN behöver 3% CPU tid!!

Måste bara säga ett det är ett jäkla pundartest dom har gjort.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piddeman

Varför är swec så snabba på att döma Nvidia?

Är väl inte Sweclockers som hittar på nyheterna precis?

Visa signatur

1. Core i5 q6600, r280x, 4gb ram ddr3, 22tum benq widescreen.
2.P4 3.2ghz(zalman kylning) ,19" skärm crt hundai med mer.
4.Commodore 128!

Permalänk
Medlem

Det värsta är ju inte att det är ett "pundartest" som wildcover så färggrant uttrycker det. Det värsta är att swec lägger upp det här som nyhet. Måste säga att min respekt för sajten sjunker när man ser sånt här.

Permalänk
Medlem

Hela artikeln lät som nåt negativt, men diagramet visar tvärtom eller? Vid full belastning så sjunker geforce till liknande prestanda som Ageias fysikkort och när inte cpu'n är flaskhals så överglänser den totalt. Min slutsats blir tydligen att med en bra cpu i kombination med geforce kör man över ett separat fysikkort totalt.

En tanke... om man har en flerkärnig cpu (helst 4 eller fler kärnor), skulle man då inte kunna lösa detta flaskhalsproblem genom att en kärna då helt beordras till att enbart hjälpa gpu'n med fysikberäkningar?

Visa signatur

// Valiant
Dator: Gigabyte G1.Sniper Z97, Intel i7 4.0 Ghz, 8 GB RAM, Radeon R9 200, SB X-Fi, Logitech Z-5500, Win8.1 64-bit
Mobil: LG G Flex (primär), Nokia Lumia 1020 (sekundär)

Permalänk
Medlem

Håller med valiant! Jag tycker testet definitivt visar till nvidias fördel och det kan vem som helst som förstår något om datorer se. Det är bara skumt att swecs redaktion inte ser det =/

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Em3l
Är väl inte Sweclockers som hittar på nyheterna precis?

nä, men dom e snabba på att döma Nvidia nu, dom klankar ner på allt dom gör ju, ATI är ju inte så bra, nästan alla graffekort trådar handlar mer eller mindre om defekta 48xx-serie =/, vf tar aldrig swec upp det för?

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem

Definitivt skumt om Geforce Physx skulle vara CPU intensivt!

Jag förslår att alla som nu ger sig in i debatten här på forumet även läser källan till Swecs artickel; fudzilla. Länken är ju lätt å hitta i slutet av artickeln!

Visa signatur

The burk: FD Define Nano S, 1 FD 140 & 1 Corsair 120 i fronten, 1st FD 120 bak || FD Ion SFX-L 500W || AMD Ryzen 3 3300x m. Wraith || Asrock Fatal1ty B450 gaming-ITX/ac || PowerColor Red Devil 5600XT || Toshiba OCZ RC500 500GB NVMe M.2 || 2*8GB Corsair Vengeance LPX Black DDR4 3200MHz || Asus VE247H LED TN || Ducky Shine II MX-red green LED || Steelseries Sensei mus

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av valiant
Hela artikeln lät som nåt negativt, men diagramet visar tvärtom eller? Vid full belastning så sjunker geforce till liknande prestanda som Ageias fysikkort och när inte cpu'n är flaskhals så överglänser den totalt. Min slutsats blir tydligen att med en bra cpu i kombination med geforce kör man över ett separat fysikkort totalt.

Precis, och tanken med funktioner av denna typ är väl inte i första hand att göra processorns belastning mindre utan att kunna erbjuda häftigare fysikeffekter. Givetvis är dessa mål inte oberoende av varandra, och det hade varit elegant om processorns belastning inte påverkade alls, men nvidias version är ju som sagt minst lika bra som ageias.

Permalänk
Medlem

Vissa verkar missa poängen... Att prestandan sjunker när man belastar cpun med ett utomstående program är självklart. Att skillnaden är så pass stor mellan Ageias och Nvidias kort, både vid noll och full belastning är det som man ska fokusera på.

En trolig anledning är att nvidia kör Physx mjukvara genom CUDA. Detta kräver förmodligen en viss inverkan av cpun och således blir prestandan lidande. Detta går säkert att optimera med ny mjukvara men allmäna kort kommer vara lite segare än kort skapade för _ett_ specifikt syfte.

Permalänk
Medlem

Tycker det är lite löjligt att kolla vid 100% belastning, klart det krävs viss cpu-kraft. Men slår vad om att man skulle få minst dubbla poängen om man bara lastade cpu:n till 95%

Visa signatur

Intel i7 4970K, Fractal define mini, 24GB DDR3 1600mhz , 500GB SSD * 2 RAID0, GeForce 1060 6gb

Permalänk
Medlem

Men vid full belastning skiljer det knappt något mellan ageia och nvidia, alltså är det inte där det flaskar. Vid noll belastning överglänser nvidias råa kraft, men vid full belastning så får nvidias kort aldrig chansen att utnyttja den. Om du läser testet så står det att båda får 22 fps, och endast 62 poäng skillnad till agieas fördel :P.. högst försumbart... Stör mig mest på artikelns titel.. "CPU-beroende".. wel duuh... vad i datorn är inte cpu-beroende?

Permalänk
Medlem

Nu menar jag inte kondensatorer, resistorer och LEDs=P.. men alla saker som kan anses vara "enheter" i datorn är ju "kraftigt beroende" av cpun när det gäller att benchmarka prestanda. Det är ju därför man alltid kör med så kraftfull cpu som möjligt vid benchmarks för att eliminera den här flaskhalsen.

Permalänk
Medlem

Fail, väldigt, väldigt fail!
Jag vet inte riktigt vad mer man kan säga. Om siffrorna stämmer så är det ju inte mer än ren bluff, och jag har extremt svårt att tro att nvidia inte visste om det.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Medlem

Men siffrorna är ju som de ska vara! nvidias hårdvara gör ju fysikberäkningarna snabbare, vad är det som är så konstigt?

Det man också missar vid det andra testet som Fudzilla artikeln länkar till är att fysik är tidsberoende. Ju fler fps man har desto mer måste man beräkna och desto mer information måste matas till fysikprocessorn. Det är därför CPUn påvisar högre användning med användning av nvidias hårdvara jämfört med pure software. CPUn kämpar för att hinna med den snabba fysikhårdvaran. CPUn utför ju för övrigt helt skilda saker i de två fallen vilket också gör att testet inte är helt pålitligt.

Permalänk

Sweclockers börjar likna se och hör.

Jag har inte sett ett enda spel där det inte riktigt fungrar, men swe vet visst bättre. 100% på alla kärnor är inte tyngre belastning, det är den absoluta maximalbelastningen. Den inträffar i princip aldrig. Om swe nu ska skriva skitnyheter så kan de ju undvika att lägga till egen skit i det hela.

Dagens spel använder små delar av cpu kraften så det finns massor över, men det är klart att folk ska börja lipa över något.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Medlem

Ganska intessägande test, eller vad man ska kalla det
det mesta går segare om man belastar cpu med 100 % alla kärnor, inget konstigt.
Sedan bör man nog testa med lite olika CPU dual och quad
och med olika antal kärnor belastade och olika %
vid real world andvänding lastas CPU väldigt sällan med 100% på alla kärnor också, så tror knappast att detta är det minsta problem.

Hur man skapar en höna av en fjäder verkar detta mest som.

Visa signatur

Acer Predator Helios 300

Permalänk
Medlem

Löjligt

Denna tråd är minnst sagt löjlig. Det enda benchen visar är att Nvidia inplementation behöver mer CPU för att mata GPUn än vad ett "riktigt kort" behöver eller att de har olika prioriteringar. (Buss clock, CPU clock). Det vissar varken om det är bra eller dåligt. Och angående pratet om vad som inte är CPU limited, ska vi snaka I/O eller, CPU time?

Som sagt löjligt. Vi vet inget

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av belga
Fail, väldigt, väldigt fail!
ren bluff

Men de är ju bättre än ett Ageiakort?

Permalänk
Medlem

BDW har ni hört någe om hur ATI implementationen går?

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.