Nvidia PhysX beroende av CPU

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piddeman
wtf? är det nån som drar skit över Nvidia å ger ATI PR nu eller?

1: massa Nvidia kort e defekta (jag har aldrig haft fel på mina Nvidia kort
2: drivrutiner är falska (jag har aldrig haft problem med dom
3: å nu detta

Varför är swec så snabba på att döma Nvidia? jag tycker att dom borde se mer vad ATI å rota lite i deras saker med nu.

Du menar som alla sidor gjorde för ATi när 8800 serien var topp? It's just common sense för att generera pengar från ads - du hoppar på den som ligger i underläga för att få folk att klicka på länken, antingen för att som du - försvara dom, eller som andra - klaga på dom mera.

Visa signatur

former wow addict
former daoc addict

Permalänk
Medlem

Man det är riktigt smart för reklam! Men fail tyvär!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piddeman
nä, men dom e snabba på att döma Nvidia nu, dom klankar ner på allt dom gör ju, ATI är ju inte så bra, nästan alla graffekort trådar handlar mer eller mindre om defekta 48xx-serie =/, vf tar aldrig swec upp det för?

För att du har fel?

Visa signatur

Silverstone FT03B | Dell U2711 | Be-quiet E9 580w CM | ASUS GENE-Z | AMD 7970 | Intel 2500k @ 4,4 Ghz| Corsair H80i | 8GB Corsair LP

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av piXtor
Haha :D.. hur tänker du då Ratatosk? vad är det som är så speciellt med en PPU förutom att den kallas "Physics" processing unit? :P... Du ser ju också att Ageias chip och Nvidias chip presterar ungefär lika när processorn belastas för fullt. Alltså är den logiska slutsatsen att datorn flaskar någon annanstans. Själva det här påståendet att det inte ska vara cpu-beroende är ju löjlig, klart det är cpu-beroende... och om cpun flaskar så att den inte kan mata GPGPU/GPU/PPU med information då får man den här snarlika prestandan oberoende av vilket chip man använder eftersom cpun flaskar lika mycket och matar information lika snabbt.

Och nej GPUn kan ju inte hantera fysiken själv.. den kan accelerera parallela beräkningar, men om cpun inte talar om för GPUn vad den ska göra hur ska den då ha något att accelerera?

Låt mig förklara lite enklare:

endast cpu:

=>Objekt1 flyger och krockar med objekt 2=>beräkna kollison och nya hastigheter=>objekt 3 krockar med objekt 4=> beräkna kollision=>objekt 5 krockar med objekt 6=> beräkna kollision.

cpu + gpu/ppu/gpgpu

cpu [beräkningslista]=>objekt 1 flyger krockar med objekt2=>beräkna kollision
=>objekt 3 flyger krockar med objekt 4=>beräkna kollision.
=>objekt 5 flyger krockar med objekt 6=>beräkna kollision

gpun kan göra den här beräkningen i ett svep, det är exakt samma sak som grafikberäkning där cpun kan flaska så att man inte ser någon skillnad mellan en geforce 5200 och en gtx 280

Helt underbart att se att det finns en liten entusiast som är mer pedagogisk och drar mer logiska slutsatser än ett gäng som driver en ändå ganska så erkänt stor hårdvarusite..

Bra jobbat piXtor, tack för att du förklarar så man förstår

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Men de är ju bättre än ett Ageiakort?

Det sa jag väl ingenting om, men deras poäng är ju att avlasta CPU. Hur är det inte en bluff om det nu är så att resultaten är beroende av om CPU belastas eller ej?

Men ok, det fungerar ju faktiskt som grafen visar även vid 100% belastning, så det är väl ingen bluff rakt igenom, men jag finner det ändå extremt svårt att tro att Nvidia inte märkt detta själva.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av belga
Det sa jag väl ingenting om, men deras poäng är ju att avlasta CPU.

Är det verkligen den huvudsakliga poängen? Om man med nvidias lösning kan använda häftigare fysikeffekter än utan har de väl lyckats? Man slipper ju i alla fall köpa ett ageia-kort.

Permalänk
Medlem

Det enda som är intressant är hur det presterar i spel med physx-stöd.
Tänk på att det är en helt gratis funktion vi får till våra vanliga grafikkort. Om det ens fungerar nästan lika bra som med ett ageia-kort i systemet är det en vinst. Testerna visar ju att det under sämsta möjliga förutsättningar fungerar nvidia-lösningen bättre än ageia, så vad är egentligen problemet?

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Avstängd

<em>"It seems like the Geforce PhysX implementation is highly CPU dependent, and although some of this might have to do with the CUDA implementation, we didn’t expect to see the kind of performance drop we saw. It doesn’t bode well for PhysX in CPU heavy games and as yet we have no idea how well it works in GPU heavy games."</em>

Anledningen att AMD/ATI inte ville implementera fysik..

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Är det verkligen den huvudsakliga poängen? Om man med nvidias lösning kan använda häftigare fysikeffekter än utan har de väl lyckats? Man slipper ju i alla fall köpa ett ageia-kort.

Fast jag sitter inte här och garvar åt om det fungerar eller ej, jag finner humorn i att nvidia inte själva påpekat det grafen visar.

Och det är ju som du säger, häftigare fysikeffekter som är resultatet. Och det stämmer säkert att man får, eftersom kortet faktiskt hjälper till. Men i det att kortet hjälper till så avlastar det ju också processorn, förutsatt att nivån på effekter är konstant. Fördelen man får av detta är ju att man kan öka på effekterna, men grunden bakom detta är ju fortfarande att processorn inte behöver fixa hela jobbet. Med andra ord så avlastar man processorn och det är ju det som då blir poängen. Att man sen använder den extra kraft detta ger för att fixa ännu mer fysikeffekter är en annan sak.

Visa signatur

Xbox Live - Firaphex
Jag har inte alltid rätt, men jag utgår från det tills jag ser bevis på annat. Citera för svar
2008-06-18, Dagen då integriteten ställdes tå mot tå med maktmissbruket och förlorade.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av piddeman
wtf? är det nån som drar skit över Nvidia å ger ATI PR nu eller?

1: massa Nvidia kort e defekta (jag har aldrig haft fel på mina Nvidia kort
2: drivrutiner är falska (jag har aldrig haft problem med dom
3: å nu detta

Varför är swec så snabba på att döma Nvidia? jag tycker att dom borde se mer vad ATI å rota lite i deras saker med nu.

Jo senaste månaderna har det varit så!

Visa signatur

WS:/ASUS M4A78-E/Phenom 940BE/OCZ Reaper DDR2 PC8500 6Gb/CF Ati 4870 1GB//Server: AMD Phenom 9550/MSI K9A2 CF-F/OCZ Reaper PC8500 2Gb/XFX GTS 250 Nvidia
"En enskild människas död är en tragedi, en miljon döda är statistik" -Josef Stalin

Permalänk
Medlem

Fy fan testet är ju ett skämt. värför testade dom inte i Software Mode med 100% cpu load?

Visa signatur

Athlon x2 5000+ BE_Stepping G2_14x200 = 2800mhz_ VCore 1.15

Vilka jävla nötter det finns här!

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av belga
Och det är ju som du säger, häftigare fysikeffekter som är resultatet. Och det stämmer säkert att man får, eftersom kortet faktiskt hjälper till. Men i det att kortet hjälper till så avlastar det ju också processorn, förutsatt att nivån på effekter är konstant. Fördelen man får av detta är ju att man kan öka på effekterna, men grunden bakom detta är ju fortfarande att processorn inte behöver fixa hela jobbet. Med andra ord så avlastar man processorn och det är ju det som då blir poängen. Att man sen använder den extra kraft detta ger för att fixa ännu mer fysikeffekter är en annan sak.

Men situationerna med och utan avancerade fysikeffekter är väl inte helt jämförbara. Ofta får man välja om de skall aktivieras, och har man då ingen acceleration blir det förmodligen ospelbart. Om man har ett ageia-kort fungerar det förmodligen bra, om man använder nvidias lösning och av någon anledning kör ett par instanser av cpuburn kan man förvänta sig ungefär samma prestanda och om man stänger av cpuburn blir det mycket bättre.

Permalänk
Medlem

Ska det vara så svårt för vissa här att förstå att fysik beräkning på gpu kräver information någonstans ifrån, det trollar inte bara fram data ur tomma luften = CPU måste mata GPU med info om vad som ska göras... Om man belastar en quad till 100% på alla kärnor hur presterar då rent grafikmässigt? Kan grafikkortet i den burken få informationen den behöver? Nej... Tänk till före för guds skull....

Edit: Kan tillägga att i verkliga situationer uppnår man närapå aldrig 100% belastning på en dc eller qc om inte något är väldigt fel...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Citat:

Ursprungligen inskrivet av tellus82
Ska det vara så svårt för vissa här att förstå att fysik beräkning på gpu kräver information någonstans ifrån, det trollar inte bara fram data ur tomma luften = CPU måste mata GPU med info om vad som ska göras... Om man belastar en quad till 100% på alla kärnor hur presterar då rent grafikmässigt? Kan grafikkortet i den burken få informationen den behöver? Nej... Tänk till före för guds skull....

Presic vad jag tänkte skriva.

Vissa verkar svälja allt med hull o hår utan änns tänka efter.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tellus82
Ska det vara så svårt för vissa här att förstå att fysik beräkning på gpu kräver information någonstans ifrån, det trollar inte bara fram data ur tomma luften = CPU måste mata GPU med info om vad som ska göras... Om man belastar en quad till 100% på alla kärnor hur presterar då rent grafikmässigt? Kan grafikkortet i den burken få informationen den behöver? Nej... Tänk till före för guds skull....

Edit: Kan tillägga att i verkliga situationer uppnår man närapå aldrig 100% belastning på en dc eller qc om inte något är väldigt fel...

WORD!!!

Vad teset visar är ju GPU'n har högre bekräkningskraft än ett Aegia kort men att den faktiskt måste matas med data också...
Förövrigt så är det dags att SWEC lugnar ner sig lite... Så fort ni hittar nått skit om Nvidia så presenterar ni det utan att en bry er om vad det är...

Permalänk
Medlem

provade d här, datorn starta normalt, skärmen kom, sen släcktes den, ingen signal fast datorn e på, fick göra systemåterställning.......

Permalänk
Medlem

Finns det något sätt att dedikera en kärna till CUDA/PhysX? Då skulle man ju kunna köra CPU+GPU på tre kärnor och låta ena kärnan agera stöd åt CUDA/PhysX.
Skulle vara intressant med lite bättre styrning av vilka kärnor som gör vad.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av dsk
Skulle vara intressant med lite bättre styrning av vilka kärnor som gör vad.

Men man får nog bättre prestanda om operativsystemet får sköta sådant, det är det man har det till.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MrStalker
Det enda som testet visar är att CPU:n blir en stor flaskhals under 100% belastning. Konstigt. Tänk att ifall jag belastar CPU:n 100% och försöker starta MSN så går det också skitsegt. Det måste betyda att MSN belastar CPU:n väldigt mycket...

Vad som vore mer intressant är hur CPU:ns frekvens påverkar PhysX-prestandan.

Du kör inte MSN med ditt grafikkort va?

Permalänk

tjooohoo lägg ner stridsyxan grabbs. nvidia har återigen skjutit sej själv i foten. som dem gjorde med 8800gt. förlåt men måste FAIL!

Visa signatur

Gammal Värsting/ Core 2 Duo E6850 @3.6ghz / EVGA 680i Sli / Corsair Dominator 1066 4gb/ Gainward 8800 Ultra

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tellus82
Ska det vara så svårt för vissa här att förstå att fysik beräkning på gpu kräver information någonstans ifrån, det trollar inte bara fram data ur tomma luften = CPU måste mata GPU med info om vad som ska göras... Om man belastar en quad till 100% på alla kärnor hur presterar då rent grafikmässigt? Kan grafikkortet i den burken få informationen den behöver? Nej... Tänk till före för guds skull....

Edit: Kan tillägga att i verkliga situationer uppnår man närapå aldrig 100% belastning på en dc eller qc om inte något är väldigt fel...

Precis. Alla har vi väl kört prime på samtliga kärnor och då startar ju som sagt, inte ens msn sådär jättesnabbt.

Håller med om att det var en knepig artikel, fick läsa två gånger!

Visa signatur

Asus TUF Gaming WiFi | Ryzen 5600X | 32 GB Ballistix| Vega 56 | Newton R2 650 W

Permalänk

Jomenvisst, belasta dina kärnor till 100% o kör en runda 3Dmark o se vilka fina poäng du får, inte... sitter du helt plötsligt på ett skitkort bara för det?

Visa signatur

6700K @ 4,8GHz | 32GB | 3070

Permalänk
Medlem

LOL
Jag tycker det är helt underbart att sitta här å titta på hur alla fan-boys tar allt som nån annan skriver som ren sanning...

Är det nån som har testat själv??? eller är det ingen som vågar?

Jag har faktiskt testat själv... och har fått resultat som helt motsäger Fudzilla *som är erkända Nvidia hatare* Nu måste jag dock påpeka att minna resultat är VÄLDIGT udda...

System:
Amd X2 6000+
4Gb ddr2 crucial
Amd 780g chipset på ett Asuskort.
Nvidia 9800GTX

Den enda skillnaden jag gjorde mot deras test är att jag använde Orthos istället för cpu-burn för att belasta min cpu.

Resultat:

idle cpu: ~3300 poäng...
100% cpu: ~4400 poäng...

bara jag som ser nått konstigt här???

Jag har kört båda testen ett flertal gånger för att verifiera...

bara jag som börjar misstänka att det är PhysX-benchen som kanske inte är 100%??

som sagt folk... ta reda på FAKTA innan ni börjar kasta skit på varandra... å då bryr jag mig inte om vilket håll ni kastar...

Å Swec! ni borde ha tillgång till att göra detta test själva... våga stå för er själva å inte bara lita/kopiera vad andra häver ur sig!!!

Visa signatur

Fear only Fear itself. I am fear!

Amd Phenom II 965@4Ghz, Asus Crosshair II, 6Gb ddr2@6400, Corsair 620 WX, Antec P182B, Ati 5870, Intel X-25M G2 SSD, raptor m.m diskar :P

Permalänk

Det är fan läskigt hur folk kan kasta skit på Nvidia när det går dåligt, för att sen prisa deras grafikkort när det går bra. Skrattretande.

Själv vänder jag kappan efter vinden, men ger fan i att smutskasta.

Visa signatur

Asus P8Z68 Deluxe/Gen Sock 1155 -- Inte Core I7 2700K@4.5Ghz -- EVGA GeForce GTX 970 SSC GAMING ACX 2.0+ -- Corsair 16GB DDR3 Vengeance 1.5V Low Blue -- SSD OCZ Agility 3 120GB -- Microsoft Windows 7 -- Foldar med cirka 180k PPD (körs ej 24/7)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av seadxre3rg
tjooohoo lägg ner stridsyxan grabbs. nvidia har återigen skjutit sej själv i foten. som dem gjorde med 8800gt. förlåt men måste FAIL!

På vilket sätt sköt dem sig i foten med 8800gt? Samt det krävs väll lite jobb med att få PhysX att fungera optimalt, tycker det gett en riktig boost hitils med tex ut3

Visa signatur

Gam dator: Rampage 3 Extrem, 6x4GB Ram lägsta hastighet på minnet är 1600mhz Högsta G.skill ripjaws 2133mhz + ramkylare, Processor(ER) 6Core12Trådig Xeon x5660 Men eftersom jag haft så jädra ont i ryggen har jag bara kommit till att ta ut gamla processorn den nya ligger ihopklistrad i ett brev en x5670(Kan vara 75) Iaf många multipliers högre. Ljudkort Asus Z. Några normala diskar + 2ssd Intel 730 mm. Gfx Asus matrix platinum 290x. Corsair hx650 ca 3 år gammalt. Fractal design R4 window. Skärm phillips brilliance 29" 2560x1080p Finfin skärm :)

Permalänk
Medlem

Att Swec läggar ut detta visar bara på stor inkompetens..

Permalänk
Medlem

Vad spelar det för roll om skiten använder CPU'n också, det är fortfarande en jävla skilnad mellan att låta BARA CPU'n göra allt och att låta grafikkortet hjälpa till.
Jag är iaf skitnöjd och folk med quadcores lär ju också vara nöjda då dom är ett steg närmre till att använda alla cores ordentligt i spel.

Permalänk
Citat:

Ursprungligen inskrivet av piddeman
wtf? är det nån som drar skit över Nvidia å ger ATI PR nu eller?

1: massa Nvidia kort e defekta (jag har aldrig haft fel på mina Nvidia kort
2: drivrutiner är falska (jag har aldrig haft problem med dom
3: å nu detta

Varför är swec så snabba på att döma Nvidia? jag tycker att dom borde se mer vad ATI å rota lite i deras saker med nu.

Hehe jag tycker Sweclockers har varit duktiga att köra över ATi sedan 2006 så nu är det allt Nvidias tur.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Hur bra presterar AMDs egna fysikberäkningar på grafikkorten under 100% load?

Visa signatur

Att förespråka Mac på Swec är som att förespråka hybridbilar på en raggarträff i Mora.

Permalänk

Men de flesta spel idag använder väl bara 2 kärnor om jag inte fattat fel? Varför kan de inte släppa en trevlig grafikdrivare som kör fysik på mina andra 2 kärnor? Inte för att jag tror min CPU maxbelastar ens en kärna när jag spelar men det vore ju endå ganska tufft för oss med Quad Core CPU att kunna köra fysik på 2 kärnor och.. ja normal beräkningarna på den andra?

Eller kräver spelen 4x2-4GHz?

Visa signatur

Jag stavar inte fel, tangenterna sitter bara inte på rätt ställe!
Datorn: |Asus Rampage Extreme| |Intel Core 2 Extreme QX9650 @4.2GHz | |Corsair Dominator 1800Mhz 8Gb DDR3(4x2Gb)| |2xHIS Radeon HD4870| |300Gb WD VelociRaptor +1,53 TiB HDD| |Corsair 1KW PSU
Skärmar: |LG W2452V-PF 24" (Full HD)| |LG M228WA-BZ 22"| |LG 32LB75 32" LCD-TV|