Nvidia PhysX beroende av CPU

Permalänk
Medlem

Haha surprise surprise ...nvidia har fu**at upp ännu en bra företag...precis som man hade gjort med 3DFX

Visa signatur

i5 750@3,57 Ghz (21x170) 1,225V|4GB OCZ DDR3 6-6-6-18 1333 Mhz|GTX470 @ 800 Mhz|Asus P7P55-M|Cooler master silent Pro M series 700W |A-data S596 64 GB SSD JMicron 612 |2 TB Samsung F3 RAID0| X-fi Music| IN-WIN Dragon Slayer|CoolerMaster TX3|

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av WhoiSTech
Men de flesta spel idag använder väl bara 2 kärnor om jag inte fattat fel? Varför kan de inte släppa en trevlig grafikdrivare som kör fysik på mina andra 2 kärnor? Inte för att jag tror min CPU maxbelastar ens en kärna när jag spelar men det vore ju endå ganska tufft för oss med Quad Core CPU att kunna köra fysik på 2 kärnor och.. ja normal beräkningarna på den andra?

De flesta spel använder nog inte ens två kärnor och redan dagens drivrutiner tar nog den processorkraft som krävs från eventuellt lediga sådana. I vanliga fall blir som sagt processorer sällan särskilt hårt belastade vid spelande, men i det här testet fick någon för sig att med hjälp av cpuburn belasta samtliga kärnor maximalt medan testet utfördes.

Permalänk
Medlem

Har jag fel om jag tänker såhär?

Nyheten kritiserar att kortet är beroende av CPUn eftersom det är till för att avlasta CPUn. Men det finns inga siffror som visar hur mycket extra processorkraft kortet kräver. Så det står egentligen ingenting om hurvida GPUn faktiskt misslyckas med att avlasta CPUn..

/Marcus

Visa signatur
Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av MarcusW
Har jag fel om jag tänker såhär?

Nyheten kritiserar att kortet är beroende av CPUn eftersom det är till för att avlasta CPUn. Men det finns inga siffror som visar hur mycket extra processorkraft kortet kräver. Så det står egentligen ingenting om hurvida GPUn faktiskt misslyckas med att avlasta CPUn..

/Marcus

Jag skulle tro att få köper fysikkort och liknande för att de tycker att processorn belastas för hårt, den primära anledningen är väl att man vill ha stöd för bättre fysikeffekter? Intressant vore att veta vilken fysikprestanda man får utan acceleration, med och utan cpuburn i bakgrunden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Elgot
Jag skulle tro att få köper fysikkort och liknande för att de tycker att processorn belastas för hårt, den primära anledningen är väl att man vill ha stöd för bättre fysikeffekter? Intressant vore att veta vilken fysikprestanda man får utan acceleration, med och utan cpuburn i bakgrunden.

Helt klart skulle de siffrorna vara mer intressanta, fast frågan är hur relevant det är att ha med cpuburn överhuvudtaget. Märkte främst ord i nyheten, då det står att den ska avlasta processorn för snyggare fysikeffekter utan att bildfrekvensen blir lidande.

Visa signatur
Permalänk
Avstängd

FAIL FAIL FAIL... nVIDIA cirkusen fortsätter, flop efter flop.

Citat:

Ursprungligen inskrivet av piddeman
nä, men dom e snabba på att döma Nvidia nu, dom klankar ner på allt dom gör ju, ATI är ju inte så bra, nästan alla graffekort trådar handlar mer eller mindre om defekta 48xx-serie =/, vf tar aldrig swec upp det för?

Det säger du?
Är det någon nVIDIA fanboy forum eller?
För här på swec ser jag ingen.

Jag citerar en vän "det är bara idioter som köper Geforce".. börjar förstå honom

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem

Med tanke på så mycket skit ati fått under runt 2år fast nu när ati äntligen är bättre ska det klagas på nvidia och sen ska folk klaga på det klagas men detta är en rätt så stor fail.

Permalänk

Jag måste faktiskt säga att jag känner mig road av att läsa alla ogrundslösa ignoranta påstående att nVidia har misslyckats. Kan ha förståelse dock, efter två ärs väntan så har nu alla fläktpojkar guldtillfälle att basha nVidia nu när AMD har fått lite frisk luft i seglen.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SuperNova
Vissa verkar missa poängen... Att prestandan sjunker när man belastar cpun med ett utomstående program är självklart. Att skillnaden är så pass stor mellan Ageias och Nvidias kort, både vid noll och full belastning är det som man ska fokusera på.

En trolig anledning är att nvidia kör Physx mjukvara genom CUDA. Detta kräver förmodligen en viss inverkan av cpun och således blir prestandan lidande. Detta går säkert att optimera med ny mjukvara men allmäna kort kommer vara lite segare än kort skapade för _ett_ specifikt syfte.

Men...
Eftersom nVidiakortet presterar bättre än Ageias kort i alla fall så kan man inte säga något med säkerhet.

Dvs. nVidias lösning är bättre än ageias på precis allt (om man utgår från den grafen i nyheten) i fysikväg.

Vad kan man klaga på?

Sen att nVidias lösning kanske går på knäna i verkliga spel är en annan femma men det säger ju i alla fall inte nyheten något om.

Permalänk
Medlem

Det är en ny teknik och den har väll lite defekter men tror nvidia kommer fixa det. Jag testa att Köra dom där spelen ut drivrutinera tyckte de gav fin skillnad att lira med drivrutiterna. Sedan detta med göra om Grafikkort till Fysik kort beror ju även vilket kort man väljer. Personligen tror jag mitt Geforce 8600 GT 512 mb kommer bli ett utmärkt fysik kort

Visa signatur

För er som är nyfikna på vad jag styr med när jag inte är vid datorn och är med min sambo: https://www.youtube.com/watch?v=T5JfkDbtBTA&t=916s

Permalänk
Medlem

Suck...

Alla dessa fanboy-krig, vad är det med er egentligen? Hur orkar ni... När jag köper nytt grafikkort, ger jag blanka fan i vilket märke det är på det, det är hur det presterar som är det viktigaste för mig.

Mitt senaste köp var ett 8800GT G92. Riktigt trevligt kort, men det tycker jag o andra sidan att ATI's 4800-serie är. Hade jag väntat, hade det blivit ett ATI-kort.

När nu NVidia gick och köpte upp Ageia, för att ingjuta deras teknik i CUDA-graffekort som redan fanns ute på marknaden, blev jag givetvis glad.

Istället för att köpa ett separat fysikkort, får man en skön prestandaboost, och detta helt GRATIS. Man behöver inte köpa något fysikkort för över 1000 kronor. Iallafall något som jag är nöjd med. Visst, nu kan man få lite svårt och komma över ett fysikkort när NVidia tog över, men gratis är o andra sidan gott.

Och så oförståeligt tycker inte jag att det är, att vissa beräkningar utförs av CPU'n och inte GPU'n. Jag menar, i ett spel har ju rimligtvis GPU'n redan att göra, med att rita bilder. Klart att det är rimligt att låta CPU'n sköta lite beräkningar då? Onödigt att lasta GPU'n till den grad att den flaskar om den ska sköta alla beräkningar.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Broder Truck
Visst, nu kan man få lite svårt och komma över ett fysikkort när NVidia tog över, men gratis är o andra sidan gott.

Att ageiakorten är sällsynta är väl rätt oväsentligt då 8800gt-kort är billigare och enligt nyheten presterar bättre även då processorn är maximalt belastad.

Permalänk
Hjälpsam

Ingen av er som använder Nvidia-fysik som testat Realitymark än?
http://www.chip.de/downloads/Ageia-RealityMark-1.0_22311776.h...
Jag får ungefär drygt 13 gånger högre fps eller strax över 30 med Ageias fysikkort.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Jag måste faktiskt säga att jag känner mig road av att läsa alla ogrundslösa ignoranta påstående att nVidia har misslyckats. Kan ha förståelse dock, efter två ärs väntan så har nu alla fläktpojkar guldtillfälle att basha nVidia nu när AMD har fått lite frisk luft i seglen.

=/

Du, den dagen AMD släpper en Intel-dräpande CPU så kopplar jag ur ADSLet.

Visa signatur

That's just my opinion, I could be wrong...
> C2Q Q6700 > 8GB PC6400 > Gigabyte 965P-DQ6 > HD4870X2 & HD4650
> Lian Li PC-201B > Corsair HX620 > 10.46TB > HP LP3065 & 2x HP LP2065

Permalänk
Avstängd

Folk klagar på att sweclockers skulle vara vinklade på något vis. Men de har verkligen inte skrivit positiva saker om ATI när det gått dåligt, nu är det bara så att det kommer upp massa dåliga saker om nVidia och har gjort det i några månader. Så det är klart att det blir mycket nyheter om det. Samtidigt som ATI fått en riktigt bra serie.

Angående testet så känns det lite som ett speltest. Kör jag ett spel med ett svagt grafikkort så får jag låt säga 30FPS. Men med ett starkt 300FPS. Belastar jag då processorn så den blir flaskhals, då sjunker givetvis skillnaden mycket mellan korten, eftersom CPUn belastar stora delar av tiden så kan det plötsligt bli 17 mot 21FPS mellan korten.

Permalänk
Avstängd

Kan ju kanske va att själva Fluidmark kräver processorkraft för att fungera som de ska? För inte fan kan väl en GPU sköta alla beräkningar som görs i ett program, eller? Aja, i vilket fall som helst så är de en jävligt schyst feature som ger mer hästkrafter i burken. Sen gäller de ju faktiskt att optimera programmet rätt, tvivlar på att Fluidmark tänkte på att "Någon kommer kanske köra ett tungt program i bakgrunden, bäst vi sliter arslet av oss och optimerar programmet för de"

Visa signatur

You stink. Bender's great. Deal with it

Permalänk
Medlem

Det var nog en prao på Fudzilla som utförde det testet och sen hittade en prao på Swec det o la ut det här för att reta gallfeber på några och glädja någon annan. Jag tror inte att det dröjer länge tills vi se ett seriöst test som visar helt andra siffror.
Osså e cirkusen i full gång igen och ju mer cirkus desto bättre grafik till oss !!!
Halleluja.
Ingen som håller med............. HALLÅ alla som skäller över allt o alla.
Kommentar tack !!

Visa signatur

Antec Sonata 3,Gigabyte MA790X-DS4, 4Gb Ballistix pc8500, AMD64 x 2 6400+(2x3200mhz), Powercolor 3870 512Mb. Samsung Syncmaster 2232BW

Permalänk
Citat:

Ursprungligen inskrivet av Elgot
De flesta spel använder nog inte ens två kärnor och redan dagens drivrutiner tar nog den processorkraft som krävs från eventuellt lediga sådana. I vanliga fall blir som sagt processorer sällan särskilt hårt belastade vid spelande, men i det här testet fick någon för sig att med hjälp av cpuburn belasta samtliga kärnor maximalt medan testet utfördes.

Men jag måste ju erkänna att det känns meningslöst att skapa massa nya flasiga drivers så att grafikkortet kan överta CPU beräkningarna.. iaf så länge 100% av CPUn redan används, Jag ser som sagt hellre att man skapar ett program eller något som kan använda min cpu istället för att jag ska behöva skaffa mig ett till grafikkort. Det är ju befängt att Grafikkortet ska behöva maxas så att man ska behöva skaffa nytt för att klara spela spelet. och CPUn i princip ligger på stranden o solar.

Eller är jag helt borta? (Läste dessutom precis artiklen om nehalems efterföljare)

Visa signatur

Jag stavar inte fel, tangenterna sitter bara inte på rätt ställe!
Datorn: |Asus Rampage Extreme| |Intel Core 2 Extreme QX9650 @4.2GHz | |Corsair Dominator 1800Mhz 8Gb DDR3(4x2Gb)| |2xHIS Radeon HD4870| |300Gb WD VelociRaptor +1,53 TiB HDD| |Corsair 1KW PSU
Skärmar: |LG W2452V-PF 24" (Full HD)| |LG M228WA-BZ 22"| |LG 32LB75 32" LCD-TV|

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av WhoiSTech
Eller är jag helt borta?

Ja. Fördelen med att använda just grafikkort till grafikberäkningar eller fysik/grafikkort till fysikberäkningar är att de är fantasktiskt mycket bättre på sådant än vad processorer är. Trots att din processor kanske inte är särskilt belastad när du spelar skulle du inte kunna få mycket bättre grafik/fysik genom att använda den mera intensivt. Numera krävs det oftast 3d-acceleration för att spel skall starta över huvud taget, men på den gamla goda tiden kunde man tydligt se hur stor skillnad det blev i till exempel quake eller unreal när man köpte ett 3d-kort; istället för en pixlig och grötig bild fick man något jämnt och fint med färgat ljus. Utan att prestandan försämrades.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av TrooPnet

bara jag som ser nått konstigt här???

Jag har kört båda testen ett flertal gånger för att verifiera...

bara jag som börjar misstänka att det är PhysX-benchen som kanske inte är 100%??

Gör om testet med Orthos på priority high. Om du vägar kan du pröva real time

Citat:

Ursprungligen inskrivet av tellus82
Ska det vara så svårt för vissa här att förstå att fysik beräkning på gpu kräver information någonstans ifrån, det trollar inte bara fram data ur tomma luften = CPU måste mata GPU med info om vad som ska göras... Om man belastar en quad till 100% på alla kärnor hur presterar då rent grafikmässigt? Kan grafikkortet i den burken få informationen den behöver? Nej... Tänk till före för guds skull....

Edit: Kan tillägga att i verkliga situationer uppnår man närapå aldrig 100% belastning på en dc eller qc om inte något är väldigt fel...

Poängen är att PhysX lyckas trolla fram informationen ur luften
Geforce är kraftfullare än PhysX, men kräver samtidigt en massa CPU för att prestera. Det är inte riktigt vad nVidia berättat.
Vi börjar bli vana vid att nVidia inte berättar hela eller ens halva sanningen.

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Citat:

Ursprungligen inskrivet av Elgot
Ja. Fördelen med att använda just grafikkort till grafikberäkningar eller fysik/grafikkort till fysikberäkningar är att de är fantasktiskt mycket bättre på sådant än vad processorer är. Trots att din processor kanske inte är särskilt belastad när du spelar skulle du inte kunna få mycket bättre grafik/fysik genom att använda den mera intensivt. Numera krävs det oftast 3d-acceleration för att spel skall starta över huvud taget, men på den gamla goda tiden kunde man tydligt se hur stor skillnad det blev i till exempel quake eller unreal när man köpte ett 3d-kort; istället för en pixlig och grötig bild fick man något jämnt och fint med färgat ljus. Utan att prestandan försämrades.

Tack! Förstår precis, även om jag hellre skulle sett att jag fick belasta min cpu lite till innan jag behöver köpa nytt grafikkort^^

Visa signatur

Jag stavar inte fel, tangenterna sitter bara inte på rätt ställe!
Datorn: |Asus Rampage Extreme| |Intel Core 2 Extreme QX9650 @4.2GHz | |Corsair Dominator 1800Mhz 8Gb DDR3(4x2Gb)| |2xHIS Radeon HD4870| |300Gb WD VelociRaptor +1,53 TiB HDD| |Corsair 1KW PSU
Skärmar: |LG W2452V-PF 24" (Full HD)| |LG M228WA-BZ 22"| |LG 32LB75 32" LCD-TV|

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AtreX
Helt underbart att se att det finns en liten entusiast som är mer pedagogisk och drar mer logiska slutsatser än ett gäng som driver en ändå ganska så erkänt stor hårdvarusite..

Bra jobbat piXtor, tack för att du förklarar så man förstår

Äsch... du får mig att rodna :$

Permalänk
Medlem

Om det inte bromsar ner nått och ger så där mycket så är det ju en klar fördel. Testerna vet nog inte vad dom letat efter. Att inte ha nån last på cpun i ett spel där du har användning för det händer ju inte och är det då nån tung bit av koden som dom inte just nu klarar av att köra på gpun och den då får full access till en fet cpu och gör att det blir ett konstigt resultat är inte så konstigt.

Dom som failat är testarna i det här fallet.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk

hmm när jag leker runt i fysikdemona som finns med till drivrutinerna så använder programmen videoram men gpu-temperaturen förblir konstant medans processorn belastas 60%... verkar inte ske nån acceleration mha gpu'n öht trots att det är ikryssat. testat på ett 8800gt 512mb.

EDIT: testa att stänga av gpu-accelerationen och den enda skillnaden tycks vara att den inte fyller videominnet. samma flyt (subjektivt), samma temperaturer, samma cpu-användning...

EDIT2: lämnar nog den här skiten avstängd tills/om de fixat/r till det, man kan ju lika gärna köra med det där hacket som lurar drivrutinerna att ett physx-kort är installerat utan att ödsla vram på det.

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Hardware guy
Poängen är att PhysX lyckas trolla fram informationen ur luften
Geforce är kraftfullare än PhysX, men kräver samtidigt en massa CPU för att prestera. Det är inte riktigt vad nVidia berättat.
Vi börjar bli vana vid att nVidia inte berättar hela eller ens halva sanningen.

Ehm, nä physx gör inte det heller, kortet får fortfarande information om vad som ska göras & inte göras, informationen uppkommer helt plötsligt inte.... Att det däremot inte kräver lika mkt behandling är en annan sak men det krävs lika förbaskat information till kortet, oavsett om det är physx eller ett gpu kort som arbetar genom cuda... & när prestandan på fysiken skenar iväg hur mycket krävs det då av cpu:n som ska ge information till fysik"renderaren", I testet på Fudzilla så ligger physx kortet stadigt på "låg" prestanda medans gpu skenar iväg ordentligt, det kan likagärna vara så att physx kortet är flaskhalsen där (vilket det troligtvis är) & när man börjar belasta processorn så hårt med annat så sjunker gpu lösningen till samma nivå som physx kortet....

Nr1: En cpu belastas aldrig så hårt under spelande...

Nr2: All form av beräkning kräver information från någonstans, när det ska beräknas mer/tidsenhet behövs mer information/tidsenhet.... (kör en runda 3DMark med valfritt tourture test på cpun i bakgrunden & se vad som händer med prestandan...)

Nr3: Många här verkar missa totalt vad fysik i spel går ut på, det är för att ge mer fysik, naturligtvis kommer det ge prestandaförluster då alla övriga komponenter kommer att få mer skit att hålla reda på under samma tidsenhet....

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av tellus82
Nr3: Många här verkar missa totalt vad fysik i spel går ut på, det är för att ge mer fysik, naturligtvis kommer det ge prestandaförluster då alla övriga komponenter kommer att få mer skit att hålla reda på under samma tidsenhet.... [/B]

Man får börja hålla med folk, SweClockers-nyheterna börjar bli under all kritik. ALLTING är CPU-bundet, går inte att komma ifrån, korkar man igen helt så går det illa, korkar man bara nästan igen så flyter det med all sannolikhet på med full hastighet, en CPU blir aldrig så igenkorkad under rimliga förhållanden.

Om nu för det första nVidia krossar Ageia korten även under flaskhals, spelar det ens någon roll? Och enligt samma logik skulle det innebära att fysiken drar 0.00% CPU under det förhållandet, vilket skulle vara ett ganska redigt genombrott, så nVidia borde uppenbarligen hyllas för att lyckas trotsa t.om. dom mest omöjliga hinder... (och folk som gnäller, ni får det försjutton gratis)

Som uttalandet ovan påpekar, du kan inte ens simulera sån fysik i realtid på CPUn, men att man kan göra det via GPUn och att CPUn får jobba lite är tydligen katastrof. Hela GPU-industrin borde uppenbarligen läggas ner, för GPUn är ju också CPUn-bunden, så uppenbarligen lika bra att rendera allt med CPUn igen eftersom ... uhm, det kräver mindre av CPUn... eller nått. Jag förstår inte riktigt själv, men sen är jag ju ingen aftonbladet-certifierad forskare heller.

Permalänk
Medlem

STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP
STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP_STOPP

Du som tänker skriva om att Nvidia luras, är skit mm. SNÄLLA, tag och läs det jag skriver nu så du försöker fatta!

Läser man vad dom kommit fram till så är det inget konstigt.

1. Om man belastar CPU:n till 100% kommer självklart även grafikkortets fyskberäkningar stanna upp. Detta då det krävs information från CPU:n vad GPU:n ska räkna ut...

2. Huvudprogrammet ligger FORTFARANDE på CPU:n, ska då GPU:n göra massa beräkningar som inte synkas med GPU:n.

3. Att CPU:n belastas med med 8800 mot ett Ageia är ju heller ingen konstigt. Åter, eftersom det måste synkas allt mellan CPU och GPU så kommer ju per automatik CPU:n belastas med när FPS ökar markant...
CPU:n måsta alltså belastas med eftersom den ska hinna skicka all information till GPU:n...

Så snälla, tänk ett steg längre innan ni skriver. Verkar som 90% av dom som klagar inte läst ett enda inlägg från dom som försöker förklara detta.
Därför skriv jag alla dessa STOPP innan, kanske någon tänker till lite...

Visa signatur

Dator 1: Core i7 10700K | Asus Prime Z490-P | 16 Gbyte DDR4 3600 MHz | Asus GeForce RTX2060 6 GB OC EVO |
Dator 2: Core i7 4770K | MSI Z87-S02 | 16 Gbyte DDR3 1600 MHz | GeForce GTX 650 TI |
Dator 3: Lenovo IdeaPad 5 Pro | Ryzen 7 5800H | 16 Gbyte DDR4 3200 MHz |
Kamera: Canon EOS 6d | EF 17-40mm f/4L USM | EF 35mm f/2 IS USM | EF 100-200mm f/4.5 | Speedlite 430EX II |

Permalänk
Medlem

Samtliga som har skrivit Nvidia = fail osv osv. Ärligt talat, antingen har ni inte läst och tittat på teste, eller så kan ni inte läsa, kanske blinda rent av. Eller så lever ni kanske i en fantasi värld ELLER så kan ni är väldigt korkade. Jag vet inte vilket av dem.
Hur man än ser på det. Det presterar fortfarande lika bra som ett dedikerat fysikkort under load och bättre än ett vid normal load, på vilket sett är det fail? Ett test av intresse hade ju varit o se hur mycket mer CUDA belastar processorn under fysikberäkningar ist. Cudos till nvidia för att de lyckas ge oss fysikberäkningar under full processor load. Imponerande.

Knashatt: Tack!! Det verkade fungera alldeles utmärkt

Visa signatur

Intel 7700K @ 5,1ghz (Binned) | Custom H2O Loop | Asus Maximus IX Hero | 32GB Corsair @ 3200mhz | GTX 3080 | Samsung 960 EVO 500GB | Samsung 870 EVO 500GB | Samsung 860 EVO 2TB | Soundblaster Z-Xr | Asus ROG Swift PG279Q | Corsair 850W-HX | Thermaltake The Tower 900

Permalänk
Medlem

grejen är ju att med physx så renderas det så himla mycket mer detaljer så att prestandavinsten äts upp.

Auto Assault var ett bra exempel. Det var fan så mycket roligare med physx än utan.

Det skulle vara intressant att se liknande nivåer av fysik med havok och se vad folk säger om den skiten.

Visa signatur

GUD VÄLSIGNE DIG!
Ryzen 7 5700X3D - 64Gb DDR4 - RTX2060 - Coolermaster Stacker
---------------------------- www.roaddogs.se ------------------------
------- Bofors Interstellar - A Star Citizen Corporation --------
---------------------------------- Twitch ---------------------------------

Permalänk
Avstängd

Nu skulle ju "fyskortet" avbelasta CPU inte belasta... alltså FAIL, svårt att fatta?

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.