Nvidia PhysX prestandatestat

Permalänk

Undrar vad som händer om man har ett äkta PhysX-kort installerat och kör in dessa drivrutiner? Kommer man fortfarande kunna använda detta?

Då kommer nästa tanke: Jag har ett PhysX-kort, klämmer in ett extra grafikkort och laddar dessa drivers - vad händer då? Kör den lastdelning mellan de två korten eller kommer nivida-kortet ta över och göra PhysX-kortet arbetslöst?

Visa signatur

Born to mod..
Inget är omöjligt - det omöjliga tar bara lite längre tid

Permalänk
Medlem

Sa ju det och säger det igen nVidia är dom enda, bara tacka och ta emot nVidia är dom ENDA som gör nåt vettigt och dom andra kan ju inte ens knacka drivare, hah patetiskt

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MrHyde
Sa ju det och säger det igen nVidia är dom enda, bara tacka och ta emot nVidia är dom ENDA som gör nåt vettigt och dom andra kan ju inte ens knacka drivare, hah patetiskt

Jadu...
Men det ligger något i det du säger (dock lite knepigt uttryckt), nvidia är faktiskt dom som gör lite mer revolutionerande saker i grafikkortsvärlden (men att hålla på och kalla saker big bang är dock överdrivet).
AMD bör väl följa efter som vanligt med något CrossPhysXFire lösning...

Permalänk
Medlem

Endel personer verkar inte förstå att man inte behöver något separat grafikkort ifall man vill dra nytta av detta. Fast det är ju bra ifall man ska behålla prestandan

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MrHyde
Sa ju det och säger det igen nVidia är dom enda, bara tacka och ta emot nVidia är dom ENDA som gör nåt vettigt och dom andra kan ju inte ens knacka drivare, hah patetiskt

Skulle NVIDIA kunna knacka drivrutiner? Vänta lite nu... vad var det som var den största anledningen till blåskärmar och undantagsfel... låt mig tänka... NVIDIA.
Tro mig när jag säger att siffrorna stämmer.
Vilka har ej kunnat åstadkomma en bra funktion för TV-out under alla år? NVIDIA.
Vem har fortfarande ett drivrutinsystem som ej tillåter uppgraderingar on the fly? NVIDIA.

NVIDIA har tillverkat hejdundrande bra kort de senaste åren, men drivrutiner har de aldrig lyckats med.

Visa signatur

Gammal garvad IT-tekniker med lång erfarenhet av nätverk, server och IT-säkerhet m.m.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pontus_mRI
Detta kommer sannolikt att bli ganska intressant för grafikmarknaden.

Bort med den animerade avataren.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av b3h3moth81
Rätta mig om jag har fel, men var det inte nån individ som skrev programvara för att få phys-x att fungera på ATI/AMD-kort?

Hade vart kul, eftersom jag idag ska hämta ut nytt moderkort och ännu ett 4850 som får vara med i leken! "Happy, happy..Joy, Joy"!

http://www.tomshardware.com/news/nvidia-physx-ati,5764.html

Visa signatur

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Permalänk

måste man ha en sli bräda för detta eller funkar det med cf?

Visa signatur

Fractal design R4 : ASUS Sabertooth Z77 : I5 3570K @ 4,5 : INTEL 520 SSD :corsair 16GB : GTX 260 :Tagan 600W : Windows 7 X64 : Samsung 2443BW

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland
Du måste ha ett till. Det funkar precis som innan men istället för att köpa ett fysikkort, så köper du ett grafikkort till samma sak i stället. Tekniken är ju kul men det hade varit betydligt mer användbart om det var Havok för det finns väldigt dåligt stöd för PhysX.

Det är väl ändå det man inte behöver? Det räcker med att du har ETT grafikkort som stödjer funktionerna för att du ska kunna ta nytta av dem. I testet hos Tech Report användes i alla fall endast ett kort, om jag inte har missat något fatalt?

Visa signatur

"There are many aspects of human existence that I will never understand..."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Blom_Avesta
måste man ha en sli bräda för detta eller funkar det med cf?

Undrar exakt samma sak. Tänker inte köpa ett nytt moderkort bara för att kunna ha ett till grafikkort som fysikkort.

Permalänk
Medlem

Verkar ju riktigt bra, hoppas speltillverkare tar vara på detta och stödjer det fullt ut för att då mkt snyggare spel

Visa signatur

Skrivet med hjälp av Better SweClockers
PC: Ryzen 9 5900X | RTX 4080 Super 16GB | G.Skill Trident Z Neo 64GB 3600MHz CL16 | 12TB NVMe SSD - 5TB SATA SSD = total 17TB SSD + Seagate IronWolf 10TB internal HDD | Synology DS920+ w/20GB RAM SHR 48TB
Skärmar: Acer Predator XB323UGX 32" 270Hz 1440p, Asus PG349Q 34" 120Hz 1440p UW, Asus PG279Q 27"
Foto:
Canon 80D & 60D + Canon 17-55/2.8 IS, Canon 10-22, Canon 70-200/2.8L IS II, Canon 100/2.8L IS Macro

Permalänk
Medlem

Även fast Nvidia säger att ATI är fri att använda Physx så hoppas jag dom kan enas om en ny standard istället typ OpenCL.

Visa signatur

Athlon x2 5000+ BE_Stepping G2_14x200 = 2800mhz_ VCore 1.15

Vilka jävla nötter det finns här!

Permalänk
Medlem

Det kommer nog krävas mer än detta för att få mig att börja använda moderkort med nvidia chipset igen, troligen aldrig mer bara dyrt och dåligt.

Visa signatur

Riggen:ASRock X570M Pro4 - AMD Ryzen 7 3700X - Corsair 32GB DDR4 3200MHz - Corsair MP510 960Gb NVME - EVGA 1080ti SC2 - 3x Samsung 840 500GB - EVGA SuperNOVA G1+ 650W - Fractal Design Meshify C Mini Dark TG
NAS: FreeNAS @ HP Proliant MicroServer Gen 8 - Xeon E3-1230 V2 - 16Gb Kingston ECC RAM - Intel 530 120Gb - IBM m1015/LSI 9220-8i - 4x WD Red 3Tb

Permalänk
Medlem

Har hört att det oftast är grafikkortet som belastas mest när man spelar och att processorn sällan halkar efter utan det blir grafikkortet som blir flaskhals, förstår inte riktigt varför man skulle avlasta processorn (utom för att undvika värmeproblem) när det är grafikkortet som behöver hjälp? Isåfall borde väl ens primära grafikkort bli ännu mer flaskhals eller?

Visa signatur

System 1: Antec 900 -- C2D 2.66 GHz -- Asus p5k Pro -- 8800 gts 512 -- WD 500 GB -- Corsair 750 w -- 2gb BallistiX 8500

System:2 Antec P182 -- C2D 3.00 GHz(45nm) -- Gigabyte EP45-DS3R -- Radeon 4850 -- Samsung Spinpoint 500 GB -- Antec 650 w -- 4GB Corsair 6400

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Crieep
Har hört att det oftast är grafikkortet som belastas mest när man spelar och att processorn sällan halkar efter utan det blir grafikkortet som blir flaskhals, förstår inte riktigt varför man skulle avlasta processorn (utom för att undvika värmeproblem) när det är grafikkortet som behöver hjälp? Isåfall borde väl ens primära grafikkort bli ännu mer flaskhals eller?

I min erfarenhet så är det prollen som flaskar före graffekortet

Visa signatur

[Intel E8500@3,9] [Gigabyte Radeon HD 4870 512] @CF [XFX Radeon HD 4870 512] [Corsair TWIN2X 6400 800Mhz DDR2 4096MB] [Gigabyte GA-X48-DS4, X48, Socket-775] [Thermaltake Toughpower 750W]

Permalänk
Citat:

Wow, fan vad najs!

Citat:

Ursprungligen inskrivet av apamedvapen
Undrar exakt samma sak. Tänker inte köpa ett nytt moderkort bara för att kunna ha ett till grafikkort som fysikkort.

Det tänker inte jag heller.

Finns det något PhysX kompatibelt ATI kort för PCI eller PCIe x1?

Permalänk
Hedersmedlem

Om man tror att man skall få ett bra resultat med ett gammalt 8600 eller 8800 kort i nyare spel så är nog det mer en önskedröm är verklighetsföraktat tyvärr..

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Citat:

Ursprungligen inskrivet av MaLo
Om man tror att man skall få ett bra resultat med ett gammalt 8600 eller 8800 kort i nyare spel så är nog det mer en önskedröm är verklighetsföraktat tyvärr..

Om man t ex har ett gtx280 och sen stoppar in sitt gammla 8600gt som fysikkort så är det självklart att det ger resultat.

Men vad är "Bra resultat" ?

Visa signatur

Vill du ha svar eller min uppmärksamhet så rekommenderar jag att du citerar ;D

Permalänk
Medlem

Om man har en processor (P4) som flaskhalsar i alla spel och man har en 9600gt som man ändå inte behöver för prollen bromsar alla beräkningar som graffe skickar. Då borde det här vara perfekt i Crysis typ.

eller hur,eller har jag fel?

Permalänk
Citat:

Ursprungligen inskrivet av wildcover
Wow, fan vad najs!

Inget Wow över det.
nVidia vill göra PhysX tillgänligt för alla, att det blir en standar för fysikberäkning inom spelutvekling och tillämpning. Men som AMD är så hoppar de med säng med Intel's Havok och sammarbetar med de gällande fysikberäkning till AMD grafikort.

Men i det långa loppet så tror jag att PhysX kommer ha överhand. nVidia hårdlanserar denna lösning med mycket pengar bakom både för spelutveklare och även för oss konsumenter, som denna nyhet/artikel vissar.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Sisjöbävern
Har svårt att tro att de låter sina kort agera fysikkort för ATIs grafikkort.

Det bör gå att kombinera ATI grafik med Nvidia fysik, SLI bräda borde heller inte vara något krav.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Alltid mycket snack om prestanda men hur är det med precisionen? ok, d flesta av oss bryr oss inte. Oftast så är den optimala lösningen olika mellan CPU och GPU implementation. (dvs. olika plattformar har olika lösningar till problemet)

GTX280 har antagligen en hel del som underlättar. Det är väl i princip vitsen med det kortet större frihet och effektivare på att göra andra typer av beräkningar än grafik.

Fysik i CUDA är väl oftast 'gridbaserad' ??? vilket är en ganska kraftig föränkling i sig. (har bara läst lite om det i nya GPU gems)

Permalänk
Citat:

Ursprungligen inskrivet av oscarstegland
Du måste ha ett till. Det funkar precis som innan men istället för att köpa ett fysikkort, så köper du ett grafikkort till samma sak i stället. Tekniken är ju kul men det hade varit betydligt mer användbart om det var Havok för det finns väldigt dåligt stöd för PhysX.

Nja är det inte så att i testet så kör dom med ett grafikkort som gör bägge delar??

Visa signatur

"You know what's fun to do? Rent an adult movie, take it home, record over it with The Wizard of Oz, then return it so the next guy that rents it is thinking. 'When is this Dorothy chick going to get naked?'"
- Mark Pitta

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av riche
Alltid mycket snack om prestanda men hur är det med precisionen? ok, d flesta av oss bryr oss inte. Oftast så är den optimala lösningen olika mellan CPU och GPU implementation. (dvs. olika plattformar har olika lösningar till problemet)

GTX280 har antagligen en hel del som underlättar. Det är väl i princip vitsen med det kortet större frihet och effektivare på att göra andra typer av beräkningar än grafik.

Fysik i CUDA är väl oftast 'gridbaserad' ??? vilket är en ganska kraftig föränkling i sig. (har bara läst lite om det i nya GPU gems)

Har läst att i alla fall Nvidias 8000-9000 serie, inte klarar av att hårdvaruaccellera lika många funktioner som Ageias PPU.
Men en del är ju bättre än inga alls.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av Crieep
Har hört att det oftast är grafikkortet som belastas mest när man spelar och att processorn sällan halkar efter utan det blir grafikkortet som blir flaskhals, förstår inte riktigt varför man skulle avlasta processorn (utom för att undvika värmeproblem) när det är grafikkortet som behöver hjälp? Isåfall borde väl ens primära grafikkort bli ännu mer flaskhals eller?

Det har nämnts i andra trådar, i artikeln och i den här tråden.
Men jag får väll repetera. Grafikkort gör fysikberäkningar betydligt snabbare än CPUér.
Framtidens spel kommer med all säkerhet gå mot en utveckling med mer fysik.
Många spel idag har stöd för den tekniken som skulle innebära att din CPU går på knäna ut hjälp av en PPU/GPU som gör fysikberäkningar.
Med dessa drivrutiner kan man köra fysik på ett, kanske billigare eller äldre kort, och grafiken på sitt nya.
Börjar poletten trilla ner nu?

Permalänk
Medlem

Fungerar den här drivrutinen likadant som ett physXkort? Så att om man har ett PhysX-kort så blir det värdelöst eller presterar PhysX-kortet bättre?

Permalänk
Medlem

Vafan finns inte Physx redan i spel. Tex Crysis. Huset mm kan ju fan ta mig falla hursomhelst och man tappar inget i FPS

Permalänk
Medlem

nope, crysis har inget physX.. finns nog en lista på vilka spel som kör det.
googla!

Visa signatur

Han är ju inte dum egentligen, han har bara otur när han tänker.

Permalänk

Alltså jag fattar inte var en del får sin information ifrån. Nej, SLI behöver man inte alls det. Du som har ett 8800GTX, GT, GTS and what so ever har användning för detta. G80 helt enkelt och säkert de nya med.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Hm nu vet jag inte om jag förstått rätt men är det inte så att med nya drivrutinerna så kommer kortet som används som fysik kort kunna beräkna fysik fast spelet inte har stöd för "physX" det kommer inte bli mer ögongodis som exempelvis på unreal tournament som HAR STÖD för physx men istället får man högre fps?