Geforce GTX 580 mot slutet av året

Permalänk
Medlem
Skrivet av zeagan:

Den visan har vi hört förut, jag sätter mina pengar på att det dyker upp först någon gång i april denna gången

Hehe faktigst en bra poäng, de var grymt försenade med nuvarande kort så det finns inget som säger att de skulle vara i tid denna gång. Oavsett om de kommer vara i tid eller ej vill de givetvis att folk skall vänta på deras försenade kort. Förhoppningsvis klantar sig inte nvidia denna gång och blir försenade igen, om de är i tid så hålls kriget igång på grafikkortsmarknaden och det vore ju underbart.

Visa signatur

Intel Core i7 8700K, MSI GeForce GTX 1080 Ti 11GB Gaming X, Samsung 960 EVO 1TB, MSI Z370 GAMING M5, Corsair 32GB (4x8GB) DDR4 3200MHz CL16 Vengeance, EVGA Supernova G3 850W

INTEL CORE I7 3930K 3.20GHZ 12MB S-2011, FRACTAL DESIGN MIDITOWER DEFINE R3, CORSAIR HX 1050W, ASUS RAMPAGE IV FORMULA, Asus STRIX GTX970, CORSAIR 16GB DDR3 DOMINATOR QUAD 1866MHZ CL9 (4X4GB) Ljud: ASUS Xonar D2X/XDT 7.1 | Elac 5.1 +förstärkare | Cambridge dacmagic plus | Astro gaming A40 | Sennheiser HD 650
You ask me if I have a god complex? Let me tell you something, I am god!

Permalänk
Medlem

Jag ser historien upprepa sig, GF110 släpps nån gång i april/maj .... å andra sidan är det bara en "refersh" eller nåt sånt så kanske det går fortare

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk

jaså, en toppslukare? blir ett 6970/6990 för min del.

Visa signatur

HTPC: Late 2014 Mac Mini
Bärbar: Mid 2012 MacBook Air

Permalänk
Skrivet av Gender Bender:

Bara för att man öppnar möjligheten att köra koden på en CPU betyder de inte att de kommer vara bättre. En GPU kommer fortfarande vara de rekommenderande för tunga beräkningar. Detta kommer vara idealiskt för servrar och stora datorklustrar som har massor av CPUer, och ingenting för oss som privatpersoner.

Att först öppna upp för utvecklare är normalt. Hönan och ägget...

Men hela vitsen med x86 stöd är ju att få mer program utvecklare att hoppa på Physx tåget.

Om det bara går att köra på Nvidias produkter så kommer intresset att vara svalt.

I slutändan så är det köparna som bestämmer.

Varför ha funktioner som inte ens hälften av datorerna stöder ?

Tänk på intels misslyckande med MMX.

Men som sagt, det kommer fm inte att bli lika bra som att köra på (Nvidias)GPU.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem

Ja det blev inget svar på HD5970 som det var så mycket snack om, vi får väl se om GTX580 kan göra Fermi rättvisa i alla fall.
Men egentligen är det väl som vanligt, det finns inga spel som kräver dessa monster till kort än, eller hur?
Jo kanske något spel förresten men de lär vara lätträknade.

När kommer det spel på bred front som gör att man utnyttja låt säga två highendkort i SLI eller CF?

Det känns som att konsollspelen och alla portningar verkligen har tagit död på grafikfyrverkeriet något år framåt.
Inte för att grafik och fysik är allt, men det bidrar mycket till spelkänslan.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Skrivet av Oneone:

Den som lever får se.

jepp...på latin Qui vivra verra!

Visa signatur

Corsair Crystal 460 RGB-Cooler Master V1000-Aorus X370 Gaming K7- Ryzen 5 3600-Corsair 3000MHz 32gb-Samsung 960 EVO 256GB-Wraith Spire-Sapphire Vega 64 Nitro+ 8gb

Permalänk
Medlem

20% snabbare än GTX480 låter onekligen som lite önskesiffror. GTX480 med alla kärnor aktiva har ju inte varit mer än marginellt bättre än vanliga 480. Antingen har man lyckats skrämma upp klockfrekvenserna en hel del, eller så försöker man med lite negativ påverkan på AMDs lansering.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av Luxor ABC80:

VÄNTA NU! Pågår inte utväckling av CUDA x86 ??
http://www.sweclockers.com/nyhet/12734-nvidia-tillkannager-cuda-x86
Dvs man kommer att kunna få Physx körd på en CPU-Kärna.

PhysX har gått att köra på x86 och CPU sen länge, så just den nyheten har inget med saken att göra.

Skrivet av KlosterKatten:

Fysik klarar CPUn bra nog själv, hade klarat PhysX utan problem om inte nvidia med flit gjorde stödet för CPUs uselt.

Jo, den nyheten om att PhysX körde x87 fick stora rubriker, då han som skrivit artikeln verkade trovärdig och kunnig. Men han backade aldrig upp sina påståenden om prestandaskillnad på upp till 100% med riktiga fysik-API tester. Det visade sig senare när några andra testade Bullet Physics (som är optimerat för SSE) att när de gjorde en kompilering för x87 förlorade de bara runt 8% prestanda. Ett fysik-API har med andra ord inte så mycket att vinna på det även om det förstås är en viss förbättring. Han som skrev artikeln har dock inte gjort några korrigeringar trots den nya informationen.

Nu har ju Nvidia redan SSE-stöd i PhysX (sedan 2.8.4) så det är redan passé ändå.

Så med andra ord ska man inte tro att man en CPU kan prestera i närheten av en GPU när det gäller avancerad fysikberäkning oavsett SSE-kompilering eller inte.

Permalänk
Medlem

tror niett kort prestera då som 460 sli vore grymt*

Visa signatur

asus maximus III formula. i7-860@4.083ghz. northq siberiantiger 2. kingston hyperx 2x2gb @1800mhzddr3. intel ssd 80gb g2. Fractal Design 1000w. Zotac gtx480 amp!(stock 756/1900)).

Permalänk

Oj det här kom som en överraskning.
Blir inte nåt GTX 485 alltså..

Permalänk
Medlem
Skrivet av Luxor ABC80:

VÄNTA NU! Pågår inte utväckling av CUDA x86 ??

http://www.sweclockers.com/nyhet/12734-nvidia-tillkannager-cuda-x86

Dvs man kommer att kunna få Physx körd på en CPU-Kärna.

Rent teoretiskt borde man kunna köra Physx på en eller flera kärnor utan större problem.

Ok, inte med samma prestandard som en "special" processor, men ändå...

Sen misstänker jag att det kommer att vara mycket bättre på än intel än AMD.

Det går under Nvidias inoficiella princip: "vi skall jävlas med ATI/AMD om vi kan"

Det där kommer med PhysX 3.0 som Orici tidgare påpekat. PhysX 3.0 kommer att ha stöd för automatisk multitrådning och SSE intruktioner.

Edit: Tydligen så finns ju SSE redan inlagt.

Skrivet av Buio:

PhysX har gått att köra på x86 och CPU sen länge, så just den nyheten har inget med saken att göra. Nu har ju Nvidia redan SSE-stöd i PhysX (sedan 2.8.4).

Visa signatur

https://valid.x86.fr/pyrh0w
https://valid.x86.fr/hc225t
https://valid.x86.fr/6dilbx
Ryzen 9 7950X, Asus X670E Hero, 64GB ram, Zotac RTX 4090 AMP Extreme AIRO, Seasonic SnowSilent 1050, CORSAIR 7000D Airflow, Custom loop för CPU med ett Phanteks Glacier C360A CPU Block.
Det enda jag med säkerhet vet är att jag ingenting med säkerhet vet

Permalänk
Skrivet av Buio:

PhysX har gått att köra på x86 och CPU sen länge, så just den nyheten har inget med saken att göra.

Jo, den nyheten om att PhysX körde x87 fick stora rubriker, då han som skrivit artikeln verkade trovärdig och kunnig. Men han backade aldrig upp sina påståenden om prestandaskillnad på upp till 100% med riktiga fysik-API tester. Det visade sig senare när några andra testade Bullet Physics (som är optimerat för SSE) att när de gjorde en kompilering för x87 förlorade de bara runt 8% prestanda. Ett fysik-API har med andra ord inte så mycket att vinna på det även om det förstås är en viss förbättring. Han som skrev artikeln har dock inte gjort några korrigeringar trots den nya informationen.

Nu har ju Nvidia redan SSE-stöd i PhysX (sedan 2.8.4) så det är redan passé ändå.

Så med andra ord ska man inte tro att man en CPU kan prestera i närheten av en GPU när det gäller avancerad fysikberäkning oavsett SSE-kompilering eller inte.

Men lite är bättre än inget!

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem
Skrivet av Tyreiz:

Om den baseras på en energisnålare version som det verkar bli, fast med mer prestanda likt gtx460 så kan vi säga byebye till AMD's flopp som lanseras nu
Med andra ord: VILL HA !

Du är det största nVidiatrollet sedan jag vet inte vad. Du slänger ur dig sånt du inte kan backa upp med ett jädra shiet. Inte den första tråden, tacka vet jag Dojjan som åtminstone hade fakta back in the days haha.

nVidia har snackat pm GTX whatever med 512 cuda kärnor sedan innan 480 släpptes. Tror inte den kommer innan slutet av året. Isåfall blir det stressat, stort, och mycket varmt i våra hushåll

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7900X| Custom Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| 2 x Patriot Viper Venom 32GB (2 x 16GB) 6200MHz CL 30-38-38-36-38| AMD Radeon RX 7900 XTX| EVE Spectrum 4K| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO| Windows 11 Pro

Permalänk
Medlem
Skrivet av Orici:

Det är bara ryktes spridningen som har sagt så, inte nVIDIA. Angående "mycket snack lite verkstad" hur går det med AMD's fysik-motor ?

AMD's fysik motor??? du menar väl havok? Som numera är intels fysikmotor?

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7900X| Custom Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| 2 x Patriot Viper Venom 32GB (2 x 16GB) 6200MHz CL 30-38-38-36-38| AMD Radeon RX 7900 XTX| EVE Spectrum 4K| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO| Windows 11 Pro

Permalänk
Avstängd
Skrivet av Gambit_2K:

Du är det största nVidiatrollet sedan jag vet inte vad. Du slänger ur dig sånt du inte kan backa upp med ett jädra shiet. Inte den första tråden, tacka vet jag Dojjan som åtminstone hade fakta back in the days haha.

nVidia har snackat pm GTX whatever med 512 cuda kärnor sedan innan 480 släpptes. Tror inte den kommer innan slutet av året. Isåfall blir det stressat, stort, och mycket varmt i våra hushåll

Du luktar fanboy med..

Samma skrot och korn....

Säger inget om dessa kort innan dom finns på marknaden så spekulationer får fanboys hålla på med

Visa signatur

ASUS Maximus III Formula || Intel i5-760@4.0Ghz || Noctua NH-D14 || Gigabyte GTX480 || 2x1TB sataIII raid0 || Corsair Dominator 1600Mhz@1800Mhz || Sound Blaster X-Fi Titanium - Fatal1ty Champion Series || Corsair HX850W || Logitech Z-5500 || AOC 619VH 26" || Obsidian 800D || Logitech G19 || Razer Copperhead 3G ||

Permalänk
Medlem
Skrivet av Gender Bender:

En CPU kommer inte i närheten av samma beräkningskapacitet som en GPU, och de är därför en GPU är det givna valet för att hantera tunga fysikberäkningar.

YouTube - Jacket Raindrop CPU vs GPU
YouTube - CPU vs. GPU

Med 60k partiklar i FluidMark så ligger jag på runt 50 FPS/SPS synkat med mitt GTX470, och med min CPU (Q6600) så får jag en avg på ynkliga 7 SPS, och det är INTE okej i spelsammanhang. Det är nog här den största missuppfattningen bildas. Nu finns det en funktion i FM som heter Async Mode, och med de aktiverat så flyter det på i över 100FPS, men de många missar är att fysiken fortfarande flyter på i ca: 10 SPS (Fysikens FPS). Grafiken och fysiken MÅSTE vara synkad för att ge en normal spelkänsla, annars flyter allt utom fysikeffekten. Och ska det synkas så blir de FPSen som synkas med den låga SPSen och inte tvärt om, vilket med andra ord blir en ospelbar upplevelse.

Stöd för SSE2 kommer inte göra någon större skillnad då dagens processorer är betydligt sämre på beräkningar än en modern GPU, det är därför bland annat Folding@Home är så otroligt mycket bättre med en GPU.

För att förenkla perspektivet om vad den största skillnaden är mellan CPU fysik och GPU fysik och hur möjligheterna ser ut inom den närmsta framtiden så är detta va CPU fysik kommer erbjuda

YouTube - Over 5000 KEVA planks building - Bullet Physics

Och dessa är vad GPU fysik kommer erbjuda
YouTube - FumeFX Flame
YouTube - one million RealFlow particles Renderd With Krakatoa

Två helt olika typer av fysik, som i framtiden lär komplettera och avbelasta varandra i form av en sammanslagning, vilket både AMD, Nvidia och Intel jobbar på.

Sen när gör PhysX ngt annat än ytliga effekter? Det har väl inget med "tunga fysiska" beräkningar att göra överhuvudtaget. Det är väl bara deras demos som gör det? Det är väl därför CPU's kan göra dem över huvudtaget om jag inte fattat fel (tänker spel nu dvs. det närmaste vi kommer till realworld tillämpningar). Rätta mig gärna.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7900X| Custom Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| 2 x Patriot Viper Venom 32GB (2 x 16GB) 6200MHz CL 30-38-38-36-38| AMD Radeon RX 7900 XTX| EVE Spectrum 4K| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO| Windows 11 Pro

Permalänk
Medlem
Skrivet av Catman:

Du luktar fanboy med..

Samma skrot och korn....

Säger inget om dessa kort innan dom finns på marknaden så spekulationer får fanboys hålla på med

Du får gärna motivera dina argument så man kan svara på dem tack. Fakta vore nice med. För jag drog bara min åsikt utan att låtsas sitta med nån form av fakta.

Kolla gärna dina trådar som du skrivit i på senaste tiden och titta på mina, ser du nån trend? Du har kommenterat nästan enbart trådar som rör nVidia medan jag inte har mkt nVidia eller AMD. Trend? Ser du bara signaturen och stirrar dig blind på att nån är fanboy eller???

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7900X| Custom Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| 2 x Patriot Viper Venom 32GB (2 x 16GB) 6200MHz CL 30-38-38-36-38| AMD Radeon RX 7900 XTX| EVE Spectrum 4K| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO| Windows 11 Pro

Permalänk
Antielefant
Skrivet av Nefus:

Jag satsar 100 spänn på att Nvidias nästa generation inte kommer heta 580 utan istället 680.

Mja, med NVidia-stil blir GTX 680 28nm Kepler. Udda serier som 1xx och 3xx är baserade på en utvecklad version av förra generationen. Det som i så fall blir udda är att NVidia släpper prestandamodeller i den udda serien.

Förresten, vad gäller att bumpa modellserien med samma GPU... HD 3xxx någon? x1xxx?

Skrivet av Valiumballong:

20% snabbare än GTX480 låter onekligen som lite önskesiffror. GTX480 med alla kärnor aktiva har ju inte varit mer än marginellt bättre än vanliga 480. Antingen har man lyckats skrämma upp klockfrekvenserna en hel del, eller så försöker man med lite negativ påverkan på AMDs lansering.

GF110 lär inte vara en upplåst GF100-GPU däremot, utan en helt ny kärna. NVidia byter till skillnad från AMD inte namn på kärnorna bara för att de stryps - 480, 470 och 465 har alla GF100, trots 480, 448 respektive 352 aktiva kärnor.

Likaså är GF104 (460) och GF106 (450) helt nya GPUer även om de är baserada på Fermi-teknik.

Skrivet av MarkSix:

Det där kommer med PhysX 3.0 som Orici tidgare påpekat. PhysX 3.0 kommer att ha stöd för automatisk multitrådning och SSE intruktioner.

Edit: Tydligen så finns ju SSE redan inlagt.

SSE finns redan, men 3.0 får även stöd för SSE2.

Skrivet av Gambit_2K:

AMD's fysik motor??? du menar väl havok? Som numera är intels fysikmotor?

Nej, AMD står bakom Bullet, vilket lär vara i samma skick som dagens PhysX någon gång runt år 2025. Det är ungefär lika långt bakom PhysX som AMD HD3D är bakom 3DVision.

Ska man hänga med måste man haka på direkt, som NVidia gjorde med SurroundView vs Eyefinity eller AMD med Crossfire vs SLI, man kan inte vänta X antal år.

Skrivet av Gambit_2K:

Sen när gör PhysX ngt annat än ytliga effekter? Det har väl inget med "tunga fysiska" beräkningar att göra överhuvudtaget. Det är väl bara deras demos som gör det? Det är väl därför CPU's kan göra dem över huvudtaget om jag inte fattat fel (tänker spel nu dvs. det närmaste vi kommer till realworld tillämpningar). Rätta mig gärna.

Det du kallar "ytliga effekter" är faktiskt väldigt tunga beräkningar. Precis som skuggor i spel är bland det tyngsta du kan lägga till trots att många tycker att det gör liten visuell skillnad.

Visa signatur

i7 8770k @ 5.2 | MSI Z370 KRAIT | 32 GB DDR4-3200 | AX850W
EVGA GTX 980 Ti Classified SLI | Acer XB270HU G-Sync

Permalänk
Skrivet av MarkSix:

Det där kommer med PhysX 3.0 som Orici tidgare påpekat. PhysX 3.0 kommer att ha stöd för automatisk multitrådning och SSE intruktioner.

Edit: Tydligen så finns ju SSE redan inlagt.

Det intressanta är "CUDA x86 kan således låta CPU utföra samma beräkningar som GPU, vilket inte minst betyder att CUDA-applikationer får en bredare målgrupp när gränssnittet inte längre är beroende av att en grafikprocessor från Nvidia är installerat i datorsystemet." (citat från artikeln)

MMX misslyckades pga det var bara intel som stödde det.

SSE och SSE2 var efterföljarna som lyckades pga att övriga tillverkare stödde det.

Mao Nvidia offra "ensamrätten" till Physx mot ett bredare målgrupp.

Den viktiga frågan är: Hur "bra" Physx kan jag få utan ha ett nvidia kort i datorn ?

Och kommer AMD/ATI få möjlighet att lägga bra stöd i sina grafikkort ? (jag gissar nej)

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem
Skrivet av Zcenicx:

Mja, med NVidia-stil blir GTX 680 28nm Kepler. Udda serier som 1xx och 3xx är baserade på en utvecklad version av förra generationen. Det som i så fall blir udda är att NVidia släpper prestandamodeller i den udda serien.

Förresten, vad gäller att bumpa modellserien med samma GPU... HD 3xxx någon? x1xxx?

GF110 lär inte vara en upplåst GF100-GPU däremot, utan en helt ny kärna. NVidia byter till skillnad från AMD inte namn på kärnorna bara för att de stryps - 480, 470 och 465 har alla GF100, trots 480, 448 respektive 352 aktiva kärnor.

Likaså är GF104 (460) och GF106 (450) helt nya GPUer även om de är baserada på Fermi-teknik.

SSE finns redan, men 3.0 får även stöd för SSE2.

Nej, AMD står bakom Bullet, vilket lär vara i samma skick som dagens PhysX någon gång runt år 2025. Det är ungefär lika långt bakom PhysX som AMD HD3D är bakom 3DVision.

Ska man hänga med måste man haka på direkt, som NVidia gjorde med SurroundView vs Eyefinity eller AMD med Crossfire vs SLI, man kan inte vänta X antal år.

Det du kallar "ytliga effekter" är faktiskt väldigt tunga beräkningar. Precis som skuggor i spel är bland det tyngsta du kan lägga till trots att många tycker att det gör liten visuell skillnad.

Vad jag vet sköter PhysX inte skuggor eller? Samt att tex. alla beräkningar som Mafia utför kan göra på CPU med enkel hack och få en 10% performancehit? Och Bullet är väl ett tredjepart företag Game Physics Simulation . AMD äger väl inte det men väljer väl att stöjda dem precis som det väljer att stödja alla utvecklare av 3D som vill använda deras kort? Skillnad jämnfört med nVidia ägda PhysX.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7900X| Custom Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| 2 x Patriot Viper Venom 32GB (2 x 16GB) 6200MHz CL 30-38-38-36-38| AMD Radeon RX 7900 XTX| EVE Spectrum 4K| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO| Windows 11 Pro

Permalänk

Tycker AMD ligger mer i tiden, med allt miljö tänkande. Men man får väll se vad Nvidia skrapar ihop. Nästa blir nog en AMD också. Men inte version 6, kanske 7 eller 8 Men man får helt enkelt se hur de blir. nu kan man bara spekulera. Precis som man får göra med AMD´s nya kort (dröjer tills i morgon innan man får veta något).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Antielefant
Skrivet av Luxor ABC80:

Och kommer AMD/ATI få möjlighet att lägga bra stöd i sina grafikkort ? (jag gissar nej)

Finns egentligen inget som stoppar AMD från att lägga in CUDA-stöd i sina grafikkort, förutom att de skulle behöva betala en licens till NVidia.

NVidia kan släppa SSE/SSE2 utan att stöta på minsta vinstförlust, de konkurrerar trots allt inte på den marknaden, men att gratis släppa det till Stream? Glöm det. Snacka om att skjuta sig själv i foten.

Visa signatur

i7 8770k @ 5.2 | MSI Z370 KRAIT | 32 GB DDR4-3200 | AX850W
EVGA GTX 980 Ti Classified SLI | Acer XB270HU G-Sync

Permalänk
Medlem

Lär knappast slå 460 sli, Oh yeah Nothing can beat them, oh no no

Visa signatur

Snälla citera när ni svarar :D

Wololo

Permalänk
Skrivet av Gambit_2K:

Sen när gör PhysX ngt annat än ytliga effekter? Det har väl inget med "tunga fysiska" beräkningar att göra överhuvudtaget. Det är väl bara deras demos som gör det? Det är väl därför CPU's kan göra dem över huvudtaget om jag inte fattat fel (tänker spel nu dvs. det närmaste vi kommer till realworld tillämpningar). Rätta mig gärna.

Om det bara var ytliga effekter så skulle intresset vara så stort.

Kolla spel listan: PhysX - Wikipedia, the free encyclopedia

Men betydligt fler skulle satsa fullt ut om även ATI släpptes in. Eller med ett bra CPU stöd.

Visa signatur

Varje svensk medborgare borde ha minst 3 PC/pers där hemma !

Permalänk
Medlem
Skrivet av Luxor ABC80:

Om det bara var ytliga effekter så skulle intresset vara så stort.

Kolla spel listan: PhysX - Wikipedia, the free encyclopedia

Men betydligt fler skulle satsa fullt ut om även ATI släpptes in. Eller med ett bra CPU stöd.

Aalltså när du menar tunga effekter vad menar du då? tex. Batman: Arkham Asylum eller Mafia är itne något sådant om du inte förstått det. Det är bar aytliga effekter tex. partiklar och tyg (dvs. Batmans kappa, Mafia sönderskjutna pelare eller Mirror's Edge tyg eller fönsterrutor). Jag menar världslig fysik, i tex. wind och träd, vatten. Inte bara tyg och partikel som nämnts ovan.

Btw i den listan är hälften av spelen som är medräknade är bara mjukvaru physkX dvs. CPU. Ett exempel på det är MMO spel som bara stödjer mjukvaru. För hur skulle det vara om man online fick helt andra fysikeffekter än de som körde utan PhysX. Explosioner beter sig mer realistiskt osv.

Då skulle man få släppa 2 versioner av samma spel.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7900X| Custom Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| 2 x Patriot Viper Venom 32GB (2 x 16GB) 6200MHz CL 30-38-38-36-38| AMD Radeon RX 7900 XTX| EVE Spectrum 4K| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO| Windows 11 Pro

Permalänk
Medlem
Skrivet av Gambit_2K:

Sen när gör PhysX ngt annat än ytliga effekter? Det har väl inget med "tunga fysiska" beräkningar att göra överhuvudtaget. Det är väl bara deras demos som gör det? Det är väl därför CPU's kan göra dem över huvudtaget om jag inte fattat fel (tänker spel nu dvs. det närmaste vi kommer till realworld tillämpningar). Rätta mig gärna.

Dom mest tungdrivna PhysX spelen idag är Mafia 2 och Dark Void, varav de sista använder sig av över 100k partiklar samtidigt som reagerar med varandra och miljön runt omkring, och det är något som en CPU inte skulle klara av.

En CPU klarar de mesta av fysiska beräkningar som t.ex. cloth, rigid body dynamics osv, men när det kommer till partiklar så är en GPU oslagbar, och PhysX SDKn har varit till väldigt stor hjälp.

Något sånt här skulle vara omöjligt på dagens CPUer
YouTube - Real Time 3D Fluid and Particle Simulation and Rendering

Jag sysslar en hel del med partikelsimulering i mitt yrke, och det är stor skillnad att jobba med CPU baserade program och GPU baserade program.

Tänk dig spelet Dirt om 3-4år, då lär vi se liknande bakom varje bil

Skrivet av Gambit_2K:

Jag menar världslig fysik, i tex. wind och träd, vatten. Inte bara tyg och partikel som nämnts ovan.

Exakt hur utvecklare väljer att använda sig av PhysX olika APEX moduler är helt upp till dom. Vind och träd är möjligt, det är bara ingen utvecklare som valt att använda sig av de än vad jag vet.

Här kan du läsa om vilka APEX moduler som finns och vad dom gör
NVIDIA APEX

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design Torrent Compact | EVGA Supernova G2 750W

Permalänk
Hedersmedlem
Skrivet av blade80:

Ja det blev inget svar på HD5970 som det var så mycket snack om, vi får väl se om GTX580 kan göra Fermi rättvisa i alla fall.
Men egentligen är det väl som vanligt, det finns inga spel som kräver dessa monster till kort än, eller hur?
Jo kanske något spel förresten men de lär vara lätträknade.

När kommer det spel på bred front som gör att man utnyttja låt säga två highendkort i SLI eller CF?

Det känns som att konsollspelen och alla portningar verkligen har tagit död på grafikfyrverkeriet något år framåt.
Inte för att grafik och fysik är allt, men det bidrar mycket till spelkänslan.

Så sant så sant. Sitter på ett moddat gtx280 som är väldigt tyst. Har flera gånger känt uppgraderingssug (och mycket har bytts ut sedan origanlbygget i jan/feb 2009) men har tänkt efter lite till och varje gång insett att a) borde bli lite jobb att fixa lika tystgående kylning, b) va fan ska jag med ett bättre grafikkort till (folding undantaget)?

Permalänk
Medlem
Skrivet av Gambit_2K:

Aalltså när du menar tunga effekter vad menar du då? tex. Batman: Arkham Asylum eller Mafia är itne något sådant om du inte förstått det. Det är bar aytliga effekter tex. partiklar och tyg (dvs. Batmans kappa, Mafia sönderskjutna pelare eller Mirror's Edge tyg eller fönsterrutor). Jag menar världslig fysik, i tex. wind och träd, vatten. Inte bara tyg och partikel som nämnts ovan.

De är inte "lätta" utan de kräver en hel del kraft gör att göra. Däremot är de lätta i den mening att de är lätta för utvecklare att lägga på utan att kosta för mycket pengar i utvecklingskostnader eller tid.

Stora spel (dvs de med högre budget) som använder GPU för fysikberäkning ifrån grunden får vi nog inte se på ett tag, mest troligt är att det kan ske om en ny generation konsoller kommer där GPU kan användas till allt, dvs GPGPU och Nvidia kanske tom gör kretsar för en av konsollerna med PhysX-API tillhörande. Men det är bara spekulation, man får väl se vad som händer framöver.

Permalänk
Medlem
Skrivet av Luxor ABC80:

Om det bara var ytliga effekter så skulle intresset vara så stort.

Kolla spel listan: PhysX - Wikipedia, the free encyclopedia

Men betydligt fler skulle satsa fullt ut om även ATI släpptes in. Eller med ett bra CPU stöd.

Antar att det ska stå med ett "inte" mellan "intresset" och "vara"?

Det är klart att det är ett stort intresse när det är gratis. Havok kostar pengar, det gör inte PhysX. Hur många av dessa väljer att implementera GPU-accelererad fysik? Inte många. Så vitt jag vet är det fortfarande under ett 20-tal spel som kan köra GPU-accelererad PhysX varav jag är ganska övertygad att Nvidia bidragit med folk för att kunna göra det till en verklighet (mindre komplicerade spel från mindre utvecklare). Det är inte många stora utvecklare som väljer att köra GPU-accelerad PhysX.

Jag tror inte att PhysX är framtiden för ett GPU-accellererat fysik-API, iaf inte så länge Nvidia vill ha det för sig själva. Portas PhysX till OpenCL skulle det förmodligen ha en positiv inverkan på antalet utvecklare som vill dra nytta av det, men då skulle inte Nvidia tjäna pengar på det. GPU-PhysX är, som det ser ut just nu, mer marknadsföring än något som faktiskt används och uppskattas.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av Valiumballong:

GPU-PhysX är, som det ser ut just nu, mer marknadsföring än något som faktiskt används och uppskattas.

Jag skulle nog tro att de som har Nvidiakort med tillräcklig prestanda över och kör spelen med PhysX uppskattar det. Liten marknad, ja visst, men det är inte så många som har multimonitorsetup eller 3d setup heller.