Nvidia visar PhysX på Fermi

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av apamedvapen
Detta är onekligen intressant, men i slutändan är det ändå det kort som ger mig mest FPS för mitt pris som är det mest intressanta. Havok är fortfarande större än PhysX och det är inte intel-exklusivt till skillnad från PhysX som är Nvidia-exklusivt.

Fel, PhysX är större än Havok faktiskt. Du glömmer att en stor del spel använder PhysX utan att kräva GPU acceleration. Den stora vändningen kom med Unreal Engine som använder PhysX i massor av licensierade spel.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Fel, PhysX är större än Havok faktiskt. Du glömmer att en stor del spel använder PhysX utan att kräva GPU acceleration. Den stora vändningen kom med Unreal Engine som använder PhysX som används i massor av spel.

Hmm av de listor jag sett så används Havok i fler spel än PhysX. Kanske de inte är uppdaterade. Har du något bevis på att PhysX är större än Havok nu?

Permalänk
Medlem

Red Faction: Guerrilla använder havok.

Få spel är så destruktiva.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av apamedvapen
Hmm av de listor jag sett så används Havok i fler spel än PhysX. Kanske de inte är uppdaterade. Har du något bevis på att PhysX är större än Havok nu?

Bevis och bevis, men enligt Games Developer Magazine så är siffrorna dessa:

Citat:

In case you wondered, according to Game Developer Magazine world's most popular physics API is nVidia PhysX, with 26.8% market share [if there was any doubt that nVidia PhysX isn't popular, which was defense line from many AMD employees], followed by Intel's Havok and its 22.7% - but Open sourced Bulled Physics Library is third with 10.3%.

Lustigt nog såg jag det i en artikel som pratar om AMD/ATI och deras satsning på fysik och GPGPU.
http://www.brightsideofnews.com/news/2009/9/17/amd-supports-o...
Så AMD/ATI har börjat komma igång med GPU-accelerad fysik de också.

Permalänk
Medlem

Sånt här vill man se i konsoler. Till sin pc vill man ha massa fps i cod4 och cs.

IMO

Visa signatur

PC

| Core i5 2500K |Nocutua NH-U9BSE2 | ASUS P8Z68-V PRO | ASUS GTX 560 ti Direct CU II| Corsair Vengeance 1600MHz 4x4GB | Corsair HX 750W | WD Caviar Black 1TB | Fractal Design Arc |

Permalänk
Medlem

Jag tycker att 40nm borde vara förbi snart så vi får det billigare och bättre prestanda.

Citat:

Ursprungligen inskrivet av jocke91
You made my day. Jisses alltså?
Såklart de får till det, gick du omkring och frågade samma när du väntade på 90--> 65nm?

Frågade inte. Någon gång i framtiden 1 eller 30 år så kommer nog 35, 25 kanske tillslut 12nm.

Citat:

Ursprungligen inskrivet av foxanimal
nu ger ju inte 30nm helt automagiskt 43 % mindre chip. det är långt ifrån alla transistorer som tillverkas med minsta tillverkningsmått på ett chip då de då drar mer statisk ström. för att inte tala om alla design check rules som inte minskar i samma utsträckning.

Nä men en bit på vägen iallafall. En 295X2 var att ta i precis i dag men inte fan tror jag det borde vara ett problem i framtiden/snart

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gris
Jag tycker att 40nm borde vara förbi snart så vi får det billigare och bättre prestanda.

40nm är har ju precis kommit typ.

Permalänk
Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kilroy
40nm är har ju precis kommit typ.

jaha. det var 45nm senast el? 5 nm hit el dit, gör det nån större skillnad? Om det gör så måste ju fan 35 nm också göra STOR skillnad mot 40/45nm tycker man.

Permalänk

Vi säger att jag kommer köpa GT300 kort som används för grafiken.

Spelar det någon roll hur gammalt physkortet är?. Kan man använda typ gt8800? Blir physet bättre med ett nyare nvidiakort?

Permalänk
Medlem

Enligt en annan bild från PC Games Hardware är PhysX i vätskeberäkningar 2,7ggr snabbare på Fermi. Men det finns många andra funktioner som gör Fermi bättre för att använda GPGPU funktioner i spel, som jag tidigare nämde är den 10ggr snabbare på att switcha mellan GPU/Cuda kodläge.

http://img132.imageshack.us/img132/4138/nvidiafermigt300gpu10...

Bild från http://www.pcgameshardware.com

Permalänk
Medlem

Antalet NYA pc-spel med PhysX är väll större än nya med Havok. Känns som det i alla fall.

Visa signatur

åhoj

Permalänk
Medlem

Tänk vilka folding monster dessa kort blir då

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kilroy
haha, det är kul att läsa hur alla här hyllar nvidia som BEST EVA!!!!! bara dagar efter att alla sagt samma sak om AMDs senaste grafikkort.

Jag tvivlar inte på att GT300 kommer vara bra mycket snabbare än 58xx.
Men, det kommer 3-4 månader senare.
Kommer det vara lika prisvärt?
Kommer energiförbrukningen vara på jämförbara nivåer?
Nvidia kör fortfarande mycket på egen standard istället för en gemensam eller öppen.

All kritik mot Nvidia och alla frågetecken kring finns fortfarande kvar. Jag tror inte det var någon som tvivlade på att GT300 skulle bli ett monster var gäller kraft och funktioner.
Och jag är grymt imponerad av C++ stöd och grejer, men, kommer det vara prisvärt?
I vilket fall som helst så tycker jag det är väldigt kul och intressant med den här utvecklingen och det kommer bara bli "bättre" när Larrabee närmar sig...

Word!

Visa signatur

Main Rig FD Define R4 |Intel C2Q Q9650@3.6GHz|Asus P5Q-E|OCZ Reaper 4GB@800MHz|WD6400AAKS|HD6850|Corsair HX650
HTPC HDPLEX H1.S |Intel Core i3 4330|ASRock Z87E-ITX|8GB|128GB mSATA
Work Dell Vostro 3360 |Intel Core i5-3317U|8GB|Samsung 840 Pro 256GB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Gris
jaha. det var 45nm senast el? 5 nm hit el dit, gör det nån större skillnad? Om det gör så måste ju fan 35 nm också göra STOR skillnad mot 40/45nm tycker man.

Korrekt ! det gör mycket för strömförbrukning och temperaturer. Tänk dig att med en krympning på 10% i massan som ska leda ström så utvecklas inte lika mycket värme och samma mängd ström behövs inte för att driva. Det pratas om förbrukning i förhållande till kärnor och minne och instruks- settens effektivitet men man glömmer att ta krympningen i betraktning ofta.. Nvidia själva säger i en av sina videos som ligger på hemsidan att GF korten kommer dra 30% mindre ström än GT korten. Jag antar att det blir överlag i kortens motsvarighet , alltså GTX285 mot det nya GFX toppkortet innom gaming och Tesla kort för Labratorier mot Fermi kort för Labratorier och kontorskort mot kontorskort och så vidare även om GF serien kommer ha bättre prestanda jämnt över för precis som GT korten kommer det ju vara en enda arkitektur som är kodad för olika bruksområden även i nya GF segmentet. Det blir spännade hur som helst, men jag förstår varför Ati hadde bråttom och fokuserar på att dom är först med dx11 nu och varför dom senarelägger sitt högpresterande kort och dubbelmackan til årslutet. Givetvis ska dom försöka frontalkrocka Nvidia med nästan lika bra prestanda till ett avsevärt bättre pris när dom släpper... Nvidia hadde tydligen planer om ett släpp av mindre presterande kort först, men innsåg att Cypress kommer köra över dom så dom lägger det tills efter att dom kört över Cypress och Hemlock med ett superkort så marknaden köper Nvidia i shocktillstånd efter ha sett vad superkorten presterar. Så det kommer kort som tillsvarar typ GTX275 i förhållande till GTX 285 fast med lite eftersläp för man måste helt enkelt förbereda marknaden på att Nvidia är ingame igen och sedan börjar man konkurera i de olika prisegmenten effektivare. Precis som vid releasen samtidigt av 4890 och 275 mm. Superkortem kommer dock efter uttalanden från en kvinna vid ett kontor i TSCM innehålla allt vad Nvidia har att ge i denna omgången, och flera features i hårdvaran kan inte väntas innan 28nm arkitekturen, men givetvis kommer mjukvarubaserade features kunna läggas till. men som sagt det kommer även billigare kort med färre features, som ska vara mer direkt konkurens till Ati korten, men dom måste fokusera på att korten har andra marknader än bara gaming för nu med direct x 11 har dom ju fått konkurens för första gången av Ati på den profesionella fysikberäknings sidan så dokuseringen handlar om att försvara marknadsandelar som dom garanterat förlorar till Ati även där nu, vilket är bra, för det pressar dom ju att hålla prisättning i schack samtidigt som prestanda och arkitekturer utvecklas. Men som jag sagt tidigare , jag hoppar över Ati nu för jag har råd till toppkorten från Nvidia, men ska man ha ett mellanklasskort så köp ett Cypress kort för det finns ingen anledning att vänta på Nvidia , deras mellanklasskort kommer inte ha allt som superkorten har. Och både Nvidias superkort och Atis superkort kommer att bli mycket dyrare än Cypress serien.

Permalänk
Citat:

Ursprungligen inskrivet av Gris
jaha. det var 45nm senast el? 5 nm hit el dit, gör det nån större skillnad? Om det gör så måste ju fan 35 nm också göra STOR skillnad mot 40/45nm tycker man.

55nm var förra generationen. Innan dess var det 65nm.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av rafferaffe
börjar helt plöstligt ångra mitt köp av cf 5870..

Tycker jag inte du ska göra, omöjligt att säga om physx kommer ha någon betydande roll överhuvudtaget. sen kommer physx påslaget förmodligen strypa prestandan ändå.

Visa signatur

Core i5, gtx660

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Gris
jaha. det var 45nm senast el? 5 nm hit el dit, gör det nån större skillnad? Om det gör så måste ju fan 35 nm också göra STOR skillnad mot 40/45nm tycker man.

läste inte igenom shagys inlägg, så det kan hända att jag upprepar vad som sagts.

grafikprocessorena har gått från 65-55-40
processorerna tror ja har gått från 90-65-45

Anledningen är helt enkelt att tillverkarna av microprocessorer valt att ta dom stegen. varige steg kräver massvis med resurser så det är ju en avvägning mot fördelarna.

Permalänk
Citat:

Ursprungligen inskrivet av Zax89
Tycker jag inte du ska göra, omöjligt att säga om physx kommer ha någon betydande roll överhuvudtaget. sen kommer physx påslaget förmodligen strypa prestandan ändå.

menade mer med prestandan, men det kan nog bli bra ändå

Visa signatur

Allting går upp för mig när solen går ner.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Fel, PhysX är större än Havok faktiskt. Du glömmer att en stor del spel använder PhysX utan att kräva GPU acceleration. Den stora vändningen kom med Unreal Engine som använder PhysX i massor av licensierade spel.

Det har jag mycket, mycket svårt att tro. Du tycks glömma att nästan alla spel med fysik på konsoler använder Havok, ta t.ex. Halo 3 som ett enda exempel. Sedan ser jag ganska sällan Aegia-fysik till spel, det enda lite äldre spelet jag kommer på är PC-versionen av GRAW och GRAW2, där konsolversionen har både Havok- och Ageia-tekniker.

Tittar jag även på Gears of War samt Gears of War 2 ser jag ingenting om Ageia-tekniker, som de antagligen mest framstående Unreal 3- samt Unreal 3.5 representanterna.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av HazZarD
Tänk vilka folding monster dessa kort blir då

Exactly my thought. *Myyyyyser*

Visa signatur

"What doesn't kill you makes you smaller" - Super Mario

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Zax89
Tycker jag inte du ska göra, omöjligt att säga om physx kommer ha någon betydande roll överhuvudtaget. sen kommer physx påslaget förmodligen strypa prestandan ändå.

Dummaste jag hört, det är som att säga att anti alising stryper prestandan om man har det påslaget. Klart man får sämre FPS men det ser ju mycket bättre ut!

Permalänk

ja vad gör man

Visa signatur

Allting går upp för mig när solen går ner.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mr.Borka
Det har jag mycket, mycket svårt att tro. Du tycks glömma att nästan alla spel med fysik på konsoler använder Havok, ta t.ex. Halo 3 som ett enda exempel. Sedan ser jag ganska sällan Aegia-fysik till spel, det enda lite äldre spelet jag kommer på är PC-versionen av GRAW och GRAW2, där konsolversionen har både Havok- och Ageia-tekniker.

Tittar jag även på Gears of War samt Gears of War 2 ser jag ingenting om Ageia-tekniker, som de antagligen mest framstående Unreal 3- samt Unreal 3.5 representanterna.

Då har du missat något för Gears of War använder PhysX. Det finns i alla fall listat som ett PhysX-spel. Jag har aldrig spelat det. Unreal Engine använder PhysX för fysik, även på konsoller.

Läs mitt inlägg lite högre upp så ser du var jag fick informationen om att PhysX gått om Havok. De är baserade på en survey som GDM har gjort.

Citat:

According to article in August 2009 issue of Game Developers Magazine, covering middleware survey results (over 100 senior developers of various development companies surveyed), Physx SDK have the lead with 26.8% in physics libraries rating, next is Havok with 22.7%, third – Bullet at 10.3%, and finally – Open Dynamic Engine at 4.1%.

Permalänk
Medlem
Permalänk
Medlem

This is the first PC GPU architecture designed specifically for Supercomputing. We're delivering the features and performance at generally one-tenth the cost and one-twentieth the power of the previous generation for great increased affordability, furthermore purpose of use will be severly more general than ever due to flexibility of the new architecture. This will happen this year, we are still on top of our roadmap and are not in lack of time, and more documentation will find way thru developer news and pressreleases shortly. There are however practical details to be solved but we asure effort to make the products available.
Interestingly, even though the AMD Radeon HD 5800 series has received rave reviews, from a computing perspective, namely Tom Halfhill who characterizes Nvidia's Fermi as uncontested. Fermi surpasses anything announced by Nvidia's leading GPU competitors.
"Conceptually", Fermi's closest competitor is Intel's Larrabee.
Expected to debut next year, Larrabee chips will attack the market from the opposite direction. They will use general-purpose x86-architecture cores for both 3D graphics and GPU computing – a radically different approach than adapting a specialized 3D-graphics architecture for general-purpose computing. Until the first Larrabee chips appear, it's not clear whether the x86 can make such a leap.

Andy Keane

General manager of TESLA business unit at Nvidia.

Här är mer från en annan okänd källa inom Nvidia.

To implement ISA inside the GPU took a lot of bravery, and with GT200 project over and done with, the time came right to launch a chip that would be as flexible as developers wanted, yet affordable.

In a nutshell, this is just baseline information about what nVidia is going to introduce in the next couple of weeks. Without any doubt, we can see that nVidia reacted to Larrabee by introducing a part that is extremely efficient, natively support key industry standards and more importantly, doesn't cost an arm and a leg.

The line-up is consisted out of high-end consumer part [GeForce], commercial [Quadro] and scientific [Tesla]. You can expect memory sizes from 1.5GB for consumer GeForce 380 to 6GB for commercial Quadro and Tesla parts.

Det sista avsnittet gjorde jag en bra kvalifiserad gissning om i en tidigare tråd

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Buio
Fluids demo:
http://www.youtube.com/watch?v=r17UOMZJbGs&hd=1

Såg ju jävligt bra ut. Sen hur det funkar när man kör in det i spel blir intressant att se.

Permalänk
Avstängd

Efter Nvidias crap med PhysX är detta nog SOM VANLIGT med nvidia (folk verkar glömma väääääääldigt fort) -- vapor-ware. Efter att ha köpt varenda kort sedan 3dfx voodoo1/2/3/5 -> nv 8800gt, kan jag lugnt säga att det aldrig hamnar ett sådant nv-kort i burken igen. Hur jävla dum får man inte känna sig då? Satt nöjt med min 4ghz i7 och 4870x2 och gamla 8800gt här ett tag, nu knullar NV en i C: (roten). Fuck'em, inte en spänn till.

Visa signatur

8x64-bit POWER5+, 2TB memory, 15.2mb L2-Cache, 2xFC & 2X10Gbit Ethernet -- en _riktigt_ dator har IBM P5+.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av khanan
Efter Nvidias crap med PhysX är detta nog SOM VANLIGT med nvidia (folk verkar glömma väääääääldigt fort) -- vapor-ware. Efter att ha köpt varenda kort sedan 3dfx voodoo1/2/3/5 -> nv 8800gt, kan jag lugnt säga att det aldrig hamnar ett sådant nv-kort i burken igen. Hur jävla dum får man inte känna sig då? Satt nöjt med min 4ghz i7 och 4870x2 och gamla 8800gt här ett tag, nu knullar NV en i C: (roten). Fuck'em, inte en spänn till.

Grattis till örfilen från Nvidia... klart dom inte vill boosta konkurenter !!

Permalänk

Detta kanske är anledningen till att Nvidia dödar Ageias gamla PPU: den har blivit onödig?

Visa signatur

Gammalt nick: Darkst@r
Intel Core i7 860 @ 3,6 GHz/Noctua NH-D14|Asus GTX 970 Strix|2x2 GB Corsair Dominator DDR3 1600 CL8|Asus P7P55D Deluxe|Intel X-25M G2 80GB|Samsung 850 Pro 256 GB|Samsung Spinpoint F3 1TB|Windows 7 Home Premium 64-bit|Nanoxia Deep Silence 1|Corsair VX550|