Geforce 9900 planerad till juli

Permalänk
Citat:

Ursprungligen inskrivet av Datorjeveln
När jag spelar så brukar jag använda "custom texturer" och liknande, så mitt grafikkort tuggar rätt mycket minne, oftast allt. Så jag skulle kunna dra väldigt mycket nytta av det, och speciellt på höga upplösningar. Ett exempel är Crysis, det drar otroligt mycket grafikkorts minne, lätt 768 om man drar upp på very high och AA.
Så jag tycker du har fel där Mitrix. Visst, för den genomsnittliga datoranvändare som spelar på 1280 x 1024 och inte använder några speciella texturer eller inte vill dra upp antialiasing väldigt extremt.

Stor minnesmängd och hög bandbredd på grafikkortet skulle vara guld värt för mig.

Citat:

Ursprungligen inskrivet av Datorjeveln
1100mhz cpu + med 2 gb minne på ett grafikkort skulle inte sitta helt fel. Och gör det en dual gpu på samma gång, för en sådan skulle jag köpa direkt! Undrar bara hur många grafikkorts generationer det måste gå för att de ska inse att man vill ha mera minne!!! Och ja, även om grafikkortet inte är extremt snabbt så får drar man nytta av mycket minne, någon postade en benchmark med 1 gb minne jämfört med 512 och 256. I upplösningen 1920x1200 så fick man märkbart mer fps, och då var inte grafikkortet så väldigt snabbt.

Vad menar du med "custom" texturer? Att ladda ned ny skins och skit ändrar ju i princip noll och jag förstår inte riktigt hur du skulle kunna ändra texturer i ett marknadsfärdigt spel.

Jag föreslår att du kollar upp recensioner på 8800gt 1gb. Det gjordes jämförelser mellan 8800gt i 256mb, 512mb, och 1gb varianter. 512mb versionen presterade bättre än 1gb versionen i ca. 70% av spelen som testades. Detta var i höga upplösningar som 1920*1200 också. Vi kommer inte behöva mer än 1gb på ett tag. Sedan så finns det ju ett MSI 9600gt med 2gb om du nu tycker att du behöver det. Finns inte på Svenska marknaden än men kommer troligtvis.

Citat:

Ursprungligen inskrivet av mortifer666
Fast det där med flera kärnor fungerar ju inte på samma sätt som på en cpu. Sitter ju redan hundratals mindre kärnor i gpun redan.
Ska man ha fler gpuer som sammarbetar så måste de också dela på datan de får. Teoretiskt borde det gå att utveckla ett system där varje gpu får tilldelat en viss del av skärmen och en viss del av minnet. Problemet som uppstår då har att göra med när man flyttar vyn. Allt måste då flyttas runt i minnet. Ger man då alla gpuer fri tillgång till minnet så riskerar vissa att rensa minnet när de laddar in vad de behöver samtidigt som en annan gpu behöver det som blev rensat. Med andra ord, det var lättare förr för 3dfx än vad det är idag.

Även med 1920x1200 så är det en bit ifrån 1GB. Dagen då vi kan sitta i 2500x1600 med 8xAA den dagen kommer vi behöva mer än 1GB grafikminne. Fast inget av de gpuerna som kommer iår kommer vara något vidare på det.

Det ryktas om att kommande HD4870X2 kommer ha 2gb delat minne för GPUerna. Dvs. att det blir 2gb effektivt minne och inte 1gb per kärna. Dessutom om du läser på lite om hur Crossfire funkar så har det den funktionen att ena kortet renderar en viss del av skärmen medan det andra korten har hand om andra delen. Sedan kan man också dela upp det i schackrutor, eller att varje kort tar varannan frame.

Vad menar du med "Fast inget av de gpuerna som kommer iår kommer vara något vidare på det. " ? GT200 och R700 (enligt ryktet två stycken RV770XT eller HD4870X2) är de två GPUer som det har snackats om de senaste 1.5 åren. Detta året kommer antagligen vara det mest intressanta året för GPU sedan 8800GTX kom ut.

Citat:

Ursprungligen inskrivet av Smartidiot89
Vet inte hur mycket men flaska kommer det allt göra.

Citat:

Ursprungligen inskrivet av ArtMan
Tänkte också ta upp det. Saken är att det beror nog på hur snabba dessa kort blir i praktiken. Det lär dock inte handla om några större skillnader skulle jag tro.

Ska också uppgradera grafikkortet men lär vänta med cpu, moderkort och minne tills Intel kommer med sitt nya arkitektur i slutet av detta året eller början på nästa eller när det nu var. Så man kommer köra på den vanliga PCI-E tills dess och jag tror det kommer funka bra även om man kanskte inte lär använda 100% av kortets kapacitet.

Citat:

Ursprungligen inskrivet av mezzo_
Jag gör då en efterlysning att när nyare grafikkort lanseras att swec vid eventuella recensioner gör jämförelser mellan PCI-E 2.0 och äldre PCI-E (P35 som så många har).

Behöver du inte. Kolla på Tom's Hardware. De gjorde en detaljerad recension av just PCIe 2.0. PCIe 2.0 x8= PCIe 1.1 x16. Enligt deras undersökningar flaskar det väldigt lite och i vissa fall gick det lika bra att köra PCIe 1.1 x8 som att köra PCIe 2.0 x16. När man kommer till mer texturtunga spel som Crysis och Flight Simulator X kunde det dock skilja upp till 20% mellan PCIe 1.1 x16 och PCIe. 2.0 x16. Så beroende på vilken upplösning och vilka spel du spelar kan det skilja i prestanda. Men inget särskilt. Vänta i stället tills Nehalem kommer ut och nya sockeln+chipsettet från Intel.

Citat:

Ursprungligen inskrivet av ScrewFearMe
Varför ska de släppa ett grafikkort som stödjer dx10.1 när spel inte kräver 10.1? :s

Kolla upp lite om Assassin's Creed till PC. Det spelet stödjer inofficiellt DX10.1 (Ubisoft har dock medgett att det finns DX10.1 stöd i spelet). De som märkte detta först jämförde prestandan i spelet med ett HD3870X2 under Vista och fick bättre prestanda än både DX10 och DX9 i Vista när de använde DX10.1. Dessutom på grund av de nya avancerade AA funktionerna i DX10.1 så tappade man tydligen näst intill ingen prestanda när de satte på AA.

Med en kommande patch skall dock AC tappa DX10.1 stödet. Troligen beror det på att spelet bär Nvidia TWIMTBP loggan och Nvidia stödjer ju inte DX10.1

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990