Geforce 9900 planerad till juli

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av NukeHenk
Varför är det 2st 9900GTX i listan? Är det för att kortet ska ersätta både 9800GX2 och 9800GTX ?

Antagligen.

Nice om 512-bit kommer tillbaka väl fortfarande 2900XT som är kung i minnesbandbredd trotts sin ålder.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bazooka91

Eller du kanske är emot teknisk utveckling?

Förmodligen är det inget som hämmar utvecklingen, vad än Nvidia släpper för kort så har de i alla fall en sektion som sysslar med utveckling, de kort vi ser i dag planerades inte för 4 veckor sedan direkt, det tar lång tid att utveckla nya serier!

Permalänk
Medlem

Låt oss nu hoppas att detta blir något stort. Och inte något 8800 --> 9800. Utan så det verkligen är värt oss 8800 användare att uppgradera.

60 FPS i crysis på ultra high 1680x1050 4xaa 16xaf thank you.

Permalänk
Medlem

Jag tycker att det är bra att tempot har stannat av så att man slipper byta dator vart år. De kunde dragit ut så att en dator klarar sig bra i fem år iaf.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dagas
Antagligen.

Nice om 512-bit kommer tillbaka väl fortfarande 2900XT som är kung i minnesbandbredd trotts sin ålder.

med GDDr3 tror jag inte att de kommer upp i samma bandbredd som kommande 4780, GDDr3 brukar inte nå alltför långt över 2Ghz

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
med GDDr3 tror jag inte att de kommer upp i samma bandbredd som kommande 4780, GDDr3 brukar inte nå alltför långt över 2Ghz

Dock har GDDR3 bättre timing. Rent bandbreddsmässigt är det kanske mindre intressant men i prestandan för minnet själv så är GDDR3 och GDDR4 identiska i prestandan där GDDR4 kompenserar timing med frekvens.

Vill se vad GDDR5 gör i praktiken, eller om det bara är snack.

mazk0:
En dator klarar sig lika länge som man vill. Bara för att det kommer nya produkter så betyder inte detta att tidigare produkter automatiskt dör ut i förtid.

Permalänk
Avstängd

Nvidia känner sig väl hotade av 48xx serien?
De kanske tror att folk kommer att köpa kort ur 48xx serien eftersom den är nyare, fast folk kanske gör så? Köper det som är nyast?

Visa signatur

All datorprestanda kan jämföras i kronor och ören (kr/poäng). Exempel: Prestanda/krona på grafikkort | www.intrnet.se

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av michael123
Nvidia känner sig väl hotade av 48xx serien?
De kanske tror att folk kommer att köpa kort ur 48xx serien eftersom den är nyare, fast folk kanske gör så? Köper det som är nyast?

Det är väl så marknaden funkar? Konsumenten köper det som uppfattas eller är bättre - oberoende av bolag.

Förlorar Nvidia potentiella marknadsdelar och därmed vinstpotential då har dem all rätt att känns sig hotade. AMD gör ju inte kretsar bara för att det är roligt - de gör det för att tjäna pengar precis lika mycket som vilken annan aktör somhelst.

Permalänk
Citat:

Ursprungligen inskrivet av djuicer
Förmodligen är det inget som hämmar utvecklingen, vad än Nvidia släpper för kort så har de i alla fall en sektion som sysslar med utveckling, de kort vi ser i dag planerades inte för 4 veckor sedan direkt, det tar lång tid att utveckla nya serier!

Faktum kvarstår att hoppet från G80 til G92 var mikroskopiskt om man ser till prestandan("dekaltrimning" antar jag termen är i bilsammanhang). Att Nvidia sedan ska hålla på och tjafsa med sin "G92b" som inte ser ut att bli mer än ännu en dieshrink gör det inte mindre obetydligt. Observera att jag är 100 % medveten om att det är ATi:s frånvaro från prestandatoppen som är den mer direkta orsaken till detta avstannande. Det är helt korrekt om man ser till hur en marknadsekonomi fungerar men likväl är det fult gjort att kränga en gammal chipdesign under nytt namn med bara några få förändringar.

Om GT200 kan jag bara upprepa det jag sagt förut. Kretsen ser ut att bli ganska dyr med tanke på bussbredden och ett så högt antal transistorer ökar risken för dåliga yields. Frågan kvarstår om storleken på tillverkningsprocessen.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk

Priskrig Yeeaay

Permalänk
Citat:

Ursprungligen inskrivet av Stenfors
Låt oss nu hoppas att detta blir något stort. Och inte något 8800 --> 9800. Utan så det verkligen är värt oss 8800 användare att uppgradera.

60 FPS i crysis på ultra high 1680x1050 4xaa 16xaf thank you.

Jag håller med, de kan väl anstränga sig lite i alla fall. Så man slipper köpa 3 st av varje kort för att kunna dra upp grafiken på max.

Tycker också att de borde tänka "outside the box", kanske lägga på 2 gb ram på ett grafikkort då ram minnen är så billiga nu för tiden. Prestandan skulle bli så <33333333

Permalänk

Skulle tippa att det är ännu en liten uppgradering av 8800. Nvidia gör helt rätt, folk vill ha det nyaste och när det släpps spelar det ingen roll om prestandan är densamma, det är datumet som säljer. Man blir förbannad.

De vill väl främst att folk som siktar på 4870 serien ska vänta till 9900 serien för att jämföra. Men vem vet kanske kickar ass? Nvidia har haft så otroligt lång tid på sig att knåpa ihop något rejält, man undrar ju vad de har gjort av den?

Presterar 4000-serien jämt och fint i alla spel så hugger jag direkt. Blir intressant att se hur Crysis gillar 4000, även om det inte är viktigt.

Visa signatur

dualsata2| A64 3500+ 2,7 ghz | Cruical ballistix 2 gig DDR 4000 | jag hatar Nvidia 8800GTS 100% buggar (nu 5% och gudomligt 660/1044)|Windows XP Pro | Proff deluxe - kungen av vattenkylning| 480 W Hiper typeR nätagg

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Nyarlathotep
Skulle tippa att det är ännu en liten uppgradering av 8800.

Varför tror folk såhär? Är det inte mera sannolikt att det är en större förändring? Nvidia har haft lång tid på sig (särskilt med tanke på att g92 inte tillförde så mycket nytt) och någon anledning borde de väl ha för att behöva så många extra transistorer.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av headcleaner
en ful grej? marknadsekonomi är inte din starkaste sida va?

Det har inte kommit en värdig ersättare till 8800GTX ännu, vilket är väldigt ovanligt och extremt tråkigt om du frågar mig. Visst att många kanske tycker det är skoj att det kommer nya kort stup i kvarten, men det är inge intressanta kort.

Permalänk

Fanken vad de båda aktörern sprutar ut nya kort (Nvidia är iofs värst).

Räknar mig själv som ganska insatt men nu får man nästan svårt att hänga med.

Sedan att vi Sweclockersmedlemmar är experter på att analysera ATI och Nvidias strategier och framför allt vad *märket man inte gillar* hela tiden gör för fel är ju ganska uppenbart .

Personligen tycker jag det ska bli spännande att se vad sommarens grafikkort har att erbjuda! Jag vill ha ett ordentligt skäl att byta ut mitt 8800GTX snart, inte lite halvblesyrer.

Sedan KAN det ju också vara så att Nvidia och ATI har svårt att pressa ur mer, kanske blir som processorindustin att det går mer och mer över till 2- och 4-kärniga lösningar? Kanske är deras två "dubbelkort" ett bevis på det.

Nu var det jag som var expert på analys... En god ale gör så med mig på fredagskvällen.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Datorjeveln

Tycker också att de borde tänka "outside the box", kanske lägga på 2 gb ram på ett grafikkort då ram minnen är så billiga nu för tiden. Prestandan skulle bli så <33333333

Måste nästan fråga om du har någon koll på hur grafikkort fungerar? (inte för att jag själv vet särskilt mycket om vad varje enskild transistor gör men ändå) programmet eller spelet använder inte mer minne än texturerna och den geometriska datan tar, alltså har man bara nog med plats för den mängden data så spelar det ingen roll hur mycket mer minne man har.
Ett exempel på detta är de låg och mellansegmentskort där tillverkarna för att "sticka ut" trycker på 2Gb minne i stället för standard 256mb eller 512mb, dessa grafikkort presterar inte det minsta bättre än sina syskon med en fjärdedel av minnesmängden, just för att kortet inte använder mer minne än att det räcker med 512mb.

Sen nämner du att minne är billigt nu, nu ska vi inte blanda äpplen och päron här, det minne som är billigt nu är huvudsakligen DDR2, grafikkort använder huvudsakligen GDDR3 och GDDR4. Vad dessa kostar vet jag inte men de är förmodligen inte lika billiga som DDR2, särskilt de snabbare modellerna. En ny minnesstandard som den kommande GDDR5 brukar också vara ganska så dyra och brukar stå för en respektabel del av kortkostnaden för ett nytt högprestandakort som använder det nya sortens minne.

Citat:

Ursprungligen inskrivet av Elgot
Varför tror folk såhär? Är det inte mera sannolikt att det är en större förändring? Nvidia har haft lång tid på sig (särskilt med tanke på att g92 inte tillförde så mycket nytt) och någon anledning borde de väl ha för att behöva så många extra transistorer.

Precis, förstår inte heller hur folk tänker, G92b som ska komma är ju en slipad G92 och borde ju kunna erbjuda en liten prestandaboost. Att nvidia då samtidigt ska släppa GT200 och att det också är ett kort med en liten prestandaboost verkar ytterst tveksamt, varför skulle de släppa två kärnor som båda bjöd på en liten prestandaförbättring samtidigt, särskilt då den ena av dem har ca 300miljoner fler transistorer!?

Utvecklingsnamnet borde ju också vara en ledtråd, Gxx till GTxxx är ju ett helt nytt namngivningssystem och borde ju innebära att något mer än enbart en finslipning har gjorts.

Visa signatur

USA har aldrig varit på månen, Sverige hade aldrig vm 1958 och 9/11 har aldrig inträffat och därmed basta.
P4 2,6C@<3,0Ghz + CNPS7000A-CU|AI7|1,5Gb BH5 & BH6|Antec Sonata|R9800np(BBA) + VF700-CU@425/258|HP LP2465|Logitech MX500, Seasonic S12 500W

Permalänk

När jag spelar så brukar jag använda "custom texturer" och liknande, så mitt grafikkort tuggar rätt mycket minne, oftast allt. Så jag skulle kunna dra väldigt mycket nytta av det, och speciellt på höga upplösningar. Ett exempel är Crysis, det drar otroligt mycket grafikkorts minne, lätt 768 om man drar upp på very high och AA.
Så jag tycker du har fel där Mitrix. Visst, för den genomsnittliga datoranvändare som spelar på 1280 x 1024 och inte använder några speciella texturer eller inte vill dra upp antialiasing väldigt extremt.

Stor minnesmängd och hög bandbredd på grafikkortet skulle vara guld värt för mig.

Permalänk
Citat:

Ursprungligen inskrivet av Datorjeveln
När jag spelar så brukar jag använda "custom texturer" och liknande, så mitt grafikkort tuggar rätt mycket minne, oftast allt. Så jag skulle kunna dra väldigt mycket nytta av det, och speciellt på höga upplösningar. Ett exempel är Crysis, det drar otroligt mycket grafikkorts minne, lätt 768 om man drar upp på very high och AA.
Så jag tycker du har fel där Mitrix. Visst, för den genomsnittliga datoranvändare som spelar på 1280 x 1024 och inte använder några speciella texturer eller inte vill dra upp antialiasing väldigt extremt.

Stor minnesmängd och hög bandbredd på grafikkortet skulle vara guld värt för mig.

Du måste ha en snabb gpu på kortet också. Finns ingen mening med mycket minne ifall gpun inte hinner med då kvittar bandbredd och mängd.
ATIs 2900 serie hade stor minnesbandbredd men gpun var inte optimerad för de spel som utvecklades så minnet fick aldrig jobba.

Annars kan du ju alltid köpa en packard bell dator med inbyggt grafikkort och möjlighet till 896mb grafikminne delat med ram.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av Bazooka91
Frågan kvarstår om storleken på tillverkningsprocessen.

Förmodligen 55nm. Några källor har sagt så i alla fall, får se om det stämmer.

Hur som helst är jag rätt övertygad om att ATi får problem i prestanda segmentet i Juli. ATis line upp ser inte minst bra ut men Nvidias specifikationer på den befintliga arkitekturen är farlig alltså.

Men det jag är mest intresserad av som Borka nämnde är nog GDDR5 faktiskt.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av mortifer666
Du måste ha en snabb gpu på kortet också. Finns ingen mening med mycket minne ifall gpun inte hinner med då kvittar bandbredd och mängd.
ATIs 2900 serie hade stor minnesbandbredd men gpun var inte optimerad för de spel som utvecklades så minnet fick aldrig jobba.

Annars kan du ju alltid köpa en packard bell dator med inbyggt grafikkort och möjlighet till 896mb grafikminne delat med ram.

1100mhz cpu + med 2 gb minne på ett grafikkort skulle inte sitta helt fel. Och gör det en dual gpu på samma gång, för en sådan skulle jag köpa direkt! Undrar bara hur många grafikkorts generationer det måste gå för att de ska inse att man vill ha mera minne!!! Och ja, även om grafikkortet inte är extremt snabbt så får drar man nytta av mycket minne, någon postade en benchmark med 1 gb minne jämfört med 512 och 256. I upplösningen 1920x1200 så fick man märkbart mer fps, och då var inte grafikkortet så väldigt snabbt. Allting stämmer inte i teorin!

Om det stämmer att 9900gt(x) kommer ha 512 bitars minnesstruktur (1gb minne) plus att de är lika svala som 9800gtx (iaf jämfört med 8800 gtx) så kommer dessa bli väldigt bra. Synd bara att de inte har figurerat ut hur man får SLI att fungera bättre (få dubbel minneskapacitet etc)

Permalänk
Medlem

hehe stackars ATi/Amd..

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Förmodligen 55nm. Några källor har sagt så i alla fall, får se om det stämmer.

Hur som helst är jag rätt övertygad om att ATi får problem i prestanda segmentet i Juli. ATis line upp ser inte minst bra ut men Nvidias specifikationer på den befintliga arkitekturen är farlig alltså.

Men det jag är mest intresserad av som Borka nämnde är nog GDDR5 faktiskt.

Jag tror att det blir oerhört jämnt mellan GT200 (9900GTX?) och HD4870. Jag gjorde lite snabba beräkningar på shaderprestandan dem emellan och kom fram till att GT200 har en teoretisk shaderprestanda på 1024GFLOPS (256*2000, GT200 ska ha 256 SP om jag minns rätt) medan HD4870 landar på 1004GFLOPS (480*1050) i teoretisk shaderprestanda.

I och med att den gigantiska flaskhalsen som är textureringsprestanda hos R6xx ser ut att vara fixad med en fördubbling av TMU:erna (16 hos R6xx mot 32 hos HD4870, 12400Mtexls/s mot 27200Mtexels/s - samma antal TMU:er som G80GTX).

I vilket fall som helst kommer HD4870x2 att krossa allt och alla såvida man inte stöter på gigantiska problem med sina drivrutiner.

Om några av mina beräkningar är felaktiga är det bara att säga till

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Bazooka91
I vilket fall som helst kommer HD4870x2 att krossa allt och alla såvida man inte stöter på gigantiska problem med sina drivrutiner.

Tyvärr är väl drivrutinsproblem en av atis paradgrenar..

Permalänk
Citat:

Ursprungligen inskrivet av Elgot
Tyvärr är väl drivrutinsproblem en av atis paradgrenar..

Drivrutinerna idag fungerar väldigt väl om jag får säga det själv. Det enda riktigt stora problemet jag ser i dagens läge är att Quad-Crossfire fungerar mycket dåligt i många fall. I och med att R7xx inte verkar skilja sig speciellt mycket mot R6xx så skulle jag nog säga att drivrutinsproblem inte kommer vara ett problem (no pun intended) så länge det gäller högst två kort. "Vanlig" Crossfire fungerar ypperligt om du frågar mig enda problemet är att ATi är långsammare att komma med profiler än Nvidia pga. att de har en längre release-cykel.

Dock är detta ju (som alltid) spekulationer och enbart baserat på personliga erfarenheter.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Citat:

Ursprungligen inskrivet av Datorjeveln
1100mhz cpu + med 2 gb minne på ett grafikkort skulle inte sitta helt fel. Och gör det en dual gpu på samma gång, för en sådan skulle jag köpa direkt! Undrar bara hur många grafikkorts generationer det måste gå för att de ska inse att man vill ha mera minne!!! Och ja, även om grafikkortet inte är extremt snabbt så får drar man nytta av mycket minne, någon postade en benchmark med 1 gb minne jämfört med 512 och 256. I upplösningen 1920x1200 så fick man märkbart mer fps, och då var inte grafikkortet så väldigt snabbt. Allting stämmer inte i teorin!

Om det stämmer att 9900gt(x) kommer ha 512 bitars minnesstruktur (1gb minne) plus att de är lika svala som 9800gtx (iaf jämfört med 8800 gtx) så kommer dessa bli väldigt bra. Synd bara att de inte har figurerat ut hur man får SLI att fungera bättre (få dubbel minneskapacitet etc)

Fast det där med flera kärnor fungerar ju inte på samma sätt som på en cpu. Sitter ju redan hundratals mindre kärnor i gpun redan.
Ska man ha fler gpuer som sammarbetar så måste de också dela på datan de får. Teoretiskt borde det gå att utveckla ett system där varje gpu får tilldelat en viss del av skärmen och en viss del av minnet. Problemet som uppstår då har att göra med när man flyttar vyn. Allt måste då flyttas runt i minnet. Ger man då alla gpuer fri tillgång till minnet så riskerar vissa att rensa minnet när de laddar in vad de behöver samtidigt som en annan gpu behöver det som blev rensat. Med andra ord, det var lättare förr för 3dfx än vad det är idag.

Har du sett någon benchmark mellan 1GB och 2GB minne?

T.ex. 9800GX2 har bara 512MB per GPU. Så i realiteten är det ett 512MB kort men som tack vare PCI-express 2.0 och att det är två kort får ökad bandbredd.
Men visst, det skulle vara kul ifall de hade ett "2GB kort" på den.

http://www.yougamers.com/articles/13801_video_ram_-_how_much_...

Även med 1920x1200 så är det en bit ifrån 1GB. Dagen då vi kan sitta i 2500x1600 med 8xAA den dagen kommer vi behöva mer än 1GB grafikminne. Fast inget av de gpuerna som kommer iår kommer vara något vidare på det.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Citat:

Ursprungligen inskrivet av Bazooka91
Jag tror att det blir oerhört jämnt mellan GT200 (9900GTX?) och HD4870. Jag gjorde lite snabba beräkningar på shaderprestandan dem emellan och kom fram till att GT200 har en teoretisk shaderprestanda på 1024GFLOPS (256*2000, GT200 ska ha 256 SP om jag minns rätt) medan HD4870 landar på 1004GFLOPS (480*1050) i teoretisk shaderprestanda.

I och med att den gigantiska flaskhalsen som är textureringsprestanda hos R6xx ser ut att vara fixad med en fördubbling av TMU:erna (16 hos R6xx mot 32 hos HD4870, 12400Mtexls/s mot 27200Mtexels/s - samma antal TMU:er som G80GTX).

I vilket fall som helst kommer HD4870x2 att krossa allt och alla såvida man inte stöter på gigantiska problem med sina drivrutiner.

Om några av mina beräkningar är felaktiga är det bara att säga till

Jo fast 99xx kommer använda sig av 120TMU's och 120 TFU's enligt rykten vilket blir en markant ökning och detta tillsammans med 32 ROPS.

Antalet SP beräknas vara 240 av någon anledning, vet ej varför riktigt.

Citat:

Kretsens kluster kan även ha förändrats med en ökning från 16 shader enheter per kluster till 24 per kluster, med största sannolikhet MADD + MUL, samt 10 klusters i flaggskeppet vilket betyder sammanlagt 240 shader enheter totalt. Dessa kommer att paras ihop med 32 ROPs, 120 TMUs och 120 TFUs. Klockfrekvensen på kärnan ska ligga runt 600-650MHz, vilket betyder att shaderklockfrekvensen nog landar på runt 1500MHz.

Mvh

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Citat:

Ursprungligen inskrivet av AlbinNdoja
Jo fast 99xx kommer använda sig av 120TMU's och 120 TFU's enligt rykten vilket blir en markant ökning och detta tillsammans med 32 ROPS.

Antalet SP beräknas vara 240 av någon anledning, vet ej varför riktigt.

Mvh

Saken är den att prestandan inte ökat nämnvärt mellan G80 och G92. G92 har 64 TMU:er och också en hel del extra shaderkraft. Jag tror att flaskhalsen hos Nvidias kort ligger mer hos shaderprestandan än hos textureringsprestandan. Tänk på att ATi har en bråkdel av av de TMU:er Nvidias kort har och då ligger de ändå inte så groteskt mycket efter i många fall.

Ta t.ex. 8800GTX vs. 9800GTX. Trots att 9800GTX har en textureringsprestanda på 43200Mtexels/s mot G80GTX 18400Mtexels/s (9800GTX har alltså ca. 2.35ggr mer textureringsprestanda än 8800GTX) men ändå skiljer det mindre mellan dessa kort än vad ens shaderprestandan kan förklara. Jag vet att teoretisk prestanda sällan kan översättas direkt till den faktiska, men ändå. Jag tror att flaskhalsen från och med nu komemr att ligga hos rå beräkningskraft hos shaders hellre än texturering.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews...

T.o.m i spel som inte är begränsat av shaderprestanda är skillnaden stor (och då är Crysis väldigt tungt med stora texturer).

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews...

Precis som att ATi inte tycker sig behöva mer än 16ROP:s tror jag att man inte behöver mycket mer än 32TMU:er

Dock måste jag erkänna att HD4870 kommer att ligga i lä från GT200 när det gäller texturfiltrering (vilket verkar bli lite av en specialitet från Nvidia i och med vinkeloberoende AF).

Om kortet har 240Sp:er så stämmer min uträkning inte : / Kan det vara så att kortet har högre shaderfrekvens?

Med 1500MHz har kortet endast 720GFLOP och jag kommer ihåg rykten som sa över 1TFLOP: /

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk

Löjligt.

Jag är så ruskigt trött på Nvidias konstanta nya och förvirrande serier. Visst får man mer för pengarna nu än för 1½ år sedan, men inte prestanda. Sitter fortförande här och suckar med mitt gamla 1900xt (Som fortförande pallar alla spel finfint med hög grafik, förutom Crysis då så klart). Har sett fram emot alla nya serier under det senaste året, men nvidia släpper ju bara samma skit om och om igen, medans ATI har påbörjat en ny inrikting med billigare och strömsnåla kort, alltså inga direkt värstingar där heller än.

Så, nu när ATI äntligen släpper lite info om en snart kommande riktig värsting så kontrar så klart nvidia med ännu en mjölk-serie. Iom att denna serien bara ökar en hundring i namnet så känns det som att det inte blir något direkt nytt. Detta känns helt ointressant i mina ögon.

Inte för att jag är särskillt insatt i allt detta rent tekniskt då, men det är den uppfattningen jag har fått av det jag har läst och sett inför möjliga köp. Som det ser ut nu så känns ett 4870/x2 mer lockande till sommaren Men vi får väl se när testerna börjar komma.

Visa signatur

Intel i7 6700k @4.7Ghz | Be Quet! Dark Rock Pro 3 | Asus Z170 ROG Hero VIII | 32GB DDR4 Corsair Vengeance 3000Mhz | Asus 1080Ti Strix OC | Samsung 950 Pro M.2 250GB, Samsung EVO 850 120GB, Samsung EVO 840 250GB, & Seagate 7200rpm 4TB | Corsair HX 1050W | Fractal Design S | Asus Xonar U7 | Sennheiser PC360 | TrackIR 5 + ProClip | Eizo 27" EV2736W | HTC Vive | Windows 10 Pro

Permalänk
Medlem

Kommer avsaknaden av PCI-E 2.0 vara en flaskhals på säg ett HD4870? Det känns som om jag kommer uppgradera till ett sådant och då kanske det är lika bra att byta mobo till ett som stödjer 2.0 om det skulle behövas.

Visa signatur

Om jag hade en dator värd namnet skulle den stå här.

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av Mr. Bravo
Löjligt.

Vad du klagar, vad är problemet? Att nvidia uppdaterar sina kort är väl inte dåligt, och tycker man det är det behöver man inte köpa dem. Och skall det tolkas som att du irriteras av att nvidia släpper en ny serie? Jag har svårt att se nackdelarna även i detta fall. Förmodligen kommer vi dessutom få se större prestandaökningar än vad de flesta här verkar tro, men som sagt krävs det tester för att visa hur det egentligen ligger till.