Nvidia lanserar Geforce GTX 200

Permalänk

Off:
Hej hej alla, skoj och se att man är poppis här inne.

Jag sitter vid datorn då och då men som några skrev så finns det annat att göra ute. Till exempel att träffa kvinnor, donnor, pumor, kalla det vad ni vill. Jag tänker ändå inte köpa någonting förens HD4870X2 lanseras.

On:
Att GTX 280 presterar bra vet alla redan. Det är ett singelkort och inte ett dualkort. Och _självklart_ som ni _alla_ borde förstå kommer prestandan givetvis att förändras med tiden när Nvidia lanserar drivrutiner och till det bättre. Däremot tror jag att ATi vinner denna ronden. Det spelar som sagt ingen roll om Nvidias GTX 280 presterar 50% bättre än HD4870 känns det som då HD4870 verkar bli så mycket billigare och bättre vad gäller andra faktorer.

Däremot tror jag att HD4870X2 kan bli giftig för runt 4000kr. Nvidia kommer säkerligen att sänka priset på GTX 280 efter hur HD4870X2 prissätts. Jag tror inte vi kommer att få se sådan snabb pris dropp med GTX 2xx som vi fick se med 9800GX2 av den anledningen att GTX 2xx var dyr att framta samt att det totalt dominerar allt i sin väg än så länge. Men detta kan bli ett superb år för ATi och nästa kanske. Jag tror att 4000 serien kommer att slå bra finansiellt men inte ur prestanda faktor. Däremot X2 från ATi kan bli vass. Men det ryktas även om att Nvidia håller på att arbeta med en GT200b, i 55nm samt andra modifieringar vilket kommer bli intressant och följa. Men för mig personligen lutar det åt ett HD4870X2 än så länge.

MVh

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av sAAb
Från AnandTech:

"Now remember that a single GTX 280 uses more power than a GeForce 9800 GX2, and thus two of them is going to use a lot of power. It was so much power in fact that our OCZ ProXStream 1000W power supply wasn't enough. "

AAaaajjjj.

1000W räcker alltså inte...

Vansinnigt. Börja gå lite överstyr det här.

Visa signatur

PSN: ZlimJim (adda gärna)
Live Olimp (adda gärna)
Wii Vetifan :P

Permalänk
Citat:

Ursprungligen inskrivet av SlimJim
Vansinnigt. Börja gå lite överstyr det här.

Jo fast här får man börja koppla på hjärnkontoret. Ett system med ett GTX 280 skulle innebära ett system som drar över 80 ampere. Förstå hur mycket 80 ampere är.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Inget dåligt kort nvidia har släppt, snarare jävligt vasst sådant.
GJ nvidia.

Visa signatur

Studio Artcore Tattoo
[i7 9700k@5.3ghz - MSI OC 2080ti - Vive Pro - SRD rig - NLv3 - Fanatec CSW2.5]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ZitreXx
Har alla glömt va "värstingkort" brukade kosta vid lansering?
Tidigare fick man ju räkna med minst 4000 och egentligen 5-6000...
Eller ja nVidia tar ju den principen tillbaka då med 280 vilket e synd men jag blev glatt översakad när 9800GX2 kom med förhållandevis låga pris...

Heh, jo. När Geforce 3 släpptes våren 2001 så kostade det runt 7500kr. Men då var ju också dollarn rätt stark, medan nu så är den relativt svag.

Citat:

Ursprungligen inskrivet av ajp_anton
Varför tycker vissa av er att 25W i idle är bra? Vad är så bra med att ström går åt ingenting?

Allt är ju relativt. Jämfört med andra värstingkort som Nvidia släppt de senaste 5 åren eller så, så är det rätt bra.

Men visst, 25W är ändån rätt högt i mitt tycke då det bara gäller 2D-grafik. Och 4870 kommer nog vara lägre.

Permalänk
Medlem

960Watt öh låter knasigt (12*80)..eller är det kombinerat över alla rails?

Visa signatur

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Permalänk
Citat:

Ursprungligen inskrivet av vkn
Inget dåligt kort nvidia har släppt, snarare jävligt vasst sådant.
GJ nvidia.

Ja, det är jävligt vasst kort och bara detta att gå från 30w idle för 9800GTX (har jag för mig) till 25w idle för GTX 280 är faktiskt imponerande även om ATi skulle lyckas med 10w. Men det är ju verkligen skillnad på processorerna också. Kortet presterar ruskigt bra också. Men jag är jädrans nyfiken på hur X2 presterar.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Kollade på ett gammalt 420W agg strax över 90 Ampere orkade det. Totalt då:)

Visa signatur

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av dagas
Vi hade sett dem för länge sen om inte grafikkortstillverkarna körde med embargo som tvingade siterna att skriva på avtal om att inte släppa ut någon information. Samma sak görs med de flesta stora spel nu för tiden. Jävligt kasst men de är väl rädda för att recensionerna inte blir så bra så de vill att folk ska köpa dem innan de läst recensionerna.

Kolla in hardocp.com för recension finns även på anandtech å andra ställen.

OK... thanks!!

Visa signatur

1: Win7, i7 920@4GHz, 12GB Dominator, Gainward 4870x2, CM Cosmos, 150GB Raptor + 750GB HDD
2. SuSE 11.1, Q9550@400x8½, 8GB A-Data, GeForce 8500GT, Antec 1200, 4TB HDD

Permalänk
Medlem

System i idle med
GTX280 159W
GTX280 SLI 211W

Ytterligare 52W när ett andra GTX280 ansluts, ett grafikkort som skulle kunna vara helt avstängt.

(siffror från Anandtechs review)

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk

För dyrt och energislukande, nej det blir ett ATI kort för min del.

Permalänk
Medlem

Tyvär så ser det ut som utveklingen på grafikkort går snabbare än vad de som gör spel har tängt sig. grafikkorten har nu sådan extrem prestandard att man måste köra test i 2560*1600 30" för att lyckas att få under 30fps.
för de flesta som använder 19-23" skärm så ser det ut som att ett HD 3750*2 funkar kanon.

Om man köper ett 280gtx så är det för att becha inte för att spela. För ska du spela spel på din pc behöver du max lägga 3000 kr och får då ändå "överprestandard"

Jag hoppas dock att det snart kommer nya spel som är optimerade men ändå knäcker 280gtx i 1280*1024 för snyggrafik och bra efekter bara älskar man.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ammath
Ett leadtek beställt från komplett jag ska bara ha detta kort.

Beställde ett XFX kort, jag bara måste ha det värsta 1 gång iaf haha

fick inte 8800GTX ( 1 ASUS, 1 XFX) korten att funka ordentligt i SLI så sålt av de 2 så nu väntar jag med spänning tills på onsdag

Kollar du på vad andra GPUér presterar med 1 kärna så ahh vad ska man säga, hur fasiken lyckas dom med så bra prestanda med 1 kärna!!!!! ????

8800 GTX mot 280GTX, knappt man ser FPS på 8800 GTX?

Vet hut folk! och att 280GTX som är singel kärna prestera bättre än 9800GX2(Crysis) med väldigt tidiga drivrutiner är väl hur sjukt som helst?!

Visa signatur

Dator 1 i7 920 @ 3,2 ghz, GTX480
Dator 2 Phenom II 940 @ 3 ghz, GTX280

Permalänk
Medlem

Det kommer fler grafikkort till PC än det släpps vettiga spel till den.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av HazZarD
Bedrövande resultat i crysis tycker jag..

http://www.rage3d.com/board/showthread.php?t=33925647

Hur kan du tycka det??

Crysis HIGH setting 1920 * 1080 16AA

9800 GX2 : 15 Fps

280 GTX : 26 FPS

är ju ungefär 85 % höjning i fps?

SLI Crysis HIGH 1920*1080 16AA

9800 GX2 : 24 FPS

280 GTX: 34 FPS

Tänk på att det bli Quad SLI för 9800GX2

Och vanlig SLI för 280 GTX 2 cores vs 4: och 2 cores går segrare ? lika så vid 1 vs 2 cores.. helt sjukt i mitt tycke

Dessutom så säger dom på Nvidias hemsida att 1 280GTX kort kommer klara alla inställningar på högsta i farcray 2, mums mums

http://www.nvidia.com/object/geforce_gtx_280.html

Bad ass Graffe kort!

Jag som nu kör 8800 GTX(singel) (sämre än 9800 gtx vilket ligger i 10 rep 18 fps i tester över, kommer nog bli rätt nöjd med prdukten.

Visa signatur

Dator 1 i7 920 @ 3,2 ghz, GTX480
Dator 2 Phenom II 940 @ 3 ghz, GTX280

Permalänk
Medlem

Så det var Nvidias tur att göra en "HD 2900XT".

Patetiskt dåligt.

Att förlora mot GX2?! Eller två st 8800GT för 3000kr.

Laughable.

Visa signatur

Memento mori...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Alm872
Hur kan du tycka det??

Crysis HIGH setting 1920 * 1080 16AA

9800 GX2 : 15 Fps

280 GTX : 26 FPS

är ju ungefär 85 % höjning i fps?

SLI Crysis HIGH 1920*1080 16AA

9800 GX2 : 24 FPS

280 GTX: 34 FPS

Tänk på att det bli Quad SLI för 9800GX2

Och vanlig SLI för 280 GTX 2 cores vs 4: och 2 cores går segrare ? lika så vid 1 vs 2 cores.. helt sjukt i mitt tycke

Dessutom så säger dom på Nvidias hemsida att 1 280GTX kort kommer klara alla inställningar på högsta i farcray 2, mums mums

http://www.nvidia.com/object/geforce_gtx_280.html

Bad ass Graffe kort!

Jag som nu kör 8800 GTX(singel) (sämre än 9800 gtx vilket ligger i 10 rep 18 fps i tester över, kommer nog bli rätt nöjd med prdukten.

Man köper inte ett kort för över 5000 spänn för att få sketna 26fps allt under 30 är ju skrattretande i den upplösningen rofl.. minst 40 ska man få annars är det bara idioti att köpa dyra kort som knappt klarar ett spel som snart är 1 år gammalt vettigt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Alm872

Kollar du på vad andra GPUér presterar med 1 kärna så ahh vad ska man säga, hur fasiken lyckas dom med så bra prestanda med 1 kärna!!!!! ????

8800 GTX mot 280GTX, knappt man ser FPS på 8800 GTX?

Vet hut folk! och att 280GTX som är singel kärna prestera bättre än 9800GX2(Crysis) med väldigt tidiga drivrutiner är väl hur sjukt som helst?!

Den enda review jag läst hamnar 9800GTX 20-25% efter GTX280 och GX2 presterar nästan lika mycket bättre än GTX280.
http://images.anandtech.com/galleries/147/crysis_large.png

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Alm872
Hur kan du tycka det??

Crysis HIGH setting 1920 * 1080 16AA

9800 GX2 : 15 Fps

280 GTX : 26 FPS

är ju ungefär 85 % höjning i fps?

SLI Crysis HIGH 1920*1080 16AA

9800 GX2 : 24 FPS

280 GTX: 34 FPS

Bad ass Graffe kort!

Anandtech säger hej:

Punk ass skräpekort.

Visa signatur

Memento mori...

Permalänk
Citat:

Ursprungligen inskrivet av linxz
Kollade på ett gammalt 420W agg strax över 90 Ampere orkade det. Totalt då:)

Det är omöjligt då 90 ampere är lika med över 1000w.

Citat:

Ursprungligen inskrivet av Pellias
Så det var Nvidias tur att göra en "HD 2900XT".

Patetiskt dåligt.

Att förlora mot GX2?! Eller två st 8800GT för 3000kr.

Laughable.

Det kommer ändra sig, tat lungt Pellias.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja

Det kommer ändra sig, tat lungt Pellias.

Du menar med 55nm och nästa revision framåt hösten?

Jo, kanske.

Kom inte med nåt snack om drivers bara.

Visa signatur

Memento mori...

Permalänk
Medlem

Antar att det här kortet är typ riktat till organisationer där ett par tusen inte har så stor betydelse. Typ de enda som är tillräkligt tokiga för att inskaffa ett om man inte håller på med video encoding och inte orkar vänta med dagens snabbaste CPU:er... Intel lär kanske snart piska nVidia ordentligt på det området också. Blir lite oroligt för nVidia nu... fast det här kortet känns mest som ett nödvändigt steg för att komma någonstans i nästa generation.

Är priset/prestanda rätt på ATIs kort så ligger de bra till nu.

Tror inte det här kortet var riktade mot gamers till att börja med.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av HazZarD
Man köper inte ett kort för över 5000 spänn för att få sketna 26fps allt under 30 är ju skrattretande i den upplösningen rofl.. minst 40 ska man få annars är det bara idioti att köpa dyra kort som knappt klarar ett spel som snart är 1 år gammalt vettigt.

Då kräver du att detta kort skall prestera mer än 3ggr bättre än den gamla generationen. Sen verkar du inte vara så bra påläst ang. Crysis då de har sagt att det spelet kommer att skala bra långt fram i tiden med tanke på hela motorns enorma kapacitet och komplexitet.

Om du nu inte tycker att kortet är värt sina pengar så behöver du inte fjanta dig med att kasta skit på det. Kortet är bara en utveckling av toppkorten, det verkar varken prestera bättre eller sämre än väntat. Det är heller inget konstigt att kortet kostar mycket då det är ett toppkort som är sprillans nytt. Vad är det som är så dåligt och annorlunda med detta nylanserade toppkort jämfört mot alla andra nylanserade toppkort genom åren? Eller gnäller du alltid när det det lanseras ett nytt toppkort som kostar mycket enligt dig? Ja vi vet att kortet är dyrt och ja vi vet att kortet utvecklar mycket värme. Ingen konstigt där heller, korten har blivit alltmer varma för varje år och priset är det inte så mycket att säga om.

Är kortet värt sina pengar? Ja det beror på vem du frågar. Är det snabbt, ja tydligen då världsrekordet i Vantage är satt med detta kort i SLI. Vad är problemet? Ska nVida börja trolla för att du ska bli nöjd eller? Ett superkort som presterar som dessa kort i SLI med en förbrukning på 50W för 1500kr kanske?!

Man kan ju inte lyssna på fanboys som snackar upp kortet flera månader innan det ens är släppt. Det kanske inte presterar som de flesta har hört rykten om att det skall göra, men det är väl knappast nVidias fel?!

Vi kan göra en jämförelse pris/prestandamässigt med Intels topp-CPUer idag. Vad får man för dubbelt så mycket pengar, ja några futtiga procent i total systemvinst. Hör inte så många klaga på att Intels toppmodeller är skitdyra och värdelösa med tanke på priset. Man har alltid fått betala överpriser för de nyaste och snabbaste sakerna, ingen konstigt med det.

Suck!

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Citat:

Ursprungligen inskrivet av Pellias
Du menar med 55nm och nästa revision framåt hösten?

Jo, kanske.

Kom inte med nåt snack om drivers bara.

Det är rätt uppenbart att drivrutinerna kan bli bättre för GTX 2xx då de presterar sämre eller som ett 9800GTX i en del spel och eftersom de bygger på samma arkitektur fast en modofierad version för GT200 så förstår man en sådan enkel sak. Det borde vara omöjligt med andra ord då GTX 280 ser och är bättre än 9800GTX på exakt alla håll och kanter. GTX 2xx har ju ojämn prestanda liksom 3870 från Ati hade som äntligen löstes med 8.5 drivrutinerna.

Sedan har GTX 280 inbyggt PhysX samt CUDA som säkerligen 90% av er har glömt vilket öppnar upp för ännu mer prestanda. Jag skriver inte att GTX 2xx är en hit utan att du skall vänta lite.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Ang. ampere/watt/volt

Citat:

Ursprungligen inskrivet av AlbinNdoja
Det är omöjligt då 90 ampere är lika med över 1000w.
Det kommer ändra sig, tat lungt Pellias.

Det agget han kollade på var förmodligen speccat för mer en bara 12V

Låt oss säga att 40A var tillägnad 3V-linan tappar du total effekt väldigt snabbt.
säg sen att 20A är tilldelad 5V-linan.
Det ger hela 200W kvar till 12V vilket blir ca 17A.

Se där, det går visst att få ihop 80ampere på ett 420 nätagg, aggtillverkarna visar ju faktiskt hur mycket ampere respektive watt varje lina ger, plus en totalsumma i watt.

Sedan så vet ju både du och jag att graffekort endast tar ström på 12-volten, men det är ju en annan femma.

Visa signatur

P182 | Asus Z170-A | i7 6700k | R9 290X | 2x8GB Corsair 2400MHz Cl14 | Intel 750 400MB | TBs of diskstorage

Permalänk
Citat:

Ursprungligen inskrivet av kriahg90
Det agget han kollade på var förmodligen speccat för mer en bara 12V

Låt oss säga att 40A var tillägnad 3V-linan tappar du total effekt väldigt snabbt.
säg sen att 20A är tilldelad 5V-linan.
Det ger hela 200W kvar till 12V vilket blir ca 17A.

Se där, det går visst att få ihop 80ampere på ett 420 nätagg, aggtillverkarna visar ju faktiskt hur mycket ampere respektive watt varje lina ger, plus en totalsumma i watt.

Sedan så vet ju både du och jag att graffekort endast tar ström på 12-volten, men det är ju en annan femma.

Jo fast det var nog inte det han menade eller så blandade han ihop det. Då klarar mitt nätagg 99-100A vilket är totalt ointressant. Men du har helt rätt.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

När skulle 200 "b" ver släppas ?

Visa signatur

NEW ::i7 920 || GTX 295 1792MB || 1600MHz 6GB ||P6T Deluxe V2 || P182 || NH-U12P || TX 850W - LG - W3000H LCD MONITOR
--------
OLD :: X2 4400+ @ 2420Mhz x11 || Corsair TWINX2048-3200C2 @ 220Mhz || A lot of HDD-space ;) || A8N-SLI Premium || 6800GT Leadtek || OCZ 520 Modstream || - KÖPA ?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AlbinNdoja
Det är omöjligt då 90 ampere är lika med över 1000w.
Det kommer ändra sig, tat lungt Pellias.

Japp vid 12 volt är 90ampere 1000w, vid 5 volt blir det 450W och vid 3,3 volt 297w.

Skall läsa på agget...
3,3v 30A
5v 38A
12v 22A
-5v 0,8A
-12v 0,8A
+5vsb 2,5A

420Watt max.
Gammalt agg (2-3 år)som följer p4 standarden. Varav 12 volts linan är svag.
Om jag räknar i hop linorna får jag: 99+190+264=553 Watt max.
Men max kombinerad last är 420w
Mina nya datorer startar inte ens på ett sådant agg då 12volten inte ens räcker till ett grafikkort

Visa signatur

Min:ABIT NF7-S V2.0,Barton 2500+AQXEA XPMW@2,35Ghz,2x521Mb Adata Cas 2-3-3-6,Lt 6800LE 1,3v 16x1,6@440-930,SLK900A,Mustek A806 5:1 Dolby Digital Amp. Frugans:ESC K7-SEM,Duron1600,512Mb DDR. Antons:Aopen AK73(A)-V,512Mb Sdr,Xp1600+Parlomino AGOIA GREEN@1875Mhz@1.9v,Volcano7+Moddad@92mm,Gf 4200Ti@305-610 Zalman HP-80.

Permalänk
Medlem

Väldigt bra skrivet riche och blade80!

Själv tror jag att nvidia kanske medvetet prissatt kortet lite för högt, GT200 är en stor kärna med låg yield och nvidia vill förmodligen helst inte sälja allt för många av den till konsumenter då det är dålig vinst på den. så vad gör man, jo sätt ett litet för högt pris och folk kanske inte köper den lika mycket, och det blir fler kort över att sälja under Tesla och Quadronamnen, där man kan ta bra mycket mer betalt

Sen angående priset igen, visst det är rätt dyrt, men folk klagar inte alls lika högljutt på intels Extreme prollar för 9-10000, och då får man ändå bara en processor. Ett grafikkort är ju dels kärnan (som i det här fallet är stor som 6st Penryn!) sen minnet och till det strömförsörjningskretsar och ett kort med många lager att sätta fast allting på, ändå kostar det värsta grafikkortet som finns mindre än en "simpel" processor som har alla stödkretsar på moderkortet! Jag undrar vilka som är utsugare och tar överpriser jag...

Blev iaf glatt överraskad av att kortet inte var klockat så lågt som det var pga att kärnan inte klarade mer utan mer för att de ville hålla värmeutvecklignen och effektförbrukningen någotsånär i schack!

Visa signatur

USA har aldrig varit på månen, Sverige hade aldrig vm 1958 och 9/11 har aldrig inträffat och därmed basta.
P4 2,6C@<3,0Ghz + CNPS7000A-CU|AI7|1,5Gb BH5 & BH6|Antec Sonata|R9800np(BBA) + VF700-CU@425/258|HP LP2465|Logitech MX500, Seasonic S12 500W

Permalänk
Medlem

det kan vara värt vänta några veckor på de nya radeonkorten och se hur de presterar först

Visa signatur

Core i5 2500K 103MHz*45, Asus P8Z68-V Pro, 4x4GB 103MHz*16, Intel 320 120GB*2, Fractal Design R2, Fractal Design Newton 650W, Asus Xonar mm