Nvidia lanserar Geforce GTX 200

Permalänk
Citat:

Ursprungligen inskrivet av mitrix
Väldigt bra skrivet riche och blade80!

Själv tror jag att nvidia kanske medvetet prissatt kortet lite för högt, GT200 är en stor kärna med låg yield och nvidia vill förmodligen helst inte sälja allt för många av den till konsumenter då det är dålig vinst på den. så vad gör man, jo sätt ett litet för högt pris och folk kanske inte köper den lika mycket, och det blir fler kort över att sälja under Tesla och Quadronamnen, där man kan ta bra mycket mer betalt

Sen angående priset igen, visst det är rätt dyrt, men folk klagar inte alls lika högljutt på intels Extreme prollar för 9-10000, och då får man ändå bara en processor. Ett grafikkort är ju dels kärnan (som i det här fallet är stor som 6st Penryn!) sen minnet och till det strömförsörjningskretsar och ett kort med många lager att sätta fast allting på, ändå kostar det värsta grafikkortet som finns mindre än en "simpel" processor som har alla stödkretsar på moderkortet! Jag undrar vilka som är utsugare och tar överpriser jag...

Blev iaf glatt överraskad av att kortet inte var klockat så lågt som det var pga att kärnan inte klarade mer utan mer för att de ville hålla värmeutvecklignen och effektförbrukningen någotsånär i schack!

bra skrivet, de kan lätt vara så, men asså han som köper en cpu för 8-10 000 kan
ju bara inte klag a på att grafiken kostar 5-6000.
snacka om å slösa pengar om man köper en cpu för 8-10 000, själv har jag som mest betalat 1520 för en cpu å de va en athlon 6000+.
jag jämförde mina 3dmark06 resultat mot en annan kille med samma ram och grafik kort å jag fick bara 800p sämre mot en q6600, om nu intel är så jävla mycke bättre än amd så märker man knappt av de i spel iaf:)

Visa signatur

Asus X-99 A. I7 5820K 4,5ghz. 16gb DDR4Cruical Ballistix 2400mhz.R9 290X. 512gb Samsung pro850. Corsair HX850 .Timberjack monsta vattenkylning .Corsair 900 Timberjack Edition.

http://www.sweclockers.com/galleri/12121-timberjack-900d

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av timberjack
bra skrivet, de kan lätt vara så, men asså han som köper en cpu för 8-10 000 kan
ju bara inte klag a på att grafiken kostar 5-6000.
snacka om å slösa pengar om man köper en cpu för 8-10 000, själv har jag som mest betalat 1520 för en cpu å de va en athlon 6000+.
jag jämförde mina 3dmark06 resultat mot en annan kille med samma ram och grafik kort å jag fick bara 800p sämre mot en q6600, om nu intel är så jävla mycke bättre än amd så märker man knappt av de i spel iaf:)

OT:
Jag köpte en gång en AMD Athlon 750 för över 10000kr, men det har sin förklaring. Gjorde ett litet vid-sidan jobb för ett företag och fick ta betalningen i datorprylar... då slängde man ju på det värsta av allt.

Och din Athlon... visst, 3dmark. Spel. Det var ett tag sen CPUn var flaskhalsen där.

Och tillbaka till ämnet:
Som HD 2900XT-ägare kan jag iaf önska er som blivit med GTX ett uppriktigt "lycka till!" med drivrutinerna i framtiden. Hoppas det går bättre för er.

Jag vet några CUDA-knackare som blir glada av detta kort iaf. Själv ska det mycket till innan jag sätter in den där varma hungriga besten i min dator.

Radeon 4870, kom till pappa.

Visa signatur

WS: Asus X570-E, Ryzen 5900x, 2x16GB Ballistix E-die, EVGA 3080 FTW3 Ultra
FS: Asus X370-F, Ryzen 3600, 4x8GB G.Skill Flare, GT710, CM Stacker
HTPC: Asus F2A85-M, A10-5800K, 2x4GB G.Skill 2133MHz

Permalänk
Citat:

Ursprungligen inskrivet av Legionaire
För er som tycker x2 är bättre än gtx 280 så läs guru3d.com reviewn, det finns ett skäl till varför det är bättre i vissa spel och det handlar om att den helt enkelt har fler shader proccessorer då det är 2 kort i ett, enkelt förklarat. GTX 280 är ett monster kort.

Hur förklarar de då att 8800gt i sli, som har 16 mindre stream processorer än GTX280, presterar i de flesta fallen bättre? Det har ju med effektiviteten av varje individuell stream processor att göra. Det var ju där Nvidia sade att det hade bättrat sig och därför behövde de inte lika höga clocks. 8800gt sli har ju dessutom en mycket mycket mycket lägre bandbredd och bara hälften av GTX280 effektiva minne. Det känns som om GTX280 enbart är G80 med mer av allt men ändå är det inget väsentligt som har förbättrat prestandan så mycket. GPU:n är ju väldigt kraftig men tvekar starkt på att de verkligen behövde det antalet TMU:er till exempel. Det känns som de behöver ta en annorlunda riktning för att släppa en riktigt kvalitativ serie härnäst.

Citat:

Ursprungligen inskrivet av Kaffer
9800GX2 är något fruktansvärt mycket snabbare än 3870X2.

Skillnaden mellan recensionssidor som prestandatestar ett nytt Nvidia kort och när Nvidia släpper egna benchs på korten är att recensionssidor brukar andvända sig av senaste drivrutinen av båda märken. Detta innebär 8.5 för HD3870X2 och om du missade det så ökade det prestandan för bland annat HD3870X2 med 30% i många spel och med mer i vissa andra spel.

Citat:

Ursprungligen inskrivet av flipstah
Hmmm... för 5000 så man ju 2 stycken hd3870x2... borde inte det klå detta?

Både SLI och Crossfire skalar väldigt dåligt när man kommer upp i 3 eller 4 GPU:er. Vid tredje så är det i många fall fortfarande värt det men den fjärde GPU:n gör väldigt sällan någonting över huvud taget. För 5000 kommer man antagligen få 2 HD4870 vilket bara är 2 GPU:er vilket innebär att du i de flesta fallen kan räkna med runt 70-80% ökning med andra GPU:en så 2 HD4870 kommer ANTAGLIGEN smiska GTX280 för ca. 500 kronor mindre Längtar till den 25:e.

Citat:

Ursprungligen inskrivet av Nickecs
jag är besviken på vad jag sett än så länge. att x2 presterar bättre/likvärdigt men kostar mer än tusenlappen mindre tycker jag inte är en lyckad lansering.

trodde verkligen att detta kort skulle prestera väldigt mycket bättre, speciellt när man tänker på hur mycket kortet kostar.

vill gärna se sweclockers rescensera också

Jag är framför allt besviken på resultatet efter all skit som Nvidia har kastat ur sig de senaste månaderna. Kritiserat Intel och ATI hej vilt och agerat herre på täppan hela tiden, och sedan kommer det en sån här produkt som man lätt kan konkurrera ut med två stycken 8800gt. Jag tror ATI gör helt rätt i att satsa på Multi-GPU för högprestandasegmentet.

Citat:

Ursprungligen inskrivet av rn72
Länkar till ordentliga tester? Hoppas på en swec recension snart!

Anandtech och Extremetech är ju bland de mest pålitliga recensenter på hela nätet. Extremetech är dessutom bland de absolut mest genomförliga recensenterna som finns och speciellt när det rör sig om skärmar och monitorer.

Citat:

Ursprungligen inskrivet av Nyarlathotep
wow idle 25W det är rätt grymt.

Förvånande med tanke på dess load-konsumption Jag väntar ivrigt för att se om nu ryktet om HD4870 ligger under 10 watt i idle.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Avstängd

nästa kort ja köper ska va passivt och hållas under 100c under load.

Visa signatur

Cherry MX Brown:Compaq MX 11800, Cherry MX Blue: Razer Blackwidow, Cherry MY: Schneider g81, Black ALPS : Delll AT102W Black, Buckling Spring: IBM Model M, IBM Model N2, Rubber Dome: Keytronic ErgoForce....Senast aktiv Idag

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pellias
Anandtech säger hej:

http://images.anandtech.com/graphs/geforcegtx200launch_061408...

Punk ass skräpekort.

Du är medveten om att det är 2GPUS mot 1 där? Tänk dig då ett 280i SLI vore väll mer rättvist.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ZitreXx
Har alla glömt va "värstingkort" brukade kosta vid lansering?
Tidigare fick man ju räkna med minst 4000 och egentligen 5-6000...
Eller ja nVidia tar ju den principen tillbaka då med 280 vilket e synd men jag blev glatt översakad när 9800GX2 kom med förhållandevis låga pris...

Ja, när HD3870 var i farten köpte jag det för 2000 kronor, det var ett skäligt pris för ett grafikkort.

Citat:

Sen angående priset igen, visst det är rätt dyrt, men folk klagar inte alls lika högljutt på intels Extreme prollar för 9-10000, och då får man ändå bara en processor.

Eh, jo?
Det är ingen sann sweclockare som köper en extreme prolle, betala 4 000 extra för en upplåst multipel?
Bah, här ska det vara överklockning.

Jag tror de flesta köper pris/prestanda, vilka betalar tusentals kronor för 5-10% prestanda extra?

Visa signatur

Laptop : Macbook Pro M1

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Oneone
Du är medveten om att det är 2GPUS mot 1 där? Tänk dig då ett 280i SLI vore väll mer rättvist.

En kärna eller inte, det är inte relevant. Dessa nya korten är ju DYRARE än 9800GX2 så det där tänkandet håller jag inte med om.
Nvidia har snöat in sig, kört fast helt. En fördel är iallafall att de givit sina produkter vettiga(re) produktnamn, men det är väl bara en tidsfråga innan de snurrar iväg med detta också.

Citat:

Ursprungligen inskrivet av ZitreXx
Har alla glömt va "värstingkort" brukade kosta vid lansering?
Tidigare fick man ju räkna med minst 4000 och egentligen 5-6000...
Eller ja nVidia tar ju den principen tillbaka då med 280 vilket e synd men jag blev glatt översakad när 9800GX2 kom med förhållandevis låga pris...

Under den tiden var produkterna dyrare att bygga och konkurrensen kunde vid tiden vara bristfället (tänker du på 8800-lanseringen?). Anledning till varför GTX260- samt GTX280 är så dyra är för att de är byggda på ett sätt som verkar fokuserat på att se bra ut i kataloger och hemsidor, med sina udda och förhållandevis höga siffror gällandes minne och antal bitar.

Jag har aldrig varit allt för het på dessa korten, men jag har ändå varit orolig att de kanske skulle prestera väldigt bra och på så sätt få mitt intresse - men båda priset och faktisk prestanda tycks ge vika, igen. Detta enbart för att framföra HD4870 samt systerkort som den enda vettiga i nylanserade vägar (dvs. om vi tar oss friheten att se 4870 lanserad en vecka i förväg.).

Permalänk

ett till 3st gtx280 har fler användnings områden som tex rengnig dag ta fram en stor wide bakgrundsbild med nåt karibiskt nice bild sedan på med hawaii skjortan och fram med bärsen stämningen får du av bilden värmen från GFX korten

EDIT kom att tänka på det fanken ASUS släpper väl ett 4850X2 så småningom så ett 4870X2+4850X2i CF X vore nåt

Visa signatur

|- ASUS P6T deluxe v2-|- Intel Corei7 920 stock speed stock cooling-|- XFX HD4890 i CF|- Corsair dominator 1600mhz DDR3 -|- ANTEC P190-|- samsung 226bw-|

Permalänk

man får ju se senare hur detta kort presterar med nya drivrutiner.. troligen bättre men ingen mirakel höjjning! längtar grymt mkt att få se hur ett 4870 presterar.. blir troligen ett sånt för mig

Visa signatur

WS: E6550@3710mhz True | Gigabyte GA-P35-DQ6 | 2048mb Corsair XMS2 1060mhz 5-5-5-15 | Sapphire HD4850 512mb 720/2200 | Wd 250gb | Corsair TX 750W | Samsung Syncmaster 959NF |

Permalänk
Medlem

[QUOTE]Ursprungligen inskrivet av Mr.Borka
[B]En kärna eller inte, det är inte relevant. Dessa nya korten är ju DYRARE än 9800GX2 så det där tänkandet håller jag inte med om.
Nvidia har snöat in sig, kört fast helt. En fördel är iallafall att de givit sina produkter vettiga(re) produktnamn, men det är väl bara en tidsfråga innan de snurrar iväg med detta också.

Det är klart det relevant, det är ju 1 kärna mot 2. Det säger ju sig självt? även fast den är dyr såklart.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

[QUOTE]Ursprungligen inskrivet av Oneone
[B]

Citat:

Ursprungligen inskrivet av Mr.Borka
En kärna eller inte, det är inte relevant. Dessa nya korten är ju DYRARE än 9800GX2 så det där tänkandet håller jag inte med om.
Nvidia har snöat in sig, kört fast helt. En fördel är iallafall att de givit sina produkter vettiga(re) produktnamn, men det är väl bara en tidsfråga innan de snurrar iväg med detta också.

Det är klart det relevant, det är ju 1 kärna mot 2. Det säger ju sig självt? även fast den är dyr såklart.

Nej, det är fortfarande irrelevant på alla sätt och vis förutom hurvida den nya GPUn har möjlighet att utvecklas till nya modeller framöver. Du köper ett kort som du trycker i maskinen, vilket är snabbast? Vilket är snabbast per spenderad riksdal? - och så vidare.
Ditt resonemang kan man annars ta hur långt som helst. Fortsätt sväva ut mot än dyrare jämförelser så förstår du.

Visa signatur

Gammal garvad IT-tekniker med lång erfarenhet av nätverk, server och IT-säkerhet m.m.

Permalänk
Avstängd

Bah

Denna serie behöver en x2900xt till hd3870 behandling.
Så som:
1. Bort från 65nm, vet att 55nm jobbas på väg men räcker det?
2. Bort med dyra 512bit och in med 256bit GDDR5 istället
3. Kortet behöver bli mindre, använda lägre effekt och vara kallare
4. Som slutgiltigt ger en mycket önskad prisreduktion

Få personer behöver denna prestanda idag om man bortser från Crysis då. Och många av recensionerna testar kortet i skyhöga resolutioner som de flesta inte ens har tillgång till.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem

Det går inte att komma ifrån att GTX200 är ju ruskigt imponerande rent tekniskt men utförandet är ju riktigt korkat. Varför satsade inte Nvidia på en 55nm- eller 45nm-process och lansera ett BRA kort lite senare istället för att rusha ut ett varmt och strömslukande 65nm-kort? Jag kan förstå att ATI som var finansiellt i skiten gjorde så med 2900XT men från NVidia som är dominerande på marknaden förväntar jag mig bättre än så.

De får väl lita till sina fanboys som köper vad som helst till vilket pris som helst och de som har mer pengar än vett som vill ha skryträttigheter med det värsta och dyraste. Den som har något fler hjärnceller under pannbenet väntar på vad ATI har att erbjuda eller på en die shrink från Nvidia.

Visa signatur

| Ryzen 5800X | ASUS X570 TUF | 32GB G.Skill Trident Z Neo 3600 CL16 | Asus RTX 3080 Strix OC | 2x Samsung 970 Evo 1TB M2 SSD | Seasonic 850W Focus Gold modulärt || Kylning: Corsair H115i PRO, 9x 140mm Be Quiet! Silent Wings 3 PWM || Skärm: ASUS MG279Q || Chassi: Fractal Design Meshify 2 Dark TG

Permalänk
Avstängd

Att det alltid ska tjaffsas om 2 kärnor - Vad spelar det för roll?

Om du kan trycka fast 2 GPU på ett bräde, hålla kostnaderna lägre än GTX280, få bättre prestanda och lite högre effektförbrukning (i Idle) så är väl det bara bra? Jag tycker att ni ska sluta komma med "2 kärnor är bättre än 1 juh!!!!!ettettelva!"-argument för det är skit samma. Om Nvidia inte kan göra en vettig singellösning som slår 9800Gx2 så ska de hålla sig till 2 kärnor istället!

Men visst, gå och köp ett varmt och väldigt dyrt kort, som inte ens presterar över 2 st 8800GT i SLI (för under 3000kr!) och sitt och skryt med hur lite kunskap ni har eller hur mycket pengar ni kan lägga ut för att försvara era principer. Gör det - ha' de så kul.

Dance: Nvidia kan inte gå ner i 55nm, de har dåliga erfarenheter med denna krympning, annars hade GTX260/280 självklart varit 55nm.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN

Nvidia kan inte gå ner i 55nm, de har dåliga erfarenheter med denna krympning, annars hade GTX260/280 självklart varit 55nm.

Vadå kan inte? Var får du det ifrån?

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Avstängd

Ojojoj, lite vad var det jag sa nu va.
Prestandan passar ganska bra med vad jag gissade. Ganska liten pretandaökning i spelbara frekenser. Där GTX 280 vinner stort procentuellt är ju i de upplösningarna som får 512Mb kort att gå i väggen, men då spelar det ju ingen roll eftersom GTX 280 underpresterar i dessa upplösningar också.
Är det 60FPS mot 45FPS mellan 9800GTX och GTX 280 så är det en liten skillnad för en ny generation. Sedan att GTX 280 kan skina med 13FPS mot 3FPS när du vrider inställningarna spelar ingen roll, det är inte chippets förtjänst utan snarare minnesmängden och minneshastighetens förtjänst.
8800GTS i SLI är ju bättre val på nästan alla vis.

Citat:

Ursprungligen inskrivet av Oneone
Du är medveten om att det är 2GPUS mot 1 där? Tänk dig då ett 280i SLI vore väll mer rättvist.

Hur många chip man fördelat processorer och enheter på är irrelevant. Är man så dum att man bygger ett mastodontchip som drabbas av dålig yield, dåliga frekvenser och därmed sämre prestanda per transistor. Så får man ju se sitt kort utpresteras av kort där alla enheter är fördelade på fler chip men i högre frekvenser. Det är ju ett designval de gör. Det är inte två chip mot ett chip du ska se, det är en design mot en annan design. Det är 256 shaders mot 240, 80 TMUer mot 128.
Det är inte alls orättvist på något sätt att göra billigare, snabbare och svalare kort med dubbla chip än ett klumpigt osmidigt GTX 280.

nVidia hade kunnat göra valet att göra GTX 280 mycket mindre och svalare men med färre processorer, och istället gjort en GX2 280. Men per chip hade skillnaden varit alldeles för liten gentemot 9800GTX så det skulle bli dålig PR. Allra helst efter kritiken om att 9000 serien var för lik 8000 serien. För den GTX 280-serien hade varit samma sak med lite fler shaders.

ATi har inte detta problemet och kan utan problem fokusera på att göra en X2 som flaggskepp.

Permalänk
Avstängd

De kan inte gå ner till 55nm - de klarar inte av det - de vet inte hur de ska göra det för att det ska funger 100%: http://www.nordichardware.se/nyhet,14079.html

Varför tror du själv att nvidia valt att inte köra på 55nm? De tycker nog inte det är kul att tjäna mindre pengar, vilket de gör med 65nm. De får sämre yields med 65nm då de inte kan klämma in lika många gpus per platta.

Det är så att AMD ligger en bit framför på just den delen. De har redan klivit ner i 55nm, dessutom ligger det före på multi-gpu-hantering.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Leovinus
det kan vara värt vänta några veckor på de nya radeonkorten och se hur de presterar först

Självklart, varför ska man stressa?

Permalänk
Medlem

Intressant info P1nGviN. Det förklarar ett och annat.

En annan sak som är fullständigt offattbar är Nvidia´s vägran att stödja DX 10.1. Hur kan de än en gång lansera en ny arkitektur utan 10.1 stöd? Det är bara något vi konsumenter förlorar på i slutändan eftersom utvecklare kommer behöva lägga extra tid på att utveckla kod speciellt för Nvidia vilket går emot hela tanken med att ha en standard. Det är ju inte så att de bara kan ignorera den stora marknadsandel som har Nvidia-kort.

Visa signatur

| Ryzen 5800X | ASUS X570 TUF | 32GB G.Skill Trident Z Neo 3600 CL16 | Asus RTX 3080 Strix OC | 2x Samsung 970 Evo 1TB M2 SSD | Seasonic 850W Focus Gold modulärt || Kylning: Corsair H115i PRO, 9x 140mm Be Quiet! Silent Wings 3 PWM || Skärm: ASUS MG279Q || Chassi: Fractal Design Meshify 2 Dark TG

Permalänk
Medlem

Som sagt, nVidia har svårt att själva få ut en värdig ersättare/konkurrent till 8800GTX/Ultra. Det var inte bara ATI som hade problem med detta. nVidia gjorde helt enkelt ett briljant kort i 8800 med sin G80 och nu har båda tillverkarna problem att komma ut med värdiga konkurrenter helt enkelt.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk

ultra FTW

Visa signatur

|- ASUS P6T deluxe v2-|- Intel Corei7 920 stock speed stock cooling-|- XFX HD4890 i CF|- Corsair dominator 1600mhz DDR3 -|- ANTEC P190-|- samsung 226bw-|

Permalänk
Medlem

Man kan väl elt enkelt konstatera att NVidia hade lite tur och presterade över sin förmåga med G80...

Visa signatur

i5 4790K, 8 GB XMS3 1600 Mhz, RX 5700XT, Gigabyte G1.Sniper M5

Permalänk
Medlem

Den här diskutionen med 1 eller 2 kärnor är konstigt att dessa personer inte kör med en kärna på CPUn för man ska ju kolla på råprestandard med en kärna inte snabbaste pc.

Det är endast löjligt det som spelar roll är hur bra de är. Tycker att man ska se ett grafikkort som en enhet oavsett hur många gpuer det är monterade på kortet för det gör man med CPU. Att säja att gtx280 är det snabbaste kortet är ju löjligt för det är fortfarande GeForce 9800 GX2.

Att sedan säja att man kan köra sli med gtx280 är ju rätt men vem kör med dubbla nätagregat eller ett nät agg på mer än 1000W ? för det är det minsta som behövs för ett sådant system.
(mer än 1kr/h när man använder datorn tvivlar på att man folda 24/7 med en sådan pc ca 8700 kr/år)

Men vill man ha en snabb speldator för lite pengar kör sli med 2 st gt kort för de är snabbare är 1 st gtx280 och hälften så dyrt.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem

Jag fundera väldigt mycket att flytta över till den andra sidan ( ATI)

Visa signatur

My Rig https://classic.prisjakt.nu/list.php?ftg_check=on&exclude_ftg...
Fel av mig! Men sjutton vad snabba ni är på att kommentera vad andra gör och inte gör rätt och fel... :/

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av blade80
Då kräver du att detta kort skall prestera mer än 3ggr bättre än den gamla generationen. Sen verkar du inte vara så bra påläst ang. Crysis då de har sagt att det spelet kommer att skala bra långt fram i tiden med tanke på hela motorns enorma kapacitet och komplexitet.

Om du nu inte tycker att kortet är värt sina pengar så behöver du inte fjanta dig med att kasta skit på det. Kortet är bara en utveckling av toppkorten, det verkar varken prestera bättre eller sämre än väntat. Det är heller inget konstigt att kortet kostar mycket då det är ett toppkort som är sprillans nytt. Vad är det som är så dåligt och annorlunda med detta nylanserade toppkort jämfört mot alla andra nylanserade toppkort genom åren? Eller gnäller du alltid när det det lanseras ett nytt toppkort som kostar mycket enligt dig? Ja vi vet att kortet är dyrt och ja vi vet att kortet utvecklar mycket värme. Ingen konstigt där heller, korten har blivit alltmer varma för varje år och priset är det inte så mycket att säga om.

Är kortet värt sina pengar? Ja det beror på vem du frågar. Är det snabbt, ja tydligen då världsrekordet i Vantage är satt med detta kort i SLI. Vad är problemet? Ska nVida börja trolla för att du ska bli nöjd eller? Ett superkort som presterar som dessa kort i SLI med en förbrukning på 50W för 1500kr kanske?!

Man kan ju inte lyssna på fanboys som snackar upp kortet flera månader innan det ens är släppt. Det kanske inte presterar som de flesta har hört rykten om att det skall göra, men det är väl knappast nVidias fel?!

Vi kan göra en jämförelse pris/prestandamässigt med Intels topp-CPUer idag. Vad får man för dubbelt så mycket pengar, ja några futtiga procent i total systemvinst. Hör inte så många klaga på att Intels toppmodeller är skitdyra och värdelösa med tanke på priset. Man har alltid fått betala överpriser för de nyaste och snabbaste sakerna, ingen konstigt med det.

Suck!

Jag vill kräva att detta kort skall prestera mer än 3ggr bättre än den gamla generationen. Att ATI o NVDIA släpper kort som inte är det är bra för dom, dåligt för oss, men även dåligt för dom. Faktiskt. Dom borde, jag säger borde vänta tills dom har fått teknik som klarar den prestandan innan dom lanserar nya. Ist gör dom allt för att mjölka konsumenterna på pengar. Men det slår ju lite fel.. Det är ju bara att läsa vad folk skriver här för att förstå det. Jag är övertygad om att toppkorten som lanserades innan dessa nya från ATI o NVIDIA räcker ett år till eller längre i spel och att dom fortfarande skulle sälja bra under tiden som dom tar tid på sig att utveckla ny 3gg bättre hårdvara. 3gg bättre och snabbare hårdvara, DET vore något att lansera. Nu är det bara löjligt med alla kort och alla dess versioner. Nä bättre om spelföretagen får tid på sig att optimera för det som finns ist för att gissa vad som kommer.

Crysis Crysis... Kris?
Jag är av uppfatningen att Crysis är klart överskattat.
Att kolla prestandan på nya kort i det spelet är bara dumt då det antagligen är dåligt optimerat från början och redan gammalt.
Förväntar sig någon att vi ska spela det igen var gång det kommer nya grafikkort och förvänta oss en wow-upplevelse för några fler fps??
Wohoooo nu kan jag spela Crysis på max i 40fps ist för 32fps.. Jag är sååå lycklig nu. Kan inte vänte till nästa sommar då jag kan köra det i 46fps med korten som släpps då. Det blir roligare för var fps jag kan få. För jag vägrar att sänka inställningarna. Ja jävlar vilket spel. Jag kan med ett nylanserat grafikkort både spela o grilla korv på kortet samtidigt.

Nä dom borde kolla prestandan med spel som är nysläppta eller ska komma i den mån dom har tillgång till dom.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Fint att nVidia lanserar ett monsterkort! Som mosar allt annat! Förutom GX2:an, som kostar 1500 kr mindre....

Seriöst, om 9800 GX2 har ungefär samma prestanda men kostar ca 1500kr mindre. Och vem fan bryr sig om att det ena är en kärna och den andra två, det är fortfarande ungefär samma prestanda men en prisskillnad på 1500 till GX2:ans fördel.

Hoppas verkligen på ATI's 4xxx-serien. Speciellt sedan nVidia inte har gjort nåt vettigt sedan 8800-serien.

Permalänk
Medlem

Säkert jättehäftigt kort. Problemet som jag ser det är att det inte kommer några nya spel till PC som verkligen motiverar mig att köpa ett nytt fläskigt grafikkort. Nä mitt 8800GTS får hänga med ett tag till.

Permalänk
Medlem

ser bra ut (förutom priset) dock tror jag ati:s kort har större chanser att byta ut mitt 8800gts då det börjar bli dax för det.

Visa signatur

i7 970 || EX58-UD5 || R9 290X || Vengeance 24GB || HX 850W || 5,7 TB SSD, 20 TB HDD + 58 TB NAS || U3011 + 3007WFP + 2x LP2065 || Lian li PC-A71B || Asus Xonar STX + Sennheiser HD595 || Qpad MK-85 + Qpad 8K

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Pecka1
Säkert jättehäftigt kort. Problemet som jag ser det är att det inte kommer några nya spel till PC som verkligen motiverar mig att köpa ett nytt fläskigt grafikkort. Nä mitt 8800GTS får hänga med ett tag till.

Håller med där och jag har sagt samma sak jag också som du säger nu, det finns inga spel att köpa idag som är värd en uppgradering om man sitter på ett kort som tex. ditt 8800GTS. Låt oss få se lite värre spel först som sagt.

SCORPIUS
Hurvida vi vill att varje uppdatering från grafikkortstillverkarna skall prestera 3gg bättre än den gamla så kommer det inte att bli så. Det är orimligt att begära det, vi ser det inte på processormarknaden och vi lär inte få se det på grafikkortsmarknaden heller på ett bra tag även om någon _vill_ det. Jag vill ha en Porsche GT2 jag också men jag lär inte få en sån jag heller. Det handlar helt enkelt om vad som ger bäst ekonomisk avkastning för företagen, inte vad vi vill ha. Det är så klart en fin tanke men kommer att förbli en dröm än så länge. Nu är det som det är med marknaden och det kommer fortsätta på det viset säkert många generationer framöver och inte bara på grafikkortsfronten.

Visa signatur

Is it "for fucks sake" or "for fuck sake"? Its for a work email so it has to sound professional.

Permalänk
Medlem

Tyvärr är väl läget så med konkurrerande bolag så som AMD och Nvidia att de inte har råd att missa en release av en ny generation chip eftersom vi som kunder efterfrågar nya saker hela tiden. Klart de mjölkar pengar ur oss konsumenter de vill ju få ut nått för de jobb de gör också Däremot så tvingar ju ingen nån att köpa ett kort av varje generation utan de är upp till var och en.

PS Tjena Piron DS