Första bilden på Geforce GTX 295

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Danjeel
Aaa.. Dubbelmacka..

Dual GPU som sög enligt Nvidia själva

Ja och nu förstår jag varför.....

Visa signatur

Dator1: Chassi Silverstone Fortress II : Cpu AMD Ryzen 7 1700 @ 3.85 GHz : GPU Sapphire R9 390 Nitro (backplate) : MB ASUS Crosshair VI Hero : Ram G.Skill 3200CL14 2x16 @ 1.35V 2933 MHz CL14 : SSD totalt ~2.5 TB : HDD totalt 6 TB
http://hwbot.org/user/oggy_dz2/

Permalänk
Avstängd

Drum drum... djungeltrummor?

Visa signatur

ATI TALIBAN.
Är inte någon expert, men jag har inte akne heller.
NEVER UNDERESTIMATE THE POWER OF STUPID PEOPLE IN LARGE GROUPS.. "Betala i förskott på blocket?" tråden.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av BadArg
Suck, vad säger man?

ATI/AMD har visat att deras väg att gå var korrekt, Nvidia tvingas följa efter hur mycket de än dissade idén till en början. Men var ATI/AMD gör det på ett snyggt sätt envisas NVidia med att bygga sandwitch lösningar trots att historian visar att detta har varit ett design som lever med stora värmeproblem.

Jag ser ett problem i att vi kanske får kort som kommer att liga något lite över 4870x2 (för det är ju titeln NVidia vill ha) men som samtidigt riskerar klockas högre än vad kylningssystemet egentligen kan klara av att hantera bara för att NVidia ska lyckas. Vågar vi lita på att NVidia inte bränner fler kunder med detta nya "vinnarkortet", med tankte på Nvidias agerande det siste året och deras possition just nu så vågar iaf inte jag.

Vänta lite nu.

Det var tvärtom;
http://www.sweclockers.com/nyhet/8142-amd_och_nvidia_om_proce...

AMD satsade på att bara använda en och samma processor i alla kort, fast i olika trimning, sandwichar med dubletter av samma processor mm, medan NVidia trodde mer på linjen att producera olika processorer, samt att även ta fram snabba högpresterande processorer.

Permalänk
Citat:

Ursprungligen inskrivet av RainesX
Var har dom tänkt sig stoppa undan kylaren?

Jag har lite svårt att släppa tanken om kylning. Jag ser bara vatten som en lösning men alla har ju inte vatten i sina burkar där hemma :\

näe men i kranen

Visa signatur

|- ASUS P6T deluxe v2-|- Intel Corei7 920 stock speed stock cooling-|- XFX HD4890 i CF|- Corsair dominator 1600mhz DDR3 -|- ANTEC P190-|- samsung 226bw-|

Permalänk
Hedersmedlem

Jag trodde inte Nvidia skulle gå och göra så här men där fick man för att man trodde att de hade tagit till sig av tidigare misstag.

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Trollfabrik 🫶🏻
Citat:

Detta kan betyda att Geforce GTX 295 har lägre klockfrekvenser än nuvarande Geforce GTX 260.

Så om det här stämmer, betyder inte det att vi får ett kort som i bästa fall ligger sida vid sida med HD4870X2 eller strax under? Sen lär inte priset vara så mycket bättre heller

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk

verkar som Nvidia har tappat koncepte,t man gör itne långsammare , dyrare kort för att konkurera med ATI som lär slå denna, värme bölja på fingrarna.
Tiden får utvisa men jag håller mig till ATI de är riktigt bra just nu, även om Nvidia har ett bra kort i gtx260 core 216?

Men inte går ja tebaks till Nvidia för det.

Visa signatur

|- ASUS P6T deluxe v2-|- Intel Corei7 920 stock speed stock cooling-|- XFX HD4890 i CF|- Corsair dominator 1600mhz DDR3 -|- ANTEC P190-|- samsung 226bw-|

Permalänk
Medlem

jaså en till dubbelmacka, känns som den kommer floppa, förutom för dom konsumenter som vill köra den i sli så det blir 4 GPU's, fast det kan man ju göra med AMD's motsvarighet oxå...hmm

aja är priset rätt så varför inte och att man har bra luftflöde.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Varför Nvidia gör en dubbel macka är för att dom designat en GPU med 448bit bred buss mot minnena. Det kräver fler minnesmoduler och och nsätan 2x antalet lednigsbanor och chipet i sig tar större plats då det kreäver fler fysiska anslutnigar mot PCB:n. Så en GPU med sitt tillhörande minne kräver MYCKET mer plats än ATI's lösning då dom kör på 256bit bred buss. Skulle nvidia köra en singel PCB lösning så tror jag inte många skulle bli glada med ett GFX kort på 50cm då det kräver lite speciellt chassi som tar det i hänsyn.

Permalänk
Medlem

nVidia har inte dissat dubbla kort/kärnor utan dem hävdade att singel gpu är framtiden vilket är en jävla skillnad

Visa signatur

[Tiger MP. 2xAMD Athlon MP 1.4GHz , 2x512MB ddr, ?350w PSU, 80GB HDD, Geforce4 ti 4600]
[i7 950, ASUS p6t, xfx 650w, 30GB SSD a-data, 3x2GB corsair xms3, 8800GT, ][i7 920, 3x4GB Vengeance, gtx 260] [i5 3570k, MSI twin frozr PE GTX 570, Corsair 4x2GB xms3]
[3930k, GA-X79-UD3, EVGA GTX 780SC ACX, Corsair Force 3 120GB, XFX 850w, Corsair Air 540, Corsair h100i, Corsair 4x4GB Vengeance]

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av pa1983
Varför Nvidia gör en dubbel macka är för att dom designat en GPU med 448bit bred buss mot minnena. Det kräver fler minnesmoduler och och nsätan 2x antalet lednigsbanor och chipet i sig tar större plats då det kreäver fler fysiska anslutnigar mot PCB:n. Så en GPU med sitt tillhörande minne kräver MYCKET mer plats än ATI's lösning då dom kör på 256bit bred buss. Skulle nvidia köra en singel PCB lösning så tror jag inte många skulle bli glada med ett GFX kort på 50cm då det kräver lite speciellt chassi som tar det i hänsyn.

Kan man inte köra med fler lager på PCB:n?

Visa signatur

Rocking hard !!!

Kontakt: malo@sweclockers.com eller skicka ett PM

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av MaLo
Kan man inte köra med fler lager på PCB:n?

Till så breda bussar kör man oftast med rätt många lager redan. Och att kanske dubbla det antalet blir mycket dyrt, ja faktiskt borde det bli dyrare än 2 PCBs. Dessutom finns det en gräns för hur många lager man kan ha innan kortet blir för tjockt för att passa i en PCIe-port. Måste vara en viss tjocklek på lagrena och ett visst mellanrum, annars blir störningarna för stora.

Permalänk
Citat:

Ursprungligen inskrivet av Klockan
Om det är bättre än/lika bra som 4870x2 så säljar jag och köper ett sånt istället (om priset är ok).

Om det klockas lägre än GTX260 så kommer de ha problem att ens komma upp i samma prestanda som HD4870X2. Innan The Big Bang II drivaren iaf, så presterade skalade dubbla HD4870 bättre än dubbla GTX260, och var därför närmre dubbla GTX280. De kommer behöva iaf dubbla GTX260 216 med liknande klocks för att verkligen ta prestandatronen.

Citat:

Ursprungligen inskrivet av BadArg
Suck, vad säger man?

ATI/AMD har visat att deras väg att gå var korrekt, Nvidia tvingas följa efter hur mycket de än dissade idén till en början. Men var ATI/AMD gör det på ett snyggt sätt envisas NVidia med att bygga sandwitch lösningar trots att historian visar att detta har varit ett design som lever med stora värmeproblem.

Jag ser ett problem i att vi kanske får kort som kommer att liga något lite över 4870x2 (för det är ju titeln NVidia vill ha) men som samtidigt riskerar klockas högre än vad kylningssystemet egentligen kan klara av att hantera bara för att NVidia ska lyckas. Vågar vi lita på att NVidia inte bränner fler kunder med detta nya "vinnarkortet", med tankte på Nvidias agerande det siste året och deras possition just nu så vågar iaf inte jag.

Läs ovan...blir svårt att prestandatronen med lägre klocks än GTX260. Det är ju dock bara ett rykte som sagt.

Citat:

Ursprungligen inskrivet av tinwe
Vänta lite nu.

Det var tvärtom;
http://www.sweclockers.com/nyhet/81...r_och_designval

AMD satsade på att bara använda en och samma processor i alla kort, fast i olika trimning, sandwichar med dubletter av samma processor mm, medan NVidia trodde mer på linjen att producera olika processorer, samt att även ta fram snabba högpresterande processorer.

Nvidia sade att multi-gpu inte är någon teknik att satsa på utan det är starka single-gpu lösningar som är framtiden och ATI sa raka motsatsen. Sedan har de även kritiserat ATI:s sätt att göra dubbel-GPU kort på.

Citat:

Ursprungligen inskrivet av Layon
nVidia har inte dissat dubbla kort/kärnor utan dem hävdade att singel gpu är framtiden vilket är en jävla skillnad

Det sa de, men de har även kritiserat ATI:s sätt att lösa prestandasegmentet genom multi-GPU och deras sätt att göra dubbel-GPU med bara en PCB. Det är en jävla variant...

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av xXxlGurrAlxXx
Vem behöver ett element när man kan köpa sig ett sådant kort xD

inte jag:P, räcker med GX2 för att värma hela mitt rum, och halva övervåningen:O

lite mer OnTopic: hmm, varför satsar nvidia på dubbelmacka, dom sa ju själva att de inte var bra, men nu gör dom det iaf, är det bara för att vara värst?
dummt tycker jag, kan dom inte sluta ändra sig hela tiden??:(

Permalänk
Medlem

Ett sånt här kort kanske är trevligt i vinterkylan, men det lär ju inte lanseras än på ett tag...

Mvh Johan

Visa signatur

AMD Phenom II X4 955 3,2 GHz, Gigabyte GA-MA790FXT-UD5P, Sapphire Radeon HD7750 Ultimate 1 GB, Corsair Vengeance/Kingston HyperX Blu 16 GB, Crucial MX250 250 GB, Crucial m4 128 GB, 2 x Seagate 7200.14 1 TB, Lian Li PC-8FIB, Be Quiet Pure Power 10 CM 600W, Windows 10 64-bit