Geforce GTX 590 poserar på kinesisk sajt

Permalänk
Medlem
Skrivet av alban72:

För det första är du full?
För det andra så ska du köra mer än 2 skärmar med nvidia så behöver du tri-sli?
Med amd behöver du bara ett kort för att köra upp till 6 skärmar,ganska stor skillnad både prismässigt och strömhungrigare:))

Räcker med 2 kort för att köra 3 skärmar & om du har råd med fler skärmar än så ,säger jag grattis skulle vilja ha din inkomst. Visst drar Nvidiakorten mer ström men det ska gå & köra nåt på dom (upp till 6 ) skärmarna oxå skulle vilja se vilket AMD(ATI) kort som kör Crysis eller Metro i full upplösning med 6 st skärmar gissar på att man behöver fler kort från AMD då oxå,& om det är antalet skärmar du stirrar dig blind på tror jag att Matrox har ett kort för 12 skärmar

Visa signatur

Arne Berg

Permalänk
Medlem

Om både antilles och gtx590 maxar effekt-taket borde antilles vara snabbare då amds senaste grafikort erbjudit mer prestanda per watt än nvidia.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av TheDaemon:

Är du full? Du behöver inte köra tri-sli för att köra Surround, bara vanlig SLI.

This.

Men det är ändå två kort som behövs för att köra 3 skärmar.

Visa signatur

Fractal Design Meshify C | Corsair RM650X v2 | MSI X570 MPG GAMING EDGE WIFI | AMD 5800X3D | RTX 3070 | 32GB 3200MHz CL16

Permalänk
Avstängd
Skrivet av Valiumballong:

Om både antilles och gtx590 maxar effekt-taket borde antilles vara snabbare då amds senaste grafikort erbjudit mer prestanda per watt än nvidia.

Men använder 5990 2 st 8pin?

Permalänk
Medlem
Skrivet av fatcamp:

Men använder 5990 2 st 8pin?

Finns inget sånt. Menar du 5970 eller 6990?

Visa signatur

Chassi: Corsair 650D | Processor: Intel Core i5 3570K | Moderkort: Gigabyte GA-Z68XP-UD3P | Minne: Corsair 16 GB | SSD: Corsair Force GT 128 GB | Lagring: 3,5 TB | Grafikkort: HIS HD7870 | Nätaggregat: Corsair AX750W | Tangentbord: Microsoft Sidewinder X4 | Mus: Mionix Naos 5000

Permalänk
Avstängd
Skrivet av Klimpen2:

Finns inget sånt. Menar du 5970 eller 6990?

Uh 6990 ofc:P

Permalänk
Medlem
Skrivet av fatcamp:

Men använder 5990 2 st 8pin?

Tror inte nvidia tänker spränga pcie-specifikationen. Antingen ändras det till 8/6 vid lansering eller så vill nvidia lämna mycket utrymme för överklock.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av KlosterKatten:

This.

Men det är ändå två kort som behövs för att köra 3 skärmar.

Själv har jag 1 skärm hur många har du?
,med tanke på att allt för många skärmar har 16/9 format så är det ointressant med 3 st men om dom gör skärmar utan kanter & ett annat format ska jag slå till. Sen ska grafikkortet/korten klara av att köra nåt oxå.

Visa signatur

Arne Berg

Permalänk
Medlem

Till er alla som säger att nVidia är bra mycket bättre pga CUDA och PhysX så vill jag fråga er vad man har CUDA till om man bara spelar? Finns det ens något? Är helt oinsatt på vad det ens är så om någon vill upplysa mig så blir jag glad

Och PhysX dårå, det är så få spel som använder sig utav det så det lilla extra det ger tycker inte jag rättfärdigar att köpa nVidia även om deras kort visar sig vara sämre än AMDs

Visa signatur

5900X & 6700 XT

Xperia 1 mk. V

Permalänk
Medlem
Skrivet av flukke:

En annan viktig anledning kan vara drivrutiner, Nvidia har alltid väldigt bra drivrutiner från scratch medens AMD ibland har lanserat riktigt dåliga och ofärdiga drivrutiner i jämförelse.

Var det inte Nvidia som kom med någon drivrutin som grillade/förstörde grafikkort? Det har iaf inte Ati/amd släppt...

Permalänk
Medlem
Skrivet av edda123:

Till er alla som säger att nVidia är bra mycket bättre pga CUDA och PhysX så vill jag fråga er vad man har CUDA till om man bara spelar? Finns det ens något? Är helt oinsatt på vad det ens är så om någon vill upplysa mig så blir jag glad

Och PhysX dårå, det är så få spel som använder sig utav det så det lilla extra det ger tycker inte jag rättfärdigar att köpa nVidia även om deras kort visar sig vara sämre än AMDs

De som säger att si och så är bättre än allt annat är fanboys, strunta i dem.

Från: CUDA - Wikipedia, the free encyclopedia "CUDA is the computing engine in NVIDIA graphics processing units (GPUs) that is accessible to software developers through variants of industry standard programming languages"

D.V.S krävande program kan använda CUDA för att få en boost i prestanda. Men nej, vid spel används det inte.

Angående PhysX. Som du säger så är det inte särskilt många spel som stödjer det, men dom som gör kan faktiskt se mycket bättre ut med hjälp av det.

Permalänk
Medlem
Skrivet av Ase:

Räcker med 2 kort för att köra 3 skärmar & om du har råd med fler skärmar än så ,säger jag grattis skulle vilja ha din inkomst. Visst drar Nvidiakorten mer ström men det ska gå & köra nåt på dom (upp till 6 ) skärmarna oxå skulle vilja se vilket AMD(ATI) kort som kör Crysis eller Metro i full upplösning med 6 st skärmar gissar på att man behöver fler kort från AMD då oxå,& om det är antalet skärmar du stirrar dig blind på tror jag att Matrox har ett kort för 12 skärmar

Jag vill iaf kunna köra 2 skärmar samt en TV utan att behöva krypa bakom datorn varje gång jag ska se på film. Och ingen pratar väl egentligen om att lira Crysis, när jag tänker dual-screen så är det iaf fotoredigering och ibland programmering som står i fokus.

Permalänk
Medlem
Skrivet av Megacrash:

Var det inte Nvidia som kom med någon drivrutin som grillade/förstörde grafikkort? Det har iaf inte Ati/amd släppt...

Du tänker på det i Sc2 med att det inte begränsade Fpsen i menyn?
Hände bara några få.

Jag själv som har helt standart dator med varmt 8800 GT var det inte nära något problem.
Är det enda felet jag vart med om/hört med Nvidias drivrutiner.

Permalänk
Avstängd

Ska ha detta kort

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Skrivet av ÖverKlockaN:

första kortet med dubbla gpu's på länge från nvidia? ;s
kommer inte på några speciellt nya som har det

Förra generationen - GTX 295

Förrförra generationen - 9800GX2

Permalänk
Medlem
Skrivet av DraXula:

Jag vill iaf kunna köra 2 skärmar samt en TV utan att behöva krypa bakom datorn varje gång jag ska se på film. Och ingen pratar väl egentligen om att lira Crysis, när jag tänker dual-screen så är det iaf fotoredigering och ibland programmering som står i fokus.

Har för mig att alla kort har 2 utgångar

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Old KnotVillage:

Hm, kommer inte slå 580 sli så det är ingen ide att uppgradera sig. Jävla tjat om strömförbrukningen. sli med 590 och där varje 590 är 580sli. Då skulle jag till och med ge 5970 kortet lite sällskap i garaget. muma...

Om den bara ligger i garaget får du ju om du vill ge den till mig

OnT: Detta kommer bli intressant att se tester på, gentemot amd 6990

Visa signatur

MIN DATOR --> CPU: Intel Core i5 750 2,66GHz | RAM: Corsair XMS3 DDR3 1600MHz 4GB | HDD: Samsung 1TB | Moderkort: Asus P7P55D Pro | PSU: Corsair HX750W | GPU: PowerColor Radeon HD5870 | OS: Windows 7 Professional 64 bit | Chassi: Cooler Master HAF 922

Permalänk

Det har funnits ett ex antal olika dual kort och inga av de har blivit verklighet. GTX580 drar lika mycket ström som 480 så varför skulle detta kort bli verklighet?

5970 = 401w och 5870 CF = 487w. (+21% w för att få 5870 CF)
GTX590 = 560w och 580 sli = 676w. (+21% w för att få 580 sli)

Då landar GTX590 på runt GTX470 SLI i watt förbrukning. 590 skulle behöva klocka ner sig något enormt för att klara 300w...

Visa signatur

2600K @ 4.5 Ghz , Asrock extreme 6, 16GB 1600mhz Kingston, XFX R9 290X@1100/1300 (Arctic cooler 3) ,Corsair 550D ,
Noctua D14, 1TB WD Black, Samsung 830 RAID0, Windows 7.

Permalänk
Avstängd

skulle inte tro att de får kortet under 350w load...om de inte klockar ner till 550Mhz/GPU...
AMDs kort drar ju 300w och har väl båda sina GPUer på 850-900Mhz

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Skrivet av Deaflong:

Inte en dubbelmacka?:o Då har jag nog förstått fel hela tiden, vad definerar en "dubbelmacka" då?

Som flera sagt nu så är "dubbelmacka" ett uttryck för ett "dual-PCB" kort och i detta fall(och 5970) "dual-GPU"

2st kretskort = dubbelmacka.

Permalänk
Medlem
Skrivet av Ase:

Har för mig att alla kort har 2 utgångar

Vilket inte räcker för två skärmar om man även vill ha TVn inkopplad.

Bitvis har detta kortet stora likheter med Asus Mars II. GPUernas, bryggchipet och minneskretsarnas placering, Kristall under den vänstra GPUn och de asymmetriskt placerade hålen runt GPUerna.

Kanske var nVidia med vid utvecklingen av Mars II?

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem

Föredrar SLI/CF framför dual-GPU, men skoj att Nvidia tar sig i kragen och ger ut en riktig motståndare för AMDs dual-kort.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk

dom kan ha klockat ner ordentligt för att klara TDP gränsen på 300 men låta användarna överklocka kortet rejält sedan.

Permalänk
Skrivet av Genzot:

Om den bara ligger i garaget får du ju om du vill ge den till mig

OnT: Detta kommer bli intressant att se tester på, gentemot amd 6990

Enligt smittskyddsinstitutet så får man inte sprida såna smittor vidare. Det ligger bra där och kommer bli det kortets sista vilorum. det clockade bra men ljud/prestanda och ljud var inget att hänga i julgranen. Blir nog inga dubbelmackor för mig framöver, varken AMD eller nvdia. Bättre att satsa på ok singel kort och köra sli.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Avstängd
Skrivet av Erik Arvidsson:

dom kan ha klockat ner ordentligt för att klara TDP gränsen på 300 men låta användarna överklocka kortet rejält sedan.

Problemet är ju om dom lanserar kortet med 25% bättre prestanda än gtx580 är att det i tester kommer se väldigt oatraktivt ut, sen så är det max 475w med 2x8pin + pci-e (150+150+75). Tror faktiskt inte att du kommer kunna klocka upp dessa Gpu´s till samma nivåer som 2 vanliga GTX580 pga att det kommer krävas mer kräm.

Med tanke på att antilles ryktas få dubbla fillraten mot 5970/580 så tror jag att inget dubbelkort kommer från nvidia då det bara skulle se dåligt ut i jämnförelse i tester (stock klock)

tror att Nvidia får köra ikapp Amd nästa generation istället eller kriga i mellansegmentet där de riktiga pengana finns.

Visa signatur

Chassi: Antec 300 ][ CPU: AMD FX 8320 4,2Ghz ][ Kylning: Zalman CNPS14X ][ Ram:8,00 Gb DDR3 1600 ][
Moderkort: ASUS M5A99 ][ Skärm: ASUS MX279H ][ Grafik: ______ ][ Psu: Corsair CX600M ][
SSD:OCZ Vertex plus 120gb

Permalänk
Skrivet av Esseboy:

skulle inte tro att de får kortet under 350w load...om de inte klockar ner till 550Mhz/GPU...
AMDs kort drar ju 300w och har väl båda sina GPUer på 850-900Mhz

Varför just 550? räknat ut?

Permalänk
Medlem

Visst är det så att AMD s streamproc delar man med 5 för att jämföra med Nvidias teknik ?,(sas så förr iallafall) vilket skulle innebära att 6990 skulle ha
3840/5 = 768 så bra för att vara AMD(ATI) ,så med samma räkning borde ett 580 ha 580*5=2900 (Enligt ATIs(AMD) sätt att räkna. så då har 2 st 580= 5900 stream proc. hm inressant sen är det ju massa annat som skiljer men ska bli kul & se vad som kommer

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av mangemongen:

Jag tror också att AMD vinner denna omgång.

Det gör du rätt i!

Skrivet av Ase:

Vart har du läst att dom har en ny arkitektur har för mig att det e en uppgradering av den som dom redan har.
Har väl varit så länge nu på ATI sidan är väl ie samma arkitektur som dom har haft sen 3xxx serien
sen 4xxxx serien iallafall ungefär som att nvidia skulle fortsatt med 8800 serien .Dom bytte arkitektur när dom gick över till Fermi.

AMD använder en ny shader arkitektur VLIW4 för 6900-serien i stället för VLIW5 som i 5000- och 6800-serien.

Skrivet av flukke:

"Har för dig"? Vart har du sett prestanda tester på 590? Sluta prata i nattmössan eller länka. Jag tror istället att det kan bli en jämn, mysig och go prestanda match. Tidigare erfarenheter säger att Nvidia brukar fläska på, därför tror jag att det blir jämnt trotts att AMDs specs är något i hästväg (om de stämmer).

Sen bara för att kretsarna är klara behöver man ju inte lansera!? Det blir alltid ett jävla tjat vid så kallade "papperslanseringar". Detta tog även Sweclockers upp i en video nyss (ang AMDs senaste papperslanseringar).

En annan viktig anledning kan vara drivrutiner, Nvidia har alltid väldigt bra drivrutiner från scratch medens AMD ibland har lanserat riktigt dåliga och ofärdiga drivrutiner i jämförelse. Nvidias tänk med att ha allt klappat och klart istället för att stressa fram med ruttna drivrutiner är något som AMD borde ta efter.

Nu är det ju inte riktigt så att det finns recensioner ute på dessa kort ännu. Då får man lov att antingen tiga, prata i nattmössan eller försöka sig på en något kvalificerad gissning på vad som komma skall. Bästa tipset vore onekligen att vänta och se tills korten ligger på bordet. Men vad då - någon är otålig!

Vad nvidia beträffar så vad är det de ska fläska på med den här gången, menar du? Kortet baserar sig på två GF110-kretsar som inte direkt är kända för att vara strömsnåla. Även om de försöker sig med sofistikerade nedklockningsmetoder för att släta över detta faktum så kommer PCI-E specifikationen på 300W snabbt emot. Minnesmässigt är det även slutfläskat eftersom 3GB < 4GB. Detta kan dock visa sig bli en ekonomisk fördel för nvidia eftersom 3GB verkar vara rätt optimalt.

Nvidia fansen har de sista året inte gjort annat än framhållit hur lönlöst det är att spara på energin. Bränn på bara vetja! AMD kanske äntligen får lite lön för mödan för att de verkligen satsat på energieffektiva kretsar. Det betyder i slutändan högre clocks gott folk. Inte har de heller gjort annat än pratat skit om dual-GPU lösningar och deras existens berättigande har varit i vågskålen. Nu när en bild dyker upp från Kina så är det plötsligt det bästa som hänt. Blir jag förvånad - Inte?!

Givetvis blir det här något av en giganternas kamp och jag ser fram emot de kommande lanseringarna med spänning.

Permalänk
Medlem
Skrivet av Ase:

Visst är det så att AMD s streamproc delar man med 5 för att jämföra med Nvidias teknik ?,(sas så förr iallafall) vilket skulle innebära att 6990 skulle ha
3840/5 = 768 så bra för att vara AMD(ATI) ,så med samma räkning borde ett 580 ha 580*5=2900 (Enligt ATIs(AMD) sätt att räkna. så då har 2 st 580= 5900 stream proc. hm inressant sen är det ju massa annat som skiljer men ska bli kul & se vad som kommer

Deras SP arbetar på olika sätt, de går inte att jämföra rakt av.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem
Skrivet av Gender Bender:

Föredrar SLI/CF framför dual-GPU, men skoj att Nvidia tar sig i kragen och ger ut en riktig motståndare för AMDs dual-kort.

Jag ser hellre 2 gpu i ett grafikkort än 2 grafikkort. Jag köper hellre ett grafikkort än 2 när man uppgraderar. Så denna nyhet kändes helt rätt. AMD lär aldrig få sova lugnt hur som helst.
Jag ser också att när tekniken fått blomma ut fullt och spel optimeras för 2 gpu kommer den att ge ännu bättre prestanda.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd