Rykte: Radeon HD 2950X2X med två grafikprocessorer

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SmOOthy
Det är 256-bit per processor så med två stycken blir det 512-bit. Eller?

Nope det blir inte det dubbla. Precis som det inte blir dubbla minnet misstänker jag att det delar på samma buss?

Tycker alla dom här korten har dåligt pris-prestanda...

Visa signatur

Asus ROG Strix Z370-H Gaming | Intel Core i7-8700K | AMD Radeon RX 6950 XT | Corsair Vengeance LPX 3500 MHz 2x16 GB 16-18-18-38 | Diverse lagring | Fractal Design - Define R5 | Corsair RM1000x

C64 | C64C | NES | Amiga 500 | Mega Drive | Game Gear | SNES | N64 (RGB) | GCN | DS Lite | Xbox 360 | Wii | 3DS XL | Wii U | New 3DS XL | PS4 Pro | Switch

Permalänk
Citat:

Ursprungligen inskrivet av Barak
Nope det blir inte det dubbla. Precis som det inte blir dubbla minnet misstänker jag att det delar på samma buss?

Tycker alla dom här korten har dåligt pris-prestanda...

Tog det här från ett inlägg på b3d :

"The 256-bit bus on most GPUs is actually a collection of smaller buses, e.g. 4x64-bit or 8x32-bit.

What I'm expecting to see is that two GPUs on one package have a fat bus joining them (much like Xenos and its daughter die have a 32GB/s bus). The two separate memory systems (256/512MB per GPU) are then aggregated into a single memory address space.

In effect GPU A can request a texture from GPU B's memory, so the fetch request travels over to the relevant memory controller on GPU B which then obtains the data GPU A requires. All clients in both GPUs (TUs, RBEs, vertex fetch, etc.) see this single memory space and are able to use it freely.

Then you just need a decent driver that understands how best to assign memory to the clients on both GPUs, so that the chosen multi-GPU mode produces the most efficient usage of memory as well as the required performance.

AFR seems like the prime candidate. Within AFR, though, it's possible to optimise the way textures are organised - e.g. classically textures are copied to both GPUs' memory. In theory the newer ATI GPUs don't need to be that wasteful.

I've got my fingers crossed that we'll see these kinds of efficiency gains, but the driver gods have been scowling upon these D3D10 GPUs and I see no sign of a let up.

Jawed"

Detta verkar ju inte vara helt omöjligt och borde kunna förbättra prestandan på en multi gpu prudukt, förutsatt att ATI/AMD klarar att implementera något sådant kan det kanske bli lite hårdare konkurens igen

Permalänk
Avstängd

det blir ju som graffekortet 7950GX2 ju. fast med ett kort

Visa signatur

>AMD Phenom™ 1055T@3,8Ghz + NH-D14|Gigabyte GTX460 1GB@ 850/2200mhz|Gigabyte 870A|A-Data 4GB Ram|CM HaF 912+|Creative X-Fi Titanium+Z-5500|Kingston SSD| Och lite till.<

Permalänk
Medlem

Kommer säkert blir bra men inte så billigt

Visa signatur

Vattenkylt SilverStone FT02B, i7 2600k, Asus P8Z68 Deluxe, Corsair AX 850W, Corsair 16GB VENGEANCE BLUE, Asus GTX 570 SLI, Asus Xonar Essence STX, OCZ Vertex2 60GB, WD Black 1TB, 2x WD Green 2TB, 2x Seagate 500GB.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Jag ser att ni hoppar av glädje, jag suckar. Det jag ser fram emot från ATi är ryktet kring R700 som ska ha flera kärnor under samma kiselplatta, DÄR har vi något att hurra för. Flera GPU på sama PCB har funnits i över 10 år och har alltid fungerat skit.

Det har man ju gjort sedan tidens begynnelse, fast man kallar det pipes i gpu'er.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Avstängd

Tråkigt att ati måste ha 2 dubbla för att konkurera med ultra.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

OMG!

http://www.vr-zone.com/articles/R680_To_Score_20K_In_3DMark06...

OMG!

Duo GPU??? Blir det här världens första tvåkärniga GPU? Jag hoppas att ryktet stämmer, fasen vad coolt det skulle vara!

(inte för att jag skulle köpa ett så dyrt kort men ändå )

Visa signatur

[Asus P8H67] - [Intel i2500k] - [Corsair 4gb pc10600] - [Asus 560ti 1gb]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av invztr
Tråkigt att ati måste ha 2 dubbla för att konkurera med ultra.

...? Du skämtar väll där? Det är mer ett steg mot framtiden än bara ett desperat försök att gå om Nvidia. CPUer kommer i 2, 3 och 4 tals- kärnor, snart 9, så varför inte GPUer med?

Citat:

Ursprungligen inskrivet av TinMann
OMG!

http://www.vr-zone.com/articles/R680_To_Score_20K_In_3DMark06...

OMG!

Duo GPU??? Blir det här världens första tvåkärniga GPU? Jag hoppas att ryktet stämmer, fasen vad coolt det skulle vara!

(inte för att jag skulle köpa ett så dyrt kort men ändå )

ATi har haft 2 GPUer på samma kort länge. Jag såg ett ATi grafikkort på tradera med 2st GPUer för nått år sedan, men kortet hade endast drivurtiner för windows 98 och 95, så det fungerar inte så bra (eller alls) i XP. Måste varit typ 20 år sen det kortet gjordes. Kommer inte ihåg vad det heter, men det kan inte vara så svårt att hitta den på google.
Sedan gjorde Sapphire (tror jag det var) ett X1950PRO Gemini eller nått sånt, med 2 GPUer på samma PCB.

EDIT:
http://active-hardware.com/english/reviews/video/rage-fury-ma...

Gick ganska snabbt att hitta.

EDIT2: Nu läste jag ditt medelande igen och ser att jag missuppfattade Du menade 1 GPU med 2 KÄRNOR, inte 2 GPUer på samma kort Dumt av mig.

Permalänk
Medlem

Nej, nej, nej... jag skrev Duo för att referera till intel core2: samma gpu, men två kärnor i den! Det är det som jag tycker skulle vara lajbans!

EDIT - men den där e-fury-maxx ser rå ut... undrar om man kan få tag på en bara för skoj.

Visa signatur

[Asus P8H67] - [Intel i2500k] - [Corsair 4gb pc10600] - [Asus 560ti 1gb]

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av TinMann
Nej, nej, nej... jag skrev Duo för att referera till intel core2: samma gpu, men två kärnor i den! Det är det som jag tycker skulle vara lajbans!

Läste precis om ditt medelande Dumt av mig

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av apamedvapen
...? Du skämtar väll där? Det är mer ett steg mot framtiden än bara ett desperat försök att gå om Nvidia. CPUer kommer i 2, 3 och 4 tals- kärnor, snart 9, så varför inte GPUer med?

Menade det att Nvidia's är kraftigare.. visst dom har inte bättre gpu nu, vilket gör att de måste kompletera med 2 st - visst är det smart, lite tragiskt dock.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Frågan är om de senaste medvetet gått in för att ignorera mitt inlägg, eller om de bara inte klarat av att tillgodogöra sig innehållet.
Det är inte avsett att vara förolämpande, utan bara en reflektion då jag redan kommenterat missförståndet. Dubbla kärnor, är parallella led beräkningsenheter. Något som GPU'er har haft sedan... Jag minns inte hur länge. Närmast i all evighet. Sedan intruduktionen av 3D kort i alla fall. Skillda kärnor har använts, eftersom det ger en tillverkningsfördel. Att lägga kärnorna på samma kiselbricka men fortfarande åtskilda är i sammanhanget en sämre lösning än att helt enkelt dubbla antalet pipes i den existerande. Undandaget är om man skapar grafikkort med kapaciteten att rendera olika händelser på olika skärmar, då man helt enkelt får möjligheten att hantera vardera kärna som ett exklusivt grafikkort. Det öppnar möjligen för nya typer av spel, och filmupplevelser, men inte för högre prestanda.
B!

Visa signatur

Allting jag skriver är om inget annat uttrycks, min åsikt! Ingenting måste vara dagens sanning enligt din åsikt, och gör du antaganden baserade på mina åsikter hoppas jag att du övervägt mer än bara just min åsikt.

Permalänk
Citat:

Ursprungligen inskrivet av Gambit_2K
Lite lustigt att de nVidianer de som säger att en fler GPU lösningen är skit nu hyllade lösningen när GX2:an släpptes och slog X1950XTX i flera banchmarks. Hmm... skulle inte förvåna mig om detta kort släpps och de skriker "men gud man kan inte jämnföra 1 GPU på GTX med 2 st på 2950XT2X. Vilket man tyligen kunde med GX2 och 1950XTX. Man väntar

Aztro_dj: 2 st 2600 Pro är inte snabbare än 1 st 2900XT och ett HD2900 Pro sägs ju vara snabbare än 2900XT. Som regel är alltid 1 snabbare kort bättre än 2 st långsammare kort.

Antar att du menar mig nVidian då jag är den enda som har skrivit här innen innan du postade att jag tycker de va skit. Men då ska du också vetat att jag alltid har tyct att 7950GX2 vart en skit lösning som har låtit mycket, dragit mycket ström och presterat lite bättre.

HD2900PRO är inte snabbare än HD2900XT då PRO är ett underklockat XT.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Han menade nog 2950pro ska du se.

-=Mr_B=-: Intressant text.

Visa signatur

AMD 5700X@Vatten | asus prime x370pro | Asus 2080 Strix | 2x16GB Kingston Fury Renegade RGB DDR4 3.6GHZ | Lian Li O11d EVO + 2x240 EKWB RAD + 6 Lian Li AL120 | CoolerMaster V850 | NVME 2TB Seagate Firecuda 510 + NVME 1TB WD BLACK + 3 SSD | Samsung Odyssey 49" G9| DELL 2713HM | Varmilo VA69 Clear/brown | Logitech G502 2016.

Phenom X6 1045T | Corsair TWIN2X PC6400C4DHX 2x2GB + Crucial Ballistix Sport 2x2GB | Gigabyte ma785gmt-us2h | Silverstone Temjin 08 | Corsair VX450

Permalänk

"Jo, jag har ett Radeon HD tvåtusenniohundrafemtio X två X i crossfire"
Dåligt namn ^^

Visa signatur

Keytronic for keyboard!
Sanningen måste döljas!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av A.N'doja
Antar att du menar mig nVidian då jag är den enda som har skrivit här innen innan du postade att jag tycker de va skit. Men då ska du också vetat att jag alltid har tyct att 7950GX2 vart en skit lösning som har låtit mycket, dragit mycket ström och presterat lite bättre.

HD2900PRO är inte snabbare än HD2900XT då PRO är ett underklockat XT.

Menade kommande inte specifikt dig, menade det likväl till alla nVidianer som kommer skriva i framtiden om Ati släpper ett dual GPU kort.

2950 Pro menade jag givetvis.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av Gambit_2K
Eftersom det inte ger ngt, R600 har redan nog med bandbredd och en 256bit bred buss ger samma prestanda eller bättre om de optimerar (sägs det iaf, G80 är ju 256 bit och 386 bit om jag inte är ute och cyklar?) + det tillåter att storleken på PCBn blir betydligt mindre. Varför ha kvar blindtarmen om den inte används? Bara skräp man kan slänga i nästa modell för att få ned tillverkningskostnaderna

Bredden används ju som mest när det gäller AA och AF, men när AA och AF är i det miserabla tillståndet för R6XX serien så är det ju bara logiskt att sänka ned till 256 bit. OM jag nu har rätt angående dett borde det betyda att Ati INTE fixat sin AA och AF prestanda med RV670. Vilket borde göra att de säljer 2950XT2X till samma pris som ett 8800 Ultra om de vill sälja några kort.

Jag har insett att jag förmodligen aldrig kommer köpa highend igen, för mig är det Pro, GTS och GT modellerna för sisådär 2-2,5k som gäller framöver.

större minnesbandbredd ger bättre prestanda i högre upplösningar. G80 har 320/384 bit bandbredd (5x64 för 8800GTS och 6x64 för 8800GTX) och hd2900xt har 512 bit, vi ser att hd2900xt skalar bättrei högre upplösningar. Dessa kort ska som sagt ha sina AA-problem lösta om du har hört ryktena, R680/670 kommer ha flera TMU:er och ROP:s som hanterar AA. sänka ned bandbredden på dessa kort hade ju dessutom gett en ännu sämre AA-prestanda=färre kunder. Men det var ju 2 kort på 256 bit, då blir det väl antagligen 512-bit...

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av -=Mr_B=-
Frågan är om de senaste medvetet gått in för att ignorera mitt inlägg, eller om de bara inte klarat av att tillgodogöra sig innehållet.
Det är inte avsett att vara förolämpande, utan bara en reflektion då jag redan kommenterat missförståndet. Dubbla kärnor, är parallella led beräkningsenheter. Något som GPU'er har haft sedan... Jag minns inte hur länge. Närmast i all evighet. Sedan intruduktionen av 3D kort i alla fall. Skillda kärnor har använts, eftersom det ger en tillverkningsfördel. Att lägga kärnorna på samma kiselbricka men fortfarande åtskilda är i sammanhanget en sämre lösning än att helt enkelt dubbla antalet pipes i den existerande. Undandaget är om man skapar grafikkort med kapaciteten att rendera olika händelser på olika skärmar, då man helt enkelt får möjligheten att hantera vardera kärna som ett exklusivt grafikkort. Det öppnar möjligen för nya typer av spel, och filmupplevelser, men inte för högre prestanda.
B!

Även en (enkelkärning) CPU har flera INT och FLOAT pipelines, det gör den inte flerkärnig.

apamedvapen: 1 GPU = 1 Kärna, kortet du länkar till har 2 (enkelkärniga) GPUer

Jag vet inte hur många jävla gånger jag sagt det här men tydligen inte tillräckligt många: Det finns ingen anledning att tillverka en Dual-core GPU (alá Athlon X2 C2D osv.), Antingen så dublerar du antalet pipelines i GPU'n och får en GPU som är dubbelt så kraftfull eller så använder du sig av 2 separata GPU's vilket är sämre rent tekniskt men blir billigare att tillverka samt att det inte kräver någon omdesign av GPU'n.

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Curly
apamedvapen: 1 GPU = 1 Kärna, kortet du länkar till har 2 (enkelkärniga) GPUer

Jag vet... skrev efteråt att jag missförstod honom och att han menade 2 GPUer. När jag läste igenom igen fattade jag att han menade 2 kärnor i en GPU.

Permalänk
Medlem

Jag väntar bara på att belga ska gå i taket över att vi konsumenter blir "lurade"!