Permalänk
Melding Plague

Om Radeon X1900

<font style="font-size: 10pt"><b>Om Radeon X1900</b></font> <small class="small">onsdag 18 januari av <a href="mailto:nyhet@sweclockers.com">Bjorn</a></small><br>
<a href="http://www.theinquirer.net/?article=29055" target="_blank">The Inquirer</a> har fått tag på en massa intressant information om Radeon X1900-serien (R580) som kommer att lanseras inom kort. Alla dessa grafikkort har 48 pixel shaders, 16 pipelines. Grafikkorten använder 256-bit GDDR3-minne men har stöd för GDDR4. Totalt består R580 av 384 miljoner transistorer.
<br />
<br />Radeon X1900 XTX är det kraftfullaste grafikkortet. Klockfrekvenserna är 650 MHz GPU och 1550 MHz minne.
<br />
<br />Radeon X1900 XT och Radeon X1900 XT Crossfire har 625 MHz GPU och 1450 MHz minne. Radeon X1900 XT Crossfire kan användas tillsammans med X1900 XTX om man vill använda Radeon X1900 XTX i Crossfire.
<br />
<br />Radeon X1900 XTX i Crossfire tillsammans med ett Radeon X1900 XT Crossfire rapporteras ge bättre prestanda än två GeForce 7800 GTX 512MB i SLI. Detta enligt en annan artikel hos <a href="http://www.theinquirer.net/?article=29057" target="_blank">The Inquirer</a>.
<br />
<br />Det ska bli intressant att se hur Radeon X1900 presterar mot Nvidias uppkommande GeForce 7900. GeForce 7900 planeras dock att lanseras först i mars, så uppkommande tester av Radeon X1900 kommer förmodligen jämföra med GeForce 7800-grafikkort.

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Nyhet
Radeon X1900 XTX i Crossfire tillsammans med ett Radeon X1900 XT Crossfire rapporteras ge bättre prestanda än två GeForce 7800 GTX 512MB i SLI.

Illa vore det ju annars.

Permalänk
Medlem

Hoppas fan på att X1900 XTX knäcker GeForce 7900, är less på nVidia för ett tag.

Permalänk
Medlem

Är det bara jag som tycker att utvecklingen har gått sjukt fort det senaste året? Jag köpte mitt 7800gtx i somras då det krossade allt annat... men nu ger X1900XTX tre eller fyrfaligt prestanda... blä.

Permalänk
Avstängd

7900 tar det nog men frågan är om det tar ett GT/GTX/Ultra.

Permalänk
Medlem

Nu tycker väl alla som håller på att vänta på x1900 att det är lika bra att vänta på GF7900 samtidigt som de tycker att folk som inte väntar bara försöker motivera sina dåliga köp...

Visa signatur

P4 2.0 GHz@2.26 GHz | GF6600GT Core 500 MHz@580 MHz Mem 900 MHz@1135 MHz | 1 GB pc2700 <<Lite kuriosa bara: Ping eller mer korrekt latency är en storhet, ms är enheten. Spänning är också en storhet medan volt är enheten. Tänk vad skoj det skulle låta om du sa: "Hörru höj upp kilometer per timmen va!" (Brun hårig sjuk sköterska)>>

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av XCan
Nu tycker väl alla som håller på att vänta på x1900 att det är lika bra att vänta på GF7900 samtidigt som de tycker att folk som inte väntar bara försöker motivera sina dåliga köp...

Tror inte det.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av XCan
Nu tycker väl alla som håller på att vänta på x1900 att det är lika bra att vänta på GF7900 samtidigt som de tycker att folk som inte väntar bara försöker motivera sina dåliga köp...

Jo, karusellen har ju varit identisk ungefär sedan det första Matrox Millenium släpptes. Varför skulle det skilja sig nu

Permalänk
Citat:

Ursprungligen inskrivet av arky
7900 tar det nog men frågan är om det tar ett GT/GTX/Ultra.

du skrev lite fel va, 7900an kmr va nvidias senaste och bästa ifrån deras sida.

så om inte ATIS nya tar 7900 så tar ATIS nya förståss inte GT/GTX/ULTRA

förstår du la

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Avstängd

Vi märker och ser hur de blir när folk har köpt de och dom har testat de. Lite för dyrt för min smak bara!

Visa signatur

Fractal Design Arc Mini. Fractal Design Newton R2 650W. Intel Core i5-2500. Intel Liquid Cooling Solution RTS2011LC. ASUS P8H77-M Pro. 8GB Samsung PC3-10600. ASUS GTX 560 Ti 448-cores DirectCU II 1280MB. 1 St Samsung 830 Series 128GB. 1 st Samsung SpinPoint F1 500GB. 1 st Samsung EcoGreen F4 2TB. Samsung SH-123. ASUS VH238T. SteelSeries Ikari Optical. SteelSeries QcK Mini. SteelSeries G6v2. SteelSeries 4H. Edifier E3300.

Permalänk

Har dom fortfarande inte lyckats peta dit fler än 16 pipes? Skärpning ATI

Visa signatur

a64 3500+ 1gig RAM corsair (2x512 dualch.) dfi infinity mobo. gainward 6800U pcie

Permalänk

Nej, men dom har lyckats peta dit 48 pixel shaders. Jag är ganska säker på att det är mer än något nVidia-kort har.

Permalänk

Okej men räcker det för att kompensera då?

Varför inte köra både fler pipor samtidigt som de många shaders? Visst, billigare o enklare såhär kanske.. Men ändå, känns som att det är lite "ute" med bara sexton nu Det vanliga 7800gt från nvidida har lixom 20 och det är inte ens high end

Visa signatur

a64 3500+ 1gig RAM corsair (2x512 dualch.) dfi infinity mobo. gainward 6800U pcie

Permalänk
Avstängd

Men X1800 korten presterade rätt bra med sina 16 pipes och ja skulle tro att X1900 inte är direkt sämre bara för att de oxå har 16 pipes. Acceptera och gå vidare helt enkelt.

Visa signatur

Fractal Design Arc Mini. Fractal Design Newton R2 650W. Intel Core i5-2500. Intel Liquid Cooling Solution RTS2011LC. ASUS P8H77-M Pro. 8GB Samsung PC3-10600. ASUS GTX 560 Ti 448-cores DirectCU II 1280MB. 1 St Samsung 830 Series 128GB. 1 st Samsung SpinPoint F1 500GB. 1 st Samsung EcoGreen F4 2TB. Samsung SH-123. ASUS VH238T. SteelSeries Ikari Optical. SteelSeries QcK Mini. SteelSeries G6v2. SteelSeries 4H. Edifier E3300.

Permalänk
Medlem

X1900XTX har ju sina 48 shaderpipes att luta sig tillbaka när de vanliga 16 pipesen inte räcker till. Dock är det mest fördelaktigt i shader-vänliga spel, om jag inte minns rätt. Nåja, det visar sig vem som vinner mellan X1900XTX och 7900.

Visa signatur

Dator 1: AMD Ryzen 9 7950X3D, 64 GB Kingston Fury DDR5 5600 MHz CL36 , Asus Radeon 7900XTX TUF OC, Be Quiet Dark Base Pro 900 rev.2 Black Case, Asus ROG Crosshair X670E Hero Mobo , Be Quiet 1500W PSU, Win10 Pro 64-bit, Creative Soundblaster AE7

Dator 2: Intel Core i7 9700k, 32GB DDR4 Corsair 3000 MHz, Asus TUF Z390 Mobo, Asus Radeon 6800 XT TUF, Be Quiet 850 PSU, Win10 Pro 64-bit, Asus TUF GT502 Case

Permalänk
Medlem

X1900XTX vinner helt klart med tanke på den s.k sofisterkade background tekniken som pryder ati korten. Vilken i sin tur leder till celosav transplantering av energi strömmar som i sin leder till bättre prestanda, och med tanke på atis inbyggda ANOP teknik så kommer detta kort utklassa 7900, därför att den helt enkelt presterar maximalt sett till prestandan.

"proffessor skitsnack"

Visa signatur

AM2+ Gigabyte DS3 780 - AM2 5200+ X2 2.7 GHZ - 4096 MB DDR2 PC6400

Permalänk
Citat:

Ursprungligen inskrivet av Milo
X1900XTX vinner helt klart med tanke på den s.k sofisterkade background tekniken som pryder ati korten. Vilken i sin tur leder till celosav transplantering av energi strömmar som i sin leder till bättre prestanda, och med tanke på atis inbyggda ANOP teknik så kommer detta kort utklassa 7900, därför att den helt enkelt presterar maximalt sett till prestandan.

"proffessor skitsnack"

jo eller hur.

utklassa, kanske lyckas liiite bättre vilket jag inte tror men vi får se

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk

men om nvidia skaffar lika många shader pipes 512mb å hela fadderittan, kommer ju deras antagligen bli bättre när 7900 kommer eftersom de har 24 pixelpipes också?

Visa signatur

Intel i7 5820K 3.6Ghz@4.2Ghz | Noctua NH-D15 | 4x4GB Crucial Ballistix Sport DDR4 2400Mhz | Asus X99 Deluxe | MSI 780GTX | Samsung SSD 830 256GB | Seagate HDD ST3000DM001 7200rpm 3Tb | Fractal Design Arc | 6x140mm & 1x120mm (Silverstone AP Intake & Noctua Outtake) | Hp w2207 22 inch | Eizo S2000 19 inch

Permalänk
Medlem

Så med andra ord är all denna spekulation poänglös och vet ingenting förrens bägge korten faktiskt kommit ut och blivit ordentligt testade ?

Permalänk
Medlem

Har ingen aning om hur trovädigt detta är men om det stämmer ser det inte bra ut för ATI. Snott direkt från ett inlägg hos beyond3d. Ifall nån vill läsa fortsatta diskusioner där: http://www.beyond3d.com/forum/showthread.php?t=25802&page=29

Citat:

http://www.firingsquad.com/hardware/3dmark_06/page8.asp

AMD Athlon 64 FX-60
NVIDIA GeForce 7800 GTX 512MB

3DMark06 1280x1024x32 SM 2.0 = 2162
3DMark06 1280x1024x32 HDR/SM 3.0 = 2203

http://forums.vr-zone.com.sg/showthread.php?t=53164&page=6

AMD Athlon 64 FX-60 @2616 MHz
ATI Radeon X1900XT

3DMark06 1280x1024x32 SM 2.0 = 2081
3DMark06 1280x1024x32 HDR/SM 3.0 = 2279

3DMark06 borde vara väldigt pixelshader krävande tycker man ju och borde passa X1900XT med alla sina pixel shaders men trots det så lyckas det bara med nöd och näppe hålla jämna steg med 7800GTX 512Mb. Är det helt begränsat av nåt annat? Skall bli intressant att följa diskusionerna tycker jag... om dessa värden stämmer dvs.

Kanske är ATIs tur att gå ut med pressmeddelande "3DMark betyder ingenting, bry er inte om det"

Tycker man får mer och mer känslan av att R580 inte kommer erbjuda så värst mycket mer än sin lillebror. Man får ju hoppas för ATIs skull att de får ut korten i tid och att nVidia inte får ut sina 7900 förräns i mars för ifall det här stämmer lär de ju få mycket svårt mot 7900.

Jaja man får väl hålla sig till tåls några dagar till innan man vet med säkerhet.

Permalänk
Avstängd

Är det bara jag som tror att allt kommer att ordna sig på ett säkerligen godtagbart vis utan att jag bryr mig?

Permalänk

Jag är helt säker på vem som kommer vinna i G71 vs R580. Men jag tänker inte säga vem.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av DataNusse
Jag är helt säker på vem som kommer vinna i G71 vs R580. Men jag tänker inte säga vem.

samma här.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.

Permalänk
Medlem

Inte svårt för en fanboy/girl att veta det...
visserligen så tror jag att jag tror samma som dig men jag är ingen direkt fan av något av märkena längre...(de största skillnaderna har suddats ut)

Visa signatur

Opteron 165 (291x9 = 2620MHz), DFI LanParty UT Ultra-D, G-Skill PC4000(9/10, 3-4-3-8), PC X1800XT512Mb(Stock) Lian Li PC73-SLB, Tagan 580W

Permalänk
Medlem

Inga upgifter på hur mycket X1900 XT och XTX tänker kosta?
Blir det en klassisk "pappers release", eller blir det en "nvidia release"?

Visa signatur

heh..

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av S_Z
3DMark06 borde vara väldigt pixelshader krävande tycker man ju och borde passa X1900XT med alla sina pixel shaders men trots det så lyckas det bara med nöd och näppe hålla jämna steg med 7800GTX 512Mb. Är det helt begränsat av nåt annat? Skall bli intressant att följa diskusionerna tycker jag... om dessa värden stämmer dvs.

Kanske är ATIs tur att gå ut med pressmeddelande "3DMark betyder ingenting, bry er inte om det"

Tycker man får mer och mer känslan av att R580 inte kommer erbjuda så värst mycket mer än sin lillebror. Man får ju hoppas för ATIs skull att de får ut korten i tid och att nVidia inte får ut sina 7900 förräns i mars för ifall det här stämmer lär de ju få mycket svårt mot 7900.

Jaja man får väl hålla sig till tåls några dagar till innan man vet med säkerhet.

Här är den troliga förklaringen

Citat:

The new 3DMark uses several of the same game tests as 3DMark05, updated to increase the graphics workload, and using a new 3D engine with a major new shadow algorithm, called Cube Shadow Maps. Futuremark's new shadow method works by dividing the view frustum into five sections along the z-axis. Each section gets shadowed by a standard uniform 2048x2048 shadowmap. If the hardware supports depth textures, a D24X8 or DF24 depth map is used. If these texture formats are not supported, an R32F single component 32-bit floating-point texture will be used as a depth map. Shadows from point light sources use a 1024x1024x6 cube map of the format R32F as depth map, unless the hardware supports D24X8 with hardware bilinear PCF or DF24 with FETCH4 depth textures. You can really notice the difference in the game tests, where the shadows are much smoother, more natural, and lifelike.

According to ATI, a 16-bit depth stencil texture (DST) would have been sufficient to preserve quality in 3DMark06. Futuremark does not use DSTs on current ATI cards since they do not support the D24X8 format—instead they render into a 32-bit floating-point color buffer and use it as the depth texture. When generating the shadow buffers on an X1000 cards for each pixel, ATI has to read and write to a 32-bit depth buffer, and also write to a 32-bit color buffer for a total of up to 96-bits per pixel of bandwidth. Had Futuremark chosen to use 16-bit DSTs, ATI (and Nvidia) would need at most 32-bits per pixel of bandwidth. It's possible that a future card from ATI may support the D24X8 texture format."

Resultatet blir, om jag förstår det hela korrekt, att R520 använder 92bitar bandbredd per pixel för detta medans RV5xx samt G7X endast behöver använda 48bitar bandbredd

Så här svarade FM när dom fick frågan varför dom använde tekniken i fråga

Citat:

In 3DMark06 we require 24-bit z-buffers at minimum to ensure that the quality and accuracy of the shadows are top-notch in all surroundings throughout the benchmark (during the benchmark, the demo and the game). During the development of 3DMark05 we made research into using 16 bit z-buffers, but noticed that the accuracy was not sufficient for the shadow technique we used. In 3DMark06 we use a new shadow technique, which is much better and more robust than the one in 3DMark05, but there are still cases where 24-bit z-buffers are barely enough. There are of course some cases and places where 16-bit z-buffers might be suffice, but to make sure that we do not get different rendering output with different hardware we require 24-bit z buffers for all hardware. 24-bit z-buffer is much more robust, and it ensures that the quality of the shadows is at the level we require.

Lustigt nog stödjer RV530 och RV515 24-bit depth stencil textures medans R520 inte gör det.

Citat:

Still, we're left with quite a few worrisome questions. We can understand that Nvidia graphics cards won't run the SM3.0 tests with anti-aliasing—the hardware simply does not support floating-point blending together with AA (at least without using the pixel shaders for a very slow hack). We can't figure out why this should prevent those cards from producing a score, though. There's a formula for generating a 3DMark score using just the SM2.0 and CPU scores—why wouldn't a GeForce 7800 GTX card use that formula when AA is enabled? A GeForce 6200 supports SM3.0 but not floating-point blending. We still consider that a SM3.0 card, and yet it uses the formula for SM2.0 cards because it does not support the FP16 blending required for the SM3.0 + HDR tests. Why the discrepancy? Why doesn't the GeForce 6200 just produce no score? The rules are different when AA is enabled than they are when it isn't.

Nvidia likely believes that having no score is better than having a low score. According to Tony Tamasi, Nvidia believes that an "NA" (not applicable) is the correct way to report the score.

Then there are the 24-bit depth stencil textures. This is supposedly an optional format in DX9, and yet it is required by Futuremark's new shadow algorithm. Only Nvidia supports this format, but rather than using a 16-bit depth stencil texture on ATI cards, they're forced into a costly workaround. If ATI is forced into a costly workaround for the depth stencil texture format, why isn't Nvidia forced into a costly workaround for HDR + AA? Here we have a major hardware manufacturer claiming that the 24-bit format for the DST is not required to preserve shadow quality, nor that it is commonly used by game developers. Futuremark claims that it is necessary. We'd like to see the benchmark using 16-bit DSTs just to compare quality and judge for ourselves.

Det låter ju minst sagt udda. Ska bli intresant och se om ATI släpper en...ehm... "Patch" där deras kort använder 16-bitars z-buffrar (eller vad det nu heter).

Alla citat tagna från http://www.extremetech.com/article2/0,1697,1912116,00.asp

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem

Jo, det låter ju mycket märkligt det där och förklarar ju en hel del varför R520 korten inte presterar bättre i så fall. Man borde dock inte bli förvånad, tycker alltid att det är nåt sånt här med varje ny 3DMark.

Undrar ju verkligen varför ATIs långsammare korten har stöd för det men inte high-end korten. Blir intressant att följa fortsättningen.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Curly
Här är den troliga förklaringen

Resultatet blir, om jag förstår det hela korrekt, att R520 använder 92bitar bandbredd per pixel för detta medans RV5xx samt G7X endast behöver använda 48bitar bandbredd

Så här svarade FM när dom fick frågan varför dom använde tekniken i fråga

Lustigt nog stödjer RV530 och RV515 24-bit depth stencil textures medans R520 inte gör det.

Det låter ju minst sagt udda. Ska bli intresant och se om ATI släpper en...ehm... "Patch" där deras kort använder 16-bitars z-buffrar (eller vad det nu heter).

Alla citat tagna från http://www.extremetech.com/article2/0,1697,1912116,00.asp

Ja gisses... det här blir nog inte bättre på ett bra tag. Tidigare var 3Dmark hyfsat representativt för grafikprestanda och därmed spel prestanda. Med 3Dmark05 gjorde de saken lite värre... och nu gör 3Dmark06 saken mycket värre. Som om det inte var nog så lutar sig grafikkortstillverkarna mot olika tekniker mer än på länge. Om ryktena till viss del stämmer så kommer vi få se spel som är 50-100% snabbare på en tillverkares kort och andra spel som är precis tvärtom till den andre tillverkarens fördel, inte 5-25% som det oftast är nu. man måste bli väldigt yr av detta om man är spelutvecklare. Men om de texter du citerade stämmer så vore det ju klart bäst för ati att göra som nvidia och visa N/A där 3Dmark06 använder tekniker som inte krävs för DX9 eller tekniker som i allmänhet inte används i spel.... och då blir ju 3Dmark06 verkligen värdelöst... Nu är det egentligen rätt tillfälle för grafikkortstillverkarna att köpa upp några spelmotorutvecklingsbolag och se till att de använder den teknik som föredras i respektive fall.

Permalänk
Medlem

Jo är det nåt jag inte gillar så är det TWIMTBP/GITG där företagen försöker få utvecklarna att skriva kod som passar deras kort. Det kommer vara en possitiv grej med WGF 2.0, där det tydligen skall vara mer strikt om vilka funktioner som skall finnas med. Då slipper vi förhoppningsvis sånt här.

Förövrigt verkar det redan ha börjat tycka upp X1900 kort i vissa butiker så nu lär det inte dröja länge innan vi får lite mer kött på benen om hur det här kortet presterar.

Ett exempel:
http://www.ecost.com/ecost/shop/detail~dpno~697227.asp

Edit: Har läst lite till och som jag förstår det så är det enbart X1800 som inte har stöd för 24bit DST och Fetch4 (som jag inte har koll på vad det är än men det skall motsvara nån funktion nVidia har som används vid shadow mapping). X1600 and X1300 har stöd för det som sagt och det verkar som X1900 också har det men är inte säker på det än.

Permalänk
Discokungen

Jo, det är lite konstigt att Ati är i underläge för att Futuremark anser att de måste kunna ha den tekniken Speciellt när ingen annan anser det vara meningsfullt. Illa...

Sen kan man fråga sig om SBS är serilösa
http://www.sbs.o.se/default.asp?artnr=GC-X1900XTXD-VIE3
http://www.sbs.o.se/default.asp?artnr=GC-X1900XTD-VIE3

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld