Vägen till 7800 GTX 512MB

Permalänk
Melding Plague

Vägen till 7800 GTX 512MB

<font style="font-size: 10pt"><b>Vägen till 7800 GTX 512MB</b></font> <small class="small">tisdag 15 november av <a href="mailto:nyhet@sweclockers.com">Jonas</a></small><br>
Som bekant släppte Nvidia sitt monsterkort 7800 GTX 512MB igår. Men hur kom kortet till egentligen? I en artikel för Penstarsys kallad ”Creating the 512 MB 7800 GTX” skriver Josh Walrath historien om det jobb Nvidia har lagt ner för att få en färdig stabil produkt som också skulle slå det som ATI skulle ha vid tidpunkten för lanseringen:
<br />
<br /><i>So how did the 512 MB 7800 GTX come into existence? The story is quite interesting, and I can hopefully take readers behind the scenes and explain the series of events that transpired to make this idea into reality. Some of this is confirmed, and some of this was gathered in rumors about the industry. The story is not simply ”let’s make this faster” but rather “how can we one-up our competition without going totally insane?”</i>
<br />
<br />Läs artikeln hos <a href="http://www.penstarsys.com/previews/graphics/nvidia/512_7800gt..." target="_blank">Penstarsys </a>. Intressant läsning för den som vill gå djupare än bara läsa prestandatester.
<br />

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Riktigt intressant läsning. Undrar hur många arga vänner han har fått för den artikeln.

Visa signatur

Gör mitt bästa för att bemöta alla med respekt och vänlighet. Ha det fint!

Permalänk
Medlem

Fräsigt

Tänk när man kan köra det dära kortet SLI (om det inte redan går?) , det e styggt

Fast... det kostar ju oxå att hänga med i svängarna

Permalänk
Avstängd

Mycket intressant läsning. Ger en bra blick i hur hård marknaden egentligen är.
Fast nu ångrar man sig lite att man köpte ett 7800GTX 256mb

Permalänk
Medlem

Kan nån förklara varför dom inte skulle implementera en programmerbar minnes kontroller? Som jag har tänkt ut så är det för att dom använder sitt TWIMTBP program. Så att spel makarna gör det åt Nvidia. Men skulle inte dom kunna få ännu mer prestanda optimering genom en programmerbar~ även om spel makarna optimerar? Den kanske är så/för liten.

Hehe ja, Nvidia gillar säkert inte att han nämner att deras senaste kort inte har lika bra bild kvalite som FX serien.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mezzo_
Riktigt intressant läsning. Undrar hur många arga vänner han har fått för den artikeln.

Vem skulle bli arg på han för detta?

Mycket bra artikel, alla borde verkligen läsa den. extra intresant var delen om vad nvidia tänker ändra tills 90nm varianten av G70, listan bestod enbart av saker som ATI har i sin R520.

No.21: anleningen till att dom inte kommer ha en programeringsbar minnes kontroller är antagligen att dom inte har tid att utveckla en på den korta tid som är kvar.

Sen har FX serien inte bättre bildkvalité, det handlade bara om AF.

Visa signatur

WS: DFI LP UT X38T2R (Gigabyte X38-DQ6 = Trasigt)| Intel C2D E6750 | 4*1 GiB Twinmos PC2-6400 | ATI Radeon HD4870 1GB | WD Caviar XL "AAKS" SATA 500GB | Antec Neopower 480W | Antec SLK3700-BQE
Server: DFI LP NF4 Ultra | AMD 3000+ "winchester" | 2*512MiB PC3200 | ATI Radeon HD2400pro | 1000GB WD GP, 3*320GB Seagate 7200.10, 250GB WD2500 PATA, 200GB Maxtor DM10 SATA = 2410GB

Permalänk
Medlem

Kanske, troligen eller så är det inte kostnads effektiv ännu när det finns andra alternativ. Men jag tror dom måste ändå ändra/förbättra deras minneskontroller så att dom har stöd för 1GB minne :O. Om dom inte än har det. Vilket R5** har.
Säkert flera orsaker, bara spekulerar över vilken har störst vikt. Men dom arbetar nog för fullt för att byta till 90/80nm till~ proc~ ark~.

Så, vad kan vi/man förvänta från Nvidia nu då? Förflyttning till 90/80nm kommer säkerliggen göra så att dom höjer klockfrekvensen på GPUn och blir deras första mål. Effekt förbrukning på ungefär samma nivå eller smått mindre. Kommer att släppa deras nästa hög prestanda kort med GDDR3 förmodliggen eftersom Samsung kommer att mass producera GDDR4 Q2. Om dom inte nu väljer XDR och förvånar.

Sant det där om bildkvaliten.

Men det här är bara spekulationer.

Permalänk
Medlem

Får väl för ovanlighetenskul hålla med No.21! Varför satsar inte Nvidia på XDR minnen istället.

Hoppas förövrigt på följande:

- Att korten som standard kommer vara klockade i 800/2000

- Lägre strömförbrukning

- 32 pipelines

Permalänk
Medlem

Mja, det ligger faktiskt nånting i det där med XDR.

Det är Nvidia och Sony som samarbetar för att göra GPUn till PS3an. Och gissa vilken minne dom använder förutom GDDR3? Jo XDR.
http://en.wikipedia.org/wiki/PlayStation_3
"25.6 GB/s GPU to XDR DRAM: 64 bits × 3.2 GHz"

Så på sätt och viss så skulle dom kunna skeppa med XDR och göra en luring eller nått i framtiden. Men skulle dom verkligen göra det innan PS3an är lanserad då? Blir nog efter, så att folk blir mer positiva med PS3an,s prestanda och dess teknologi. Kan ju vara möjligt att dom skeppar på samma tid för att bevisa att XDR presterar väl, men då tar ju Nvidia bort ögonen på folk och måste tänka över vilket dom ska köpa först, PS3 eller GFX till PC. Förbättrad kontakt med Rambus oxå~ skulle Nvidia vinna om dom nu skulle använda deras teknologi i större utsträckning.

Mer om XDR: http://www.rambus.com/products/xdr/applications/graphics.aspx

Multi-Mode DDR-XDR Interfaces, är intressant i sig själv oxå.

Men nu spekulerar jag allt för mycket och djärvt

Permalänk
Medlem
Citat:

Today's XDRTM memory interfaces provide an order of magnitude higher bandwidth than other memory technology. The XDR2 memory interface represents the next step in high-bandwidth interfaces for graphics, networking, and consumer electronics applications. Using Rambus's patent-pending micro-threading technology, XDR2 interfaces will be able to supply up to five times more usable bandwidth to memory controllers than today's best competing memory technologies. XDR2 DRAM devices are targeting 8.0GHz data rates, enabling a single DRAM device with 16GB/s of peak bandwidth. Micro-threading increases the usable bandwidth by reducing the CAS granularity to 16 bytes per device. The result is a traditional 8-bank CMOS DRAM core with the performance of a 16-bank memory device. XDR2 memory interfaces will also use Rambus's proven FlexPhaseTM timing circuitry with additional adaptive timing features for a more robust signaling environment at high bandwidth. The XDR2 architecture provides the capability to scale data rates beyond 8.0GHz and will provide chip and system designers with the features they need to achieve the highest performance using the fewest number of controller pins and DRAM devices.

Är det man kallar för DDR dödare ?

Permalänk
Medlem

Mjo, men:

"Rambus engineers work closely with chip and system companies to optimize the DRAM controllers to take advantage of the performance benefits that the XDR2 solution provides. The XDR2 memory interface is available for licensing now and could be shipping in products by 2007."

http://www.rambus.com/news/pressrelease.aspx?id=79

Permalänk
Medlem

XDR minnen är rätt mycket dyrare än GDDR minnen typ 3 ggr så dyra och de tillverkas inte i så stora serier så om Nvidia eller någon annan skulle lägga stora ordrar så skulle prisskillnaden öka ännu mer.
Sedan är Rambus inte särskilt omtyckt i branchen.
Nvidia och ATI har varit delaktiga i specen av GDDR minnen dessutom.

Visa signatur

[AMD X2 5600+ @ 3GHz][8800 GTS 640MB @640/900][Creative X-FI Xtreme Music][1.5 TB Storage][24" LCD]