De kommande grafikkorten från ATI och Nvidia går under namnen Radeon 4800 och Geforce GTX200. Enligt de senaste uppgifterna kommer båda företagen att lanseras sina nya produkter i mitten av juni och det mesta vad gäller specifikationer så som hastighet, minnestyp och pris är redan kända. En slutsats som man kan dra av denna information är att företagen har valt helt olika vägar vad gäller uppbyggnaden av sina produkter, och nu har ATI och Nvidia gått ut och försvarat sina val och även förklarat varför just de har det vinnande konceptet.

ATI har valt att konstruera mindre grafikkretsar som de sedan kopplar samman för att nå en så hög prestanda som möjligt. Första gången denna strategi klargjordes var i och med Radeon 3800-serien som lanserades i slutet på förra året då det snabbaste kortet i serien var just ett grafikkort med två grafikprocessorer, Radeon 3870 X2. Även med den nya 4800-serien har ATI för avsikt att lansera en X2-modell vilket de själva hävdar är den bästa lösningen för att nå hög prestanda.

De säger att mindre kretsar kan göras mer energieffektiva och även kostar mindre att producera. Just energieffektiviteten verkar bli ett problem för Nvidias kommande produkter som enligt uppgift skall generera mer än 200 Watt vid hög belastning. Det blir också enklare att skala arkitekturen genom att antalet processorkärnor bestämmer både kostnad, pris och prestanda.

We took two chips and put it on one board (X2). By doing that we have a smaller chip that is much more power efficient. We believe this is a much stronger strategy than going for a huge, monolithic chip that is very expensive and eats a lot of power and really can only be used for a small portion of the market. Scaling that large chip down into the performance segment doesn’t make sense – because of the power and because of the size

Nvidia å andra sidan menar att grafikkort med fler än en grafikprocessor blir ineffektiva. För att två processorer skall kunna kommunicera behövs extra elektronik och man måste ha två uppsättningar minnen på kortet. Enligt dem blir slutresultatet ett kort som kräver mer energi per prestandaenhet än om man bygger en snabb grafikprocessor redan från början.

If you take two chips and put them together, you then have to add a bridge chip that allows the two chips to talk to each other. And you can’t gang the memory together. So when you add it all up, you now have the power of two GPUs, the power of the bridge chip, and the power that all of that additional memory consumes. That is why it’s too simplistic of an argument to say that two smaller chips is always more efficient

De passar också på att påpeka vilka enorma kostnader som är involverade I att ta fram ett högpresterande grafikkort. Enligt Nvidia kan prislappen för en helt ny grafikkortsserie hamna på 3 miljarder kronor, och detta skall enligt dem vara ett problem för ATI på grund av deras ekonomiska situation de befinner sig i. Nvidia kommenterar dock inte på varför de själva har tagit fram ett flertal grafikkort med fler än en grafikprocessor, exempelvis Geforce 9800 GX2, om denna lösning nu inte skall vara optimal.

Vilken av tillverkarna som har rätt går inte att svara på idag. Men om paralleller dras till processor-marknaden slog den för ett par år sedan i taket på hur komplex en enskild processorkärna kunde göras. Lösningen blev då att placera fler kärnor i en och samma processorförpackning och på så sätt höja prestandan. Tendenserna innan denna förändring var då samma som den nu kan ses på grafikkortsmarknaden, mer energihungriga produkter lanserades för varje generation som kom.

Källa: X-bit labs.