I år fyller SweClockers 25 år, vilket är ett faktum som får många medlemmar, inklusive mig själv, att känna sig lastgamla. Om man bortser från några gråa hårstrån och periodiskt ont i ryggen är jag dock väldigt glad över ha varit med på stora delar av den här resan, där jag har fått uppleva den fantastiska (och ibland dystra) utvecklingen av datorhårdvara från första parkett.

Nu har jag inte jobbat som skribent på sajten under alla dessa 25 år, men mitt intresse för hårdvara tog dock fart ordentligt det där året då Edin lånade sin mammas kreditkort för att köpa en forumlicens. Med det som bakgrund skulle jag, under detta firandets år, vilja ta med er på en resa bakåt i tiden, där vi gottar ned oss i hårdvaran som släppts under SweClockers livstid.

Som många kan förstå är det omöjligt att täcka alla relevanta datorprodukter som lanserats de senaste 25 åren, och därför måste ett urval göras. Metoden bakom urvalet till denna artikelserie är helt godtycklig och baserad på min personliga nostalgi – det blir helt enkelt roligare så!

Slot-A_Athlon.jpg

AMD blev först till den magiska 1 GHz-gränsen. Bildkälla: Tullius (CC BY-SA 3.0)

Låt oss börja i begynnelsen. Året var 1999, Cher toppade listorna med hjälp av autotune och Y2K-buggen skulle snart krascha alla världens datorer. På hårdvarufronten var det full batalj mellan Intel och AMD om att hinna först till den magiska GHz-gränsen, vilket AMD till slut lyckades åstadkomma med första generationens Athlon-processorer tätt följt av Intels Pentium III.

Vi ska dock inte snacka CPU idag utan snarare GPU, och närmare bestämt den första av sitt slag. Nu tänker nog många: “Men vadå, fanns det inte grafikkort innan 1999?”. Jodå, massor, där flera därtill hade ytterst vettig 3D-acceleration för sin tid. Men begreppet GPU myntades dock inte förrän oktober 1999, då Nvidia introducerade det första Geforce-kortet.

3dfx ägde grafikkortsmarknaden under slutet av 1990-talet

Mot slutet av 1990-talet började grafikkort med 3D-acceleration för spel bli allt vanligare. Dominerande på marknaden var 3dfx, vars instickskort Voodoo och Voodoo 2 stod för en stor del av marknadsandelarna. När vi började närma oss millennieskiftet luckrades dock denna dominans upp, i takt med att andra aktörer som ATI, S3 och Matrox släppte kompetenta kort.

Diamond_Viper_V330_AGP_@_nVIDIA_RIVA_128.jpg

Riva 128 var Nvidias första grafikkort för konsumentmarknaden. Bildkälla: Mathías Tabó (CC BY-SA 4.0)

Det företag som seglat upp som det största hotet mot 3dfx var dock Nvidia, vars första renodlade grafikkort för konsumentmarknaden, Riva 128, lanserades 1997. Medan det första kortet lämnade en del att önska (jag var måttligt nöjd med mitt) så lyckades bolaget få sitt genomslag året efter med RIVA TNT, vilket bjöd på formidabelt motstånd mot Voodoo-korten från 3dfx.

I mars året efter, det vill säga 1999, släppte Nvidia det uppföljande kortet TNT2 tätt följt av värstingen TNT2 Ultra, och bara sex månader senare skulle företaget göra ett skifte mot ett helt nytt produktnamn för sina grafikkort och släppa lös Geforce 256.

Geforce 256 – “världens första GPU”

Medan det idag är relativt vedertaget att en GPU (graphics processing unit) är synonymt med en grafikkrets, var inte detta fallet år 1999. I och med lanseringen av det första Geforce-kortet, vilket enligt Nvidia var det första av sitt slag med en GPU, cementerades dock termen för all framtid hos såväl bolaget själva som sina konkurrenter.

KL_NVIDIA_Geforce_256.jpg

Grafikkretsen NV10 tillverkades på 220 nanometer. Bildkälla: Konstantin Lanzet (CC BY-SA 3.0)

Men vad var det som Geforce 256 gjorde annorlunda mot tidigare kort som helt plötsligt framkallade behovet att kalla den underliggande kretsen för en GPU? Jo, det hade i slutändan med en ny hårdvarufunktion att göra, Hardware T&L, där denna kunde utföra specifika arbetslaster på grafikkretsen som tidigare behövts köras på systemets processor.

Medan många 3D-relaterade uppgifter redan hade delegerats till grafikkortet från processorn, fanns det fortfarande några steg kvar i renderingskedjan som var beroende av den sistnämnda komponenten. Två av dessa är transform and lighting (T&L), där transforms syfte var att skapa en tvådimensionell bild av den tredimensionella scenen.

pipeline.PNG

Med Geforce 256 utförs stegen transform och lighting på grafikkretsen istället för processorn.

Båda dessa arbetslaster var väldigt processortunga, vilket var något som successivt började skapa ganska grova flaskhalsar för senaste snittets grafikkort. Lösningen från Nvidias sida var att ta fram specifika hårdvarufunktioner i grafikkretsen NV10 hos Geforce 256, vilka kunde utföra stegen transform och lightning mångfaldigt snabbare än den tidens snabbaste processorer. Då grafikkretsen nu tagit över samtliga steg i 3D-renderingskedjan från processorn döptes den kort och gott till GPU.

3dmark2000.png

Det som gillade att "spela" 3DMark 2000 fick en rejäl pretandaskjuts med Hardware T&L.

Hardware T&L för konsumentmarknaden togs fram i samarbete med Microsoft, vilka implementerade stöd för tekniken i DirectX 7. När tekniken användes kunde bildfrekvensen öka markant, och i synnerhet då om processorn som användes var av det äldre slaget som gärna agerade bromskloss till grafikkortet. Problemet var dock att tekniken behövde stödjas i mjukvara och spel, och när det kom till den punkten var det extremt tunnsått med titlar vid lanseringen i oktober 1999.

Medan Hardware T&L skulle komma att bli en standardiserad funktion i många kommande spel och grafikkort, var dock implementationstakten ganska långsam. Detta var ett problem för Geforce 256, vars "nästa generations prestanda" red mycket på att tekniken användes. I spel där Hardware T&L inte användes toppade fortfarande kortet många prestandatabeller, men dock inte alls med den marginal som förväntades av ett kort för den tidens ganska dyra 2 500 kronor.

VisionTek_GeForce_256.jpg

Den tidens grafikkort var helt klart lite mer spartanska.

En annan faktor som satte käppar i hjulen för Geforce 256 var faktumet att kortet hade en väldigt begränsad minnesbandbredd. Grafikkretsen hade en minnesbuss på endast 128 bitar, vilket ihop med en minneshastighet på 166 MHz gav en teoretisk minnesbandbredd om 2,6 GB/s – något som var lägre än det föregående flaggskeppet TNT2 Ultra. Detta bromsade prestandan rejält vid "skyhöga" upplösningar som 1 024 × 768 pixlar vid höga färgdjup.

Nvidia löser biffen med DDR-minne

Nvidia hade dock en lösning på minnesproblematiken, men den skulle inte komma att lanseras förrän i december 1999 – ungefär samtidigt som SweClockers tog sina första stapplande steg. Geforce 256 skulle nämligen inte bara bli det första grafikkortet att stödja Hardware T&L utan även senare bli först med att bruka den då purfärska minnestekniken DDR ihop med modellen Geforce DDR.

ddr.PNG

DDR-minne överför data två gånger per klockcykel. Bildkälla: MisterSanderson (CC BY-SA 3.0)

DDR-minne var inte en grej på konsumentmarknaden år 1999, men det skulle dock komma att bli en ytterst viktig faktor för att höja minnesbandbredden för såväl primär- som grafikminnen de kommande åren. DDR, eller double data rate som det står för, överför data två gånger per klockcykel – något som i teorin nära dubblerar minnesbandbredden ställt mot SDR vid samma klockfrekvens.

image004.gif

Geforce DDR piskade konkurrenterna hårt vid höga upplösningar. Bildkälla: Anandtech

När det första Geforce-kortet istället begåvades med DDR-minne trycktes minnesbandbredden upp till 4,8 GB/s från sina tidigare 2,6 GB/s, vilket var rekordhögt för en konsumentkort vid den tiden. Inte helt oväntat löste detta prestandaproblematiken som uppstod vid höga upplösningar, där Geforce DDR nu verkligen dominerade när pixelantalet vreds upp. Trots att det bara var minnet som skilje kunde ett DDR-bestyckat Geforce prestera upp emot 50 procent bättre än basmodellen.

Helt ny minnesteknik kommer dock inte utan sitt pris, där många Geforce DDR-kort låg en bit över 3 000 kronors-strecket (vilket är runt 5 000 kronor i dagens värde till följd av inflation). Samtidigt dök inte DDR-versionen upp i särskilt stora volymer förrän i januari år 2000, och då var det knappt fyra månader kvar tills Nvidia skulle lansera sitt nya, och ännu snabbare, kort Geforce 2 GTS.

Det första Geforce-kortet drev utvecklingen framåt men hade sina brister

Det som är roligt med att blicka tillbaka på gammal hårdvara är hur diskussionen kring denna för 25 år sedan har ungefär samma karaktär som nutidens forumprat om moderna komponenter. Med Geforce 256 introducerades en ny revolutionerande hårdvaruteknik, som dock tog flera år innan den tog fäste på mjukvarusidan. Det är svårt att inte dra en parallell här till Nvidias första RTX-serie av grafikkort, där brett stöd för ray tracing i spel inte kom förrän långt senare.

Detsamma gäller diskussionen om minnesbandbredd, där detta är särskilt aktuellt med nuvarande Geforce RTX 4000-seriens anmärkningsvärt smala minnesbussar. Smalare minnesbussar är troligen här för att stanna ett tag, och även om vi inte lär se en revolution i stil med DDR-minnets intåg kan säkerligen de kommande GDDR7-kretsarna göra skillnad för framtidens minnesbandbredd.

ss_be7e88eddd74dee2aa37706b696b106cecff5142.jpg

Shadowman rullade galet bra på ett Geforce DDR (bilden är från remastered-versionen).

För min egen del ligger det första Geforce-kortet väldigt varmt om hjärtat. En mer kunnig vän propsade på att jag skulle invänta DDR-versionen av kortet, vilket så här i efterhand var helt rätt beslut. Att gå från att spela i 640 × 480 pixlar vid 16 bitars färgdjup med ett 3dfx Voodoo 2 till 1 024 × 768 pixlar vid 32 bitars färgdjup med spelbar bildfrekvens är en helt otrolig upplevelse, och troligtvis är Geforce DDR den mest betydelsefulla uppgraderingen jag gjort på grafikkortsfronten.