Grafikkortsutvecklingen sen 1997

Permalänk
Medlem

Grafikkortsutvecklingen sen 1997

Tänkte jag ville visa lite statistik jag samlat ihop från wikipedia (https://en.wikipedia.org/wiki/List_of_AMD_graphics_processing_units och https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units) och Beyond3D. Jag har tagit med endast grafikkort med en GPU, så integrerade GPU:er och grafikkort med flera GPU:er är inte med. Och endast det bästa som gick att få tag i (high-end). Missade dock Intels enda grafikkort (Intel740).

Tycker det är intressant att se utvecklingen från 1997 och se hur fort utvecklingen faktiskt har gått. Hur bandbredd, fillrate, minnesmängd osv på korten förändrats. Riktigt häftigt att se hur nära ATI/AMD och nVidia faktiskt har legat genom åren och hur fort utvecklingen gick innan år 2004 ungefär.

fillrate
https://drive.google.com/file/d/0BwQs4jjSibm6cUxmOWNvV2FUVTA/...

FP32-prestanda
https://drive.google.com/file/d/0BwQs4jjSibm6anFNTklNcUsyVEE/...

minnesbandbredd
https://drive.google.com/file/d/0BwQs4jjSibm6d3JINkdOcVV5czA/...

minnesstorlek
https://drive.google.com/file/d/0BwQs4jjSibm6YlJCQThZQi1LQW8/...

LibreOffice kalkylark (ods-fil) med alla data och fler grafer (work in progress...)
https://drive.google.com/file/d/0BwQs4jjSibm6WXlOaUdpeG5CaXM/...

Jag laddar upp en till kopia av kalkylarket som andra kan redigera om jag nu missat nåt
https://drive.google.com/file/d/0BwQs4jjSibm6R2YxUWY5RTYzNXM/...

Permalänk
Medlem

ahh, minns mitt gamla Voodoo2 som jag krängde in i min IBM aptiva! det var lycka då:)

Permalänk
Hedersmedlem

Ett litet "aber" är att du har 8GB minne på R9 290X då det verkligen inte var detta som den kom med iaf inte i mängd. 4GB bör det stå.

Permalänk
Medlem
Skrivet av Jalle64:

Ett litet "aber" är att du har 8GB minne på R9 290X då det verkligen inte var detta som den kom med iaf inte i mängd. 4GB bör det stå.

Jag var lite osäker på hur jag skulle göra med minnesmängden i flera fall eftersom det finns flera varianter. Jag vill ju helst vara konsekvent. Jag tänkte som så att jag tar den variant med mest minne.

Skickades från m.sweclockers.com

Permalänk
Hedersmedlem
Skrivet av m3tr0:

Jag var lite osäker på hur jag skulle göra minnesmängden i flera fall eftersom det finns flera varianter. Jag vill ju helst vara konsekvent. Jag tänkte som så att jag tar den variant med mest minne.

Skickades från m.sweclockers.com

Ok, men i detta fall är det kanske så lite som någon/ra procent som är med den högre siffran vilket jag invänder mot då det blir lite snett i framställningen över åren.

Permalänk
Medlem

Kul läsning.
Även intressant när man var med från början =9
Kurvorna visar dock bara teoretiska prestanda, verkligheten såg ju lite annorlunda ut.

Voodoo2 konkurrerade ju först med Riva128 korten och ägde dom hårt.
Det var ju Quake2 som gällde och till slut så fick faktiskt nVidia till drivrutiner som gjorde det spelbart, men det var ju en hel del "fuskande" som krävdes.
Voodoo2 korten fixade ju t.ex. färgat ljus som glatt demades överallt, Riva klarade det inte
Det enda som Rvia128 kunde "skryta" med var att man kunde köra 3D i vilken upplösning som helst, förutsatt att stod ut med bildspel (i annat än original Quake).

Sen släpptes ju TNT som i vissa fall kunde matcha V2 korten, men framförallt så tillät dom högre upplösningar (än V2's 800x600) och 32bits färgdjup i 3d.
Även om man tvingades köra 800*600 för vettig prestanda i 32bit så visade quake3 (techdemot !) hur fint det kunde se ut.
TNT korten stödde även större texturer än 256x256, och det utnyttjades på vissa ställen i Q3 (upp till 1024x1024 vill jag minnas).
Men när det kom till rå FPS i spelsituationer så vann V2 korten ganska lätt, 3dfx hade vid det här laget blivit rena mästare på att snida ihop glidewrappers.

När TNT2 kom så var ju Voodoo3 redo och återigen så visade 3dfx att dom kunde, men vi hade tröttnat på glidewrappers etc för att få prestandan.
Microsoft pushade ju även D3D stenhårt vid den här tiden och d3d stödet i V3 korten var vill jag minnas lite sparsamt.
Med TNT2 så blev även 32bits gaming fullt möjligt, även i relativt höga upplösningar.

Sedan släpptes ju Geforce256 och resten är historia =).
nVidia körde stenhårt med "Transition and lighting" "T&L" och gjorde några imponerande demos.
Minns fortfarande mitt svindyra GF DDR som levde i hela 30 sekunder p.g.a. fläkten inte fungerade ur kartong !

ATI var ju relativt ointressanta för att dom endast i teorin var med och lekte i prestandaracet.
Först med Radeon 8500 så kom dom ju med en fullträff.
ATI hade lyssnat på MS och noga sett till att d3d formligen flög fram.
Tyvärr så tog det i sann ATI anda evigheter för dom att få till vettiga drivrutiner.
Ser fortfarande hur LAN kvällarna försenades varje gång p.g.a ATi killarna inte kunde köra spelen -.-

Och sen hade vi ju Matrox.
G200 levde ju på Milleniums storhet och recensenter såg mellan fingrarna med nackdelarna, som frånvarande OpenGL support t.ex.
Samma sak med G400, grym på pappret, men det utlovade OpenGL stödet fanns inte vid release.
Och trots detta så fick kortet ofta toppbetyg (!), vi trodde helt enkelt på att Matrox skulle fixa till drivrutinerna.
Men det gjorde dom aldrig och Matrox försvann in i glömskan hos gamers.

Edit: Hur 17 kunde jag glöma bort supercoola Matrox M3D!
Ett addon kort a'la 3dfx som faktiskt var helt OK för 3D, prestandan led iofs av att all data var tvunget att skyfflas via PCI bussen.
Men kortet var väldigt billigt, och helt OK !

Permalänk
Medlem

Jag har funderat länge på varför ökningen av fillraten bromsades in lite runt 2004 men det måste ju ha varit för att de började med programmerbara shaders på allvar kring den tiden (DX9). Det sparade ju en hel del bandbredd dessutom. Kostar fler transistorer men säkert mycket billigare än att öka bandbredd (och säkert roligare för programmerare).

Dock är man nog tvungen att använda teoretiska siffror för att ge jämförelse mellan alla kort genom åren. Drivrutiner, API:er och spelutvecklare har ju en stor roll när det gäller prestandan i praktiken men inte lika lätt att visa.

Permalänk
Medlem
Skrivet av Svensktiger:

Voodoo2 konkurrerade ju först med Riva128 korten och ägde dom hårt.

Det enda som Rvia128 kunde "skryta" med var att man kunde köra 3D i vilken upplösning som helst, förutsatt att stod ut med bildspel (i annat än original Quake).

Fast voodoo2 är bara en 3D accelerator & krävde ett grafikkort & gick inte att köra "standalone" vad jag vet så Riva 128 kunde även skryta med att vara ett komplett grafikkort.
Inte min bild, men förutom moderkort hade jag exakt den konfigurationen engång.

Permalänk
Medlem
Skrivet av skruvis:

Fast voodoo2 är bara en 3D accelerator & krävde ett grafikkort & gick inte att köra "standalone" vad jag vet så Riva 128 kunde även skryta med att vara ett komplett grafikkort.
Inte min bild, men förutom moderkort hade jag exakt den konfigurationen engång.
http://panam.gateway.com/s/VIDCARD/STB/v00804/V0080428.jpg

På den tiden då grafikkorten inte behövde kylare

Permalänk
Medlem

Bra jobbat! Intressant läsning!

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av m3tr0:

Jag var lite osäker på hur jag skulle göra med minnesmängden i flera fall eftersom det finns flera varianter. Jag vill ju helst vara konsekvent. Jag tänkte som så att jag tar den variant med mest minne.

Skickades från m.sweclockers.com

Tycker personligen du ska ta 4GB då den lanserades med just 4GB. Geforce 256 lanserades med 32MB men kom senare med 64MB

Permalänk
Medlem
Skrivet av anon114264:

Tycker personligen du ska ta 4GB då den lanserades med just 4GB. Geforce 256 lanserades med 32MB men kom senare med 64MB

Tidsintervallen/upplösningen är ju ett halvår i taget. Från början tänkte jag att jag tar det bästa grafikkortet, med mest minne och en gpu, som fanns tillgängligt från varje företag. Kan hända att det blivit nåt fel nånstans så det får jag kolla upp nån gång.

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av m3tr0:

Tidsintervallen/upplösningen är ju ett halvår i taget. Från början tänkte jag att jag tar det bästa grafikkortet, med mest minne och en gpu, som fanns tillgängligt från varje företag. Kan hända att det blivit nåt fel nånstans så det får jag kolla upp nån gång.

Skickades från m.sweclockers.com

Jag hoppas du ändrar det. Varför inte ta det de minnesstorlekerna som fanns då de lanserades? Såvitt jag vet så lanserade inte AMD 290X med 8gb officiellt, det var upp till tillverkarna att sätta dit mer. Det blir så fel annars.

Permalänk
Medlem
Skrivet av anon114264:

Tycker personligen du ska ta 4GB då den lanserades med just 4GB. Geforce 256 lanserades med 32MB men kom senare med 64MB

först kom ju den med ddr minnen å sen en budget version med sdr som även så klart presterade sämre.

Permalänk
Medlem

Kommer aldrig glömma min först riktiga GPU, Voodoo 2 med 12mb, Unreal och Fifa 98 blev oförglömliga upplevelser.

Permalänk
Hedersmedlem
Skrivet av m3tr0:

Tidsintervallen/upplösningen är ju ett halvår i taget. Från början tänkte jag att jag tar det bästa grafikkortet, med mest minne och en gpu, som fanns tillgängligt från varje företag. Kan hända att det blivit nåt fel nånstans så det får jag kolla upp nån gång.

Skickades från m.sweclockers.com

Skrivet av anon114264:

Jag hoppas du ändrar det. Varför inte ta det de minnesstorlekerna som fanns då de lanserades? Såvitt jag vet så lanserade inte AMD 290X med 8gb officiellt, det var upp till tillverkarna att sätta dit mer. Det blir så fel annars.

Ja, plus det att du inte har 3GB för GTX580 vilket det ju borde vara enligt ditt sätt att "köra".
Lite inkonsekvent kan iaf jag tycka.

Permalänk
Medlem

3Gb var det ens en officiell version från Nvidia?

Oavset tycker jag man ska ange max mängd minne för varje generation då detta som sagt handlar om prestanda ökning i alla former och då är det väl störst bäst och vackrast som gäller?
Är det orättvist om någon slkår ett nytt världsrekord om man då uppdaterar historieböckerna med den nya informationen?

Om det ska reflektera framsteg över epoker så ska ju prestandan för varje epok anges efter vad som var det snabbaste vid den tiden inte efter vad folk tycker är "rättvist" då detta inte handlar om någon AMD VS Nvidia fanboyfigth eller om du råkar ha 4Gb versionen och är sur för 8Gb råkade komma ut 2 veckor senare.

Detta är ren statistik inget annat så lägg känslor om "rättvisa" år sidan helt enkelt och statistikför vad som var "värst" vid varje epok för att på så vis via på framsteg över tid.

Permalänk
Medlem
Skrivet av pa1983:

3Gb var det ens en officiell version från Nvidia?

Oavset tycker jag man ska ange max mängd minne för varje generation då detta som sagt handlar om prestanda ökning i alla former och då är det väl störst bäst och vackrast som gäller?
Är det orättvist om någon slkår ett nytt världsrekord om man då uppdaterar historieböckerna med den nya informationen?

Om det ska reflektera framsteg över epoker så ska ju prestandan för varje epok anges efter vad som var det snabbaste vid den tiden inte efter vad folk tycker är "rättvist" då detta inte handlar om någon AMD VS Nvidia fanboyfigth eller om du råkar ha 4Gb versionen och är sur för 8Gb råkade komma ut 2 veckor senare.

Detta är ren statistik inget annat så lägg känslor om "rättvisa" år sidan helt enkelt och statistikför vad som var "värst" vid varje epok för att på så vis via på framsteg över tid.

Exakt så tänkte jag.

Och jag försökte prioritera ren prestanda (fillrate/flops) först. Och sen maximal minnesmängd. Ibland fanns det ju varianter med högre prestanda men med mindre mängd minne (t ex GTX780Ti). Då tar jag den med högst prestanda. Orkar inte heller ha koll på alla olika icke-referensmodeller så främst referensmodeller används. Det är inte helt lätt det här :-). Jag satte i alla fall 3 GiB nu på GTX580.

Permalänk
Hedersmedlem
Skrivet av pa1983:

3Gb var det ens en officiell version från Nvidia?

Oavset tycker jag man ska ange max mängd minne för varje generation då detta som sagt handlar om prestanda ökning i alla former och då är det väl störst bäst och vackrast som gäller?
Är det orättvist om någon slkår ett nytt världsrekord om man då uppdaterar historieböckerna med den nya informationen?

Om det ska reflektera framsteg över epoker så ska ju prestandan för varje epok anges efter vad som var det snabbaste vid den tiden inte efter vad folk tycker är "rättvist" då detta inte handlar om någon AMD VS Nvidia fanboyfigth eller om du råkar ha 4Gb versionen och är sur för 8Gb råkade komma ut 2 veckor senare.

Detta är ren statistik inget annat så lägg känslor om "rättvisa" år sidan helt enkelt och statistikför vad som var "värst" vid varje epok för att på så vis via på framsteg över tid.

Jag är verkligen ingen fanboy och var du skulle ha fått det ifrån vet jag inte?! Det jag stör mig på att det inte är "rätt" statistik och att nVidia anger att det är standard är med tillägget:
"Note: The below specifications represent this GPU as incorporated into NVIDIA's reference graphics card design. Clock specifications apply while gaming with medium to full GPU utilization. Graphics card specifications may vary by Add-in-card manufacturer. Please refer to the Add-in-card manufacturers' website for actual shipping specifications."
vilket inte gör din kommentar speciellt "gångbar".

Till TS: bra att du inser det stringenta i att ändra detta.

Permalänk
Medlem

Var har jag nämnt dig? Faktum är att jag inte citerat eller nämnt någon i tråden specifikt och det var avsiktligt. Sedan om någon känner sig träffad om dom ej kan vara objektiva det är inte mitt problem.

Mitt inlägg handlade om att vara objektiv och sätta personliga preferenser åt sidan.

Det ända specifikt riktat mot dig var att jag undrade om 3Gb var officiell modell av GTX580 serien då jag har för mig det var något partnertillverkarna själva gjorde.

Permalänk
Hedersmedlem
Skrivet av pa1983:

3Gb var det ens en officiell version från Nvidia?

Oavset tycker jag man ska ange max mängd minne för varje generation då detta som sagt handlar om prestanda ökning i alla former och då är det väl störst bäst och vackrast som gäller?
Är det orättvist om någon slkår ett nytt världsrekord om man då uppdaterar historieböckerna med den nya informationen?

Om det ska reflektera framsteg över epoker så ska ju prestandan för varje epok anges efter vad som var det snabbaste vid den tiden inte efter vad folk tycker är "rättvist" då detta inte handlar om någon AMD VS Nvidia fanboyfigth eller om du råkar ha 4Gb versionen och är sur för 8Gb råkade komma ut 2 veckor senare.

Detta är ren statistik inget annat så lägg känslor om "rättvisa" år sidan helt enkelt och statistikför vad som var "värst" vid varje epok för att på så vis via på framsteg över tid.

Skrivet av pa1983:

Var har jag nämnt dig? Faktum är att jag inte citerat eller nämnt någon i tråden specifikt och det var avsiktligt. Sedan om någon känner sig träffad om dom ej kan vara objektiva det är inte mitt problem.

Mitt inlägg handlade om att vara objektiv och sätta personliga preferenser åt sidan.

Det ända specifikt riktat mot dig var att jag undrade om 3Gb var officiell modell av GTX580 serien då jag har för mig det var något partnertillverkarna själva gjorde.

Ok jag missuppfattade då vad du skrev eftersom du skrev just... du, men menade oss alla/man.
Dock är det ju så att iaf AMD/nVidia inte har egna fabriker vilket ju gör att det är partnertillverkare som gör hela bunten av kort.

Permalänk
Medlem

Dom kan dock inget göra om dom bryter mot AMD/nvidias avtal. Bara se hur intel drog in NVidias licens för chipset. Så inte så intresant vem som gör dom då det är AMD/Nvida som dikterar villkoren. Bara se på Fjury X fiaskot med kass AIO kylare AMD envisas med.

Permalänk
Medlem
Skrivet av Svensktiger:

Kul läsning.
Även intressant när man var med från början =9
Kurvorna visar dock bara teoretiska prestanda, verkligheten såg ju lite annorlunda ut.

Voodoo2 konkurrerade ju först med Riva128 korten och ägde dom hårt.
Det var ju Quake2 som gällde och till slut så fick faktiskt nVidia till drivrutiner som gjorde det spelbart, men det var ju en hel del "fuskande" som krävdes.
Voodoo2 korten fixade ju t.ex. färgat ljus som glatt demades överallt, Riva klarade det inte
Det enda som Rvia128 kunde "skryta" med var att man kunde köra 3D i vilken upplösning som helst, förutsatt att stod ut med bildspel (i annat än original Quake).

Sen släpptes ju TNT som i vissa fall kunde matcha V2 korten, men framförallt så tillät dom högre upplösningar (än V2's 800x600) och 32bits färgdjup i 3d.
Även om man tvingades köra 800*600 för vettig prestanda i 32bit så visade quake3 (techdemot !) hur fint det kunde se ut.
TNT korten stödde även större texturer än 256x256, och det utnyttjades på vissa ställen i Q3 (upp till 1024x1024 vill jag minnas).
Men när det kom till rå FPS i spelsituationer så vann V2 korten ganska lätt, 3dfx hade vid det här laget blivit rena mästare på att snida ihop glidewrappers.

När TNT2 kom så var ju Voodoo3 redo och återigen så visade 3dfx att dom kunde, men vi hade tröttnat på glidewrappers etc för att få prestandan.
Microsoft pushade ju även D3D stenhårt vid den här tiden och d3d stödet i V3 korten var vill jag minnas lite sparsamt.
Med TNT2 så blev även 32bits gaming fullt möjligt, även i relativt höga upplösningar.

Sedan släpptes ju Geforce256 och resten är historia =).
nVidia körde stenhårt med "Transition and lighting" "T&L" och gjorde några imponerande demos.
Minns fortfarande mitt svindyra GF DDR som levde i hela 30 sekunder p.g.a. fläkten inte fungerade ur kartong !

ATI var ju relativt ointressanta för att dom endast i teorin var med och lekte i prestandaracet.
Först med Radeon 8500 så kom dom ju med en fullträff.
ATI hade lyssnat på MS och noga sett till att d3d formligen flög fram.
Tyvärr så tog det i sann ATI anda evigheter för dom att få till vettiga drivrutiner.
Ser fortfarande hur LAN kvällarna försenades varje gång p.g.a ATi killarna inte kunde köra spelen -.-

Och sen hade vi ju Matrox.
G200 levde ju på Milleniums storhet och recensenter såg mellan fingrarna med nackdelarna, som frånvarande OpenGL support t.ex.
Samma sak med G400, grym på pappret, men det utlovade OpenGL stödet fanns inte vid release.
Och trots detta så fick kortet ofta toppbetyg (!), vi trodde helt enkelt på att Matrox skulle fixa till drivrutinerna.
Men det gjorde dom aldrig och Matrox försvann in i glömskan hos gamers.

Edit: Hur 17 kunde jag glöma bort supercoola Matrox M3D!
Ett addon kort a'la 3dfx som faktiskt var helt OK för 3D, prestandan led iofs av att all data var tvunget att skyfflas via PCI bussen.
Men kortet var väldigt billigt, och helt OK !

Får inte Voodoo (1) vara med?

Matrox M3D hade sämre prestanda än Voodoo 1 men klarade högre upplösningar. Stödde vara Direct3D har jag för mig.

Minns WOW faktorn när jag skaffade min första Geforce 256

Permalänk
Medlem
Skrivet av m3tr0:

Jag har funderat länge på varför ökningen av fillraten bromsades in lite runt 2004 men det måste ju ha varit för att de började med programmerbara shaders på allvar kring den tiden (DX9). Det sparade ju en hel del bandbredd dessutom. Kostar fler transistorer men säkert mycket billigare än att öka bandbredd (och säkert roligare för programmerare).

Dock är man nog tvungen att använda teoretiska siffror för att ge jämförelse mellan alla kort genom åren. Drivrutiner, API:er och spelutvecklare har ju en stor roll när det gäller prestandan i praktiken men inte lika lätt att visa.

En trolig teori som jag själv inte har funderat på förrän nu

Permalänk
Hedersmedlem
Skrivet av pa1983:

Dom kan dock inget göra om dom bryter mot AMD/nvidias avtal. Bara se hur intel drog in NVidias licens för chipset. Så inte så intresant vem som gör dom då det är AMD/Nvida som dikterar villkoren. Bara se på Fjury X fiaskot med kass AIO kylare AMD envisas med.

Vad är det som kass med denna AIO kylare sedan de fixat pumpen/ljudet?

Permalänk
Medlem

Var kan jag välja köpa et Fjury X kort med luftkylning om jag inte har plats för radiatorn? Det är vad som är kasst plus självklart bristande kvalité i majoriteten av AIO kylare inklusive AMD's vilket tyvärr sabbar mer för AMD själva än någon annan. Kolla recensionerna av kortet, tror igen recensent var direkt "nöjd" med lösningen då jag läst påbe Swec, PCpers recentioner. Men som sagt jag ogillar alla AIO kylare och rekommenderar dom bara om det är det ända som passar lådan.

Har dom verkligen fixat pumpljudet? Var väl "bättre" bara på nyare kort om man hade tur när jag kollade upp dom "nya" recensionerna. Personligen anser jag det oacceptabelt att höra en pump och den för mer oväsendet än en referens blower.

Själv föredrar jag blowers men folk efterfrågar öppna luftkylare så varför ger AMD inte folket vad dom efterfrågar? Det är bara en dåliga affärsmetod det begriper ju alla.

Men som sagt rätt irrelevant för tråden detta då det är offtopic så nu ger jag mig då jag tycker tråden ska handla om TS ämne och inte personliga preferenser.

Permalänk
Medlem
Skrivet av pa1983:

Var kan jag välja köpa et Fjury X kort med luftkylning om jag inte har plats för radiatorn? Det är vad som är kasst plus självklart bristande kvalité i majoriteten av AIO kylare inklusive AMD's vilket tyvärr sabbar mer för AMD själva än någon annan. Kolla recensionerna av kortet, tror igen recensent var direkt "nöjd" med lösningen då jag läst påbe Swec, PCpers recentioner. Men som sagt jag ogillar alla AIO kylare och rekommenderar dom bara om det är det ända som passar lådan.

Har dom verkligen fixat pumpljudet? Var väl "bättre" bara på nyare kort om man hade tur när jag kollade upp dom "nya" recensionerna. Personligen anser jag det oacceptabelt att höra en pump och den för mer oväsendet än en referens blower.

Själv föredrar jag blowers men folk efterfrågar öppna luftkylare så varför ger AMD inte folket vad dom efterfrågar? Det är bara en dåliga affärsmetod det begriper ju alla.

Men som sagt rätt irrelevant för tråden detta då det är offtopic så nu ger jag mig då jag tycker tråden ska handla om TS ämne och inte personliga preferenser.

Som du ju säger själv:
Extremt irrelevant för tråden

Permalänk
Medlem
Skrivet av Herr Kantarell:

En trolig teori som jag själv inte har funderat på förrän nu

Jo jag kom på det först nu. Om det nu stämmer.

Hela tiden har man ju försökt spara på den dyra bandbredden.

Tidigt så började man komprimera texturer (S3TC). Man började även med att försöka se till att man inte renderar pixlar som inte kommer synas, komprimering på z-buffern osv (HyperZ). PowerVR var ju tidigt ute här med sin tile-based deferred rendering. Man började också snart med pixel shaders som sparade ännu mer bandbredd. Den här sparade bandbredden slukades dock snabbt upp igen av att man började med AF och MSAA på allvar. Tänk att allt detta hände innan år 2004 ungefär. Och nu har man ju börjat komprimera frame buffern också.

Permalänk
Medlem

Kommer ihåg när jag köpt mitt första 3dfx kort och satt och försökte patcha tomb rider att använda detta. Såååå bra det blev!!!