Premiär! Fyndchans i SweClockers Månadens Drop

Nvidia Fermi: Nästa generation Geforce

Permalänk

Re: Nvidia Fermi: Nästa generation Geforce

Citat:

Ursprungligen inskrivet av Nyhet
På GPU Conference presenterar Nvidia den nya grafikprocessorn Fermi. Nykomlingen är från grunden och upp designad för generella beräkningar likt en massivt parallelliserad CPU.

Läs artikeln

GeForce ligger i dom!

Visa signatur

Gigabyte GA-MA770-DS3 | AMD Phenom II X3 720BE @ 3.5GHz | LeadTek GTX 260 | 4GB OCZ Reaper | Corsair 650W | 3DMARK06: 16723

Permalänk
Avstängd

Re: Re: Nvidia Fermi: Nästa generation Geforce

Citat:

Ursprungligen inskrivet av LameAimer Oskar
GeForce ligger i dom!

'

Gladforce möjligen när nvidia kickar sina physxanvändare som inte använder 2 nvidiakort utan 1 atikort och 1 nvidiakort.Kan lagligt klassas som utpressning,vilket är brottsligt enligt svensk lag::(
Men det fattar inte idioter med 1/2 nvidiakort som fortfarande kan använda physx.
MvH albanen..

Visa signatur

Fractal Design Refine R2 Asus Commando(1901) Q6600@3600mhz@Vattenkylning Corsair HX620W 4Gb 2x2 dominator 8500 Powercolor HD4870X2 Ikari Laser WD MyBook 500Gb@E-Sata 3dmark06@20436+/-
Win xp sp3/win 7 ultimate

Permalänk
Medlem

Nvidia Fermi: Nästa generation Geforce

Citat:

Ursprungligen inskrivet av alban
Gladforce möjligen när nvidia..... snip.....
MvH albanen..

Vad har ditt inlägg med hans kommentar angående NVidia Fermi att göra?

Permalänk

Re: Nvidia Fermi: Nästa generation Geforce

Citat:

Ursprungligen inskrivet av Buio
Vad har ditt inlägg med hans kommentar angående NVidia Fermi att göra?

Han rättade killens överentusiastiska inlägg.
Ett nytt specialkort bättre än någonsin på generella beräkningar synd bara att du måste använda en GPU från Nvidia för att få använda Nvidias generella beräkningsmonster.

Visa signatur

Belysningstekniker låter väl lagom flummigt?
signature your as this use backwards this read to enough dumb were you if

Permalänk
Avstängd

Kommer ihåg när en polare och jag käftade i månad efter månad om vitsen med att köpa en commodore 128 istället för en commodore 64. Jag hade en c64 o han hade ingen dator. (År 1986)

Senare när man fick en Amiga o han en Atari så var tugget igång igen i månad efter månad. ( ca år 1988 )

Vi var väl i tidiga tonåren.

Permalänk
Medlem

Re: Re: Nvidia Fermi: Nästa generation Geforce

Citat:

Ursprungligen inskrivet av mortifer666
Han rättade killens överentusiastiska inlägg.

Knappast, inlägget lät som en grinig unge som skriver kommentarer på allting han ser om NVidia oavsett vad det handlar om.

Dessutom finns det en tråd i just detta forum om just NVidia/ATI/PhysX.
Länk: http://www.sweclockers.com/forum/showthread.php?s=&threadid=8...

Permalänk
Medlem

Senast nvida hade en stor försening skylldes det på brist av komponent till strömförsörjningen.

Kanske dags för en vadslagning - vilken komponent kommer att beskyllas för att vara bristvaran som orsakar förseningen denna gång?

Visa signatur

Vägra fx 3of4 Pi 1M 1.84 s Memory remapping
Minnen har ingen egen hastighet. Märkningen anger bara vilken hastighet minnena uppges klara

Permalänk
Medlem

http://www.fudzilla.com/content/view/15798/34/

Citat:

Nvidia confirms

Fermi that was running PhysX at Jensen's GTC keynote was real but the one that we all took pictures of was a mock-up.

Oj, och folk som varit där säger att de inte äns sett ett Fermi engineering sample in action och ifrågasätter om Nvidia äns har ett fungerande engineering sample någonstans (journalister från techsidor). Då är frågan, en stor illusion eller var PhysX demot riktigt. Industrifolket börjar även sakta men säkert snacka om en Q1/Q2 launch (efter eventet nästan är över, GPU Technology Conference).

Verkar som du förlorade denna ronden mot Charlie, Shagy. Eller ljuger Fudzilla om VP erkännandet?

Permalänk
Medlem

När Nvidia skiftar generation så slår dem på stort, istället för att gå in halvhjärtat som AMD/ATI.

Visa signatur

Define XL R2 || CM Silent Pro M1000 || Asus Z490-F || Intel i9 10900k || Noctua NH-D15 || RTX 2080 || 64GB DDR4 || 1TB 970 Evo Plus M.2 + 1.5TB SSD + 2TB HDD || Win10 Pro

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Kraeshok
http://www.fudzilla.com/content/view/15798/34/

Oj, och folk som varit där säger att de inte äns sett ett Fermi engineering sample in action och ifrågasätter om Nvidia äns har ett fungerande engineering sample någonstans (journalister från techsidor). Då är frågan, en stor illusion eller var PhysX demot riktigt. Industrifolket börjar även sakta men säkert snacka om en Q1/Q2 launch (efter eventet nästan är över, GPU Technology Conference).

Verkar som du förlorade denna ronden mot Charlie, Shagy. Eller ljuger Fudzilla om VP erkännandet?

Jag har länge trott på en Q1/Q2 launch, orsaken är bla att Nvidia faktiskt inte officiellt anonserat någon Q4 launch.

Note 1: Nvidia PR was asked to comment on the faked cards earlier this evening. Their reply was, "I'm glad you're asking us before you write. That statement is false. The product that we displayed was an actual Fermi board. The demo ran on Fermi silicon." We do not believe all of that statement.
http://www.semiaccurate.com/2009/10/01/nvidia-fakes-fermi-boa...
Vem är det som är Clownen?
http://www.brightsideofnews.com/ och http://www.fudzilla.com/component/option,com_frontpage/Itemid... som hävdade att Nvidias yelds var bra, eller Charlie som hävdade att dom inte var klara för en release på länge än?
Det jäkliga är, att både Fudzilla och Bright Side har retat upp Nvidia ganska länge, jag tror att Nvidia "läckte" falska nyheter till just dom avsiktligt, för att ge betalt för gammal ost.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Ganska säker faktiskt att både BSoN och Fudzilla drog tillbaka det de sa om dåliga yields efter att Nvidia officielt sagt “Our (Nvidia’s) 40nm yields are fine. The rumors you are hearing are baseless.”. Vet att jag läste själv om 1.7~% yields hos Fudzilla men efter ett par dagar var den nyheten helt borta. Bara att när rykten blir dementerade tar seriösa nyhetssidor bort dom och ersätter med en officiell kommentar.
http://www.fudzilla.com/content/view/15689/34/

Semiaccurate är mer en sida för rykten som många gånger är sanna, falska samt delvis sanna/falska så att säga. Fast Charlie hade inte fel om mockup kortet. Lite problematiskt att en CEO står och ljuger på podiet framför utvecklare samt sina aktie ägare och alla som streamade eventet live på webben kan man tycka.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kraeshok
Ganska säker faktiskt att både BSoN och Fudzilla drog tillbaka det de sa om dåliga yields efter att Nvidia officielt sagt “Our (Nvidia’s) 40nm yields are fine. The rumors you are hearing are baseless.”. Vet att jag läste själv om 1.7~% yields hos Fudzilla men efter ett par dagar var den nyheten helt borta. Bara att när rykten blir dementerade tar seriösa nyhetssidor bort dom och ersätter med en officiell kommentar.
http://www.fudzilla.com/content/view/15689/34/

Semiaccurate är mer en sida för rykten som många gånger är sanna, falska samt delvis sanna/falska så att säga. Fast Charlie hade inte fel om mockup kortet. Lite problematiskt att en CEO står och ljuger på podiet framför utvecklare samt sina aktie ägare och alla som streamade eventet live på webben kan man tycka.

Vad jag har läst så finns ett Fermi kort men inte i "färdig form", så jag tycker inte detta är så mycket att tjafsa om.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Citat:

Ursprungligen inskrivet av P1nGviN
EVGA har väl inget kontrakt med AMD? Varför skulle de säga något annat än att Fermi kommer att vara the shit?

jag har hört att de ska producera ati-kort faktiskt, men har ingen länk, en annan swec-user sa det till mig

Visa signatur

Allting går upp för mig när solen går ner.

Permalänk
Medlem

Jag har läst att Intel har gjort nya grafikkort med 22nm teknik samt 512 bit bus och 4 GB GDDR 6 ram, enligt dom så skulle intels kort vara 8 ggr snabbare än 5870, detta ska släppas Q2 2010. Har såklart ingen länk men det är säkert sant.

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk
Entusiast

"GPGPU" kommer att vara den självklara delen i en dator som står för beräkningskraften i många fler applikationer än vad vi har idag.

x86-processorn i en dator kommer endast bli den del som supportar operativsystem, drivrutiner och IO-hantering.
GPGPU's står för den råa beräkningskraften i det flesta områdena.

Är inte det snart dags att införa en ny beteckning för detta?
Till exempel "GPPU" : "General Purpose Processing Unit".

Visa signatur

Bästa programmen till Linux - v2.0
Linux-guide: Val av grafisk miljö. (Att välja distribution).
-
Everyone should have a SGoC in their systems (SGoC: SysGhost on a Chip)

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Kraeshok
Semiaccurate är mer en sida för rykten som många gånger är sanna, falska samt delvis sanna/falska så att säga. Fast Charlie hade inte fel om mockup kortet. Lite problematiskt att en CEO står och ljuger på podiet framför utvecklare samt sina aktie ägare och alla som streamade eventet live på webben kan man tycka.

Synd bara att SA får en massa attention pga det, han var inte först med att upptäcka att det var en mockup. Men han var snabb på att haka på efter att han sett det på något av forumen som diskuterade NVidias presentation.

Charlie är en clown. Visst har han en del nyheter som är hans, snabba och sanna, men han är som en rabiat forum-fanboy med en egen sajt som får en massa uppmärksamhet. Jag undviker att läsa nyheter skriva av någon med en idiotisk enkelspårig agenda oavsett vem det är eller vad det gäller. Men taktiken han har verkar fungera, han är överlägset mest känd bland de som skriver tekniknyheter.

Citat:

Ursprungligen inskrivet av SysGhost
"GPGPU" kommer att vara den självklara delen i en dator som står för beräkningskraften i många fler applikationer än vad vi har idag.

Det tror jag också. CPU kommer förpassas till företagsdatorer med Word/Excel och bara sköta enklare uppgifter på kraftfulla framtida PC med GPU. Jag tror marknaden håller på att delas mer, där PC som behöver massor av beräkningskraft kommer att ha en eller fler GPGPU, medans låg- och mellanprestanda PC klarar sig med en allt-i-ett enhet som kommande Fusion t.ex. Anledningen är att GPGPU utvecklas mycket snabbare än en CPU och skillnaden i prestanda växer hela tiden.

Permalänk
Medlem

Vad tror ni om värmeutvecklingen på den här pjäsen? Om nu grafikkortet skall användas till så många andra processer än ren grafik blir det inte jäkligt svårt att hålla ner strömförbrukningen?

I dag lyckas de väl okej att ha en låg strömförbrukning i 2D mode, men i 3D drar det ju iväg. Så vad talar för att Fermi kommer att kunna bli ett svalt kort om det avlastar processorn mycket och inte ständigt kommer ligga på en effektförbrukning på 150 W?

Jag vet inget om skillnaderna mellan den belastning det innebär att utföra klassiska grafikuppgifter och de uppgifter nvidia menar att grafikkorten ska klara i framtiden. De uppgifterna borde väl ligga nära vad cpu:n gör idag eller?

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MrMcGee
Vad tror ni om värmeutvecklingen på den här pjäsen? Om nu grafikkortet skall användas till så många andra processer än ren grafik blir det inte jäkligt svårt att hålla ner strömförbrukningen?

BSN skrev om att konsumentkortet skulle ligga under 225W som max. Men är tveksamt till att de hade några riktiga fakta bakom det, utan det var spekulationer. Dock är det nog en rimlig uppskattning ändå. HD 5870 ligger på max 188W.

Permalänk
Medlem

Grejen är det att citatet “Our (Nvidia’s) 40nm yields are fine." som har tolkats som att produktionen av GT300 skall ligga bra till lika gärna kan ha misstolkats och egentligen betytt att Nvidia är nöjda med sina 40nm yields i stort. Och detta är självklart inget som Nvidia nödvändigtvis skulle bli direkt ledsna för om det hände;)

Taget från en post av användaren 265586888 på SA's forum.

"Em..., a fabrication process technology itself won't have a yield rate. The dies of a certain chip made on an fabrication process technology has yield rates. You can deem NVIDIA is saying the yield rate for all 40 nm products as a whole.

But let's not forget, NVIDIA's 40 nm lineup doesn't only have one member, the codenamed GT300/G300/D12U (or whatever NVIDIA is calling it right now), but also includes GeForce G 210/GT 220/G 210M/GT 220M/GT 230M/GT 240M/GTS 250M/GTS 260M.

That's doesn't free NVIDIA from the doubt of GT300/G300/D12U has a very low yield (as Charlie explicitly say the yield of GT300 from the hot lot is 1.7%)."

Nu har det alltså också framkommit att det kort som visades upp inte är ett riktigt fungerande kort utan en falsarium för att ha något att visa upp så känns det i alla fall för mig som att Nvidia är långt ifrån nära att släppa kort på marknaden. Så om det stämmer att yielden ligger under 2% så kan det mycket väl behövas en respin och då pratar vi många månader innan chippet ens är produktionsfärdigt.

Visa signatur

/havoc

Permalänk
Medlem

Det var så dåligt förfalskat att det är förvånande att de ens vågade göra det. Om de nu verkligen velat göra en bra mockup hade de inte misslyckats så fatalt. Känns lite som att VD:n i sista minuten kom på iden att han skulle visa upp ett kort och någon tekniker fick göra en nödlösning.

Intressant är att ingen verkar ha hittat vilket kort baksidan kommer ifrån, det är ju avsågat och verkar tillhöra något annan produktserie.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SysGhost
"GPGPU" kommer att vara den självklara delen i en dator som står för beräkningskraften i många fler applikationer än vad vi har idag.

x86-processorn i en dator kommer endast bli den del som supportar operativsystem, drivrutiner och IO-hantering.
GPGPU's står för den råa beräkningskraften i det flesta områdena.

Är inte det snart dags att införa en ny beteckning för detta?
Till exempel "GPPU" : "General Purpose Processing Unit".

Jag har svårt att se så många nya områden där GPU'n gör nytta (dvs parallella massiva beräkningar på samma datamängd) där det inte redan idag har börjat användas (tekniska beräkningar, videkomprimering, bild/video-behandling etc). De områdena kommer säkert GPU'n användas ännu oftare till.

Men att programmera shaders för parallella beräkningar blir ett rätt stort extra jobb, så det kommer bara ske där det verkligen gör nytta. Saker kommer gå rätt snabbt 2011 på en 8 kärnig Core-processor också.

Jag tror att GPU'n kommer bli en del av CPU'n, så att shader programmering blir en slags utökning av x86-koden. Självklart kan man lika gärna säga att CPU'n blir en del av GPU'n men min poäng är att det blir samma chip.
Nvidias problem är att slå länge de inte skaffar x86-tekniken så kan de inte ersätta CPU'n.

Fast det kommer dröja ett tag innan vi når detta för prestandadatorer, det kommer ju börja på billigare datorer med AMD's Fusion. Och Intel har väl säkert nån Larabee variant på gång för detta också.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av teejee
Jag tror att GPU'n kommer bli en del av CPU'n, så att shader programmering blir en slags utökning av x86-koden. Självklart kan man lika gärna säga att CPU'n blir en del av GPU'n men min poäng är att det blir samma chip.
Nvidias problem är att slå länge de inte skaffar x86-tekniken så kan de inte ersätta CPU'n.

Snarare är GPU snabbt på väg mot att kunna programmeras med vanlig C++ kod. Fermi är ett steg åt det hållet, Larrabee blir ett stort steg till.

Så länge GPGPU är separata kort tror jag inte NVidia kommer lida speciellt mycket av att inte ha x86 licens. Bara de gör sin GPU enkelt programmerbar kommer det inte vara något problem. NVidia har däremot önskan om att göra CPU också (likande Fusion), och där finns väl ett problem. Deras nya mediakretsar Tegra som sitter i t.ex. ZuneHD bygger på ARM.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
Snarare är GPU snabbt på väg mot att kunna programmeras med vanlig C++ kod. Fermi är ett steg åt det hållet, Larrabee blir ett stort steg till.

C++ är bara språket, du måste fortfarande programmera parallellt för shaders (http://en.wikipedia.org/wiki/Shader) , tar du en h264 decoder i c++ och kompilerar den direkt för Fermi (om det nu går utan stora problem) så kommer resultatet bli värdelöst.

Visst blir det kanske lite lättare att programmera i C++ för den mer övergripande logiken i beräkningarna, denna logik sköts nog ofta på CPU-sidan idag, så det blir nog lättare att göra mer komplexa och sammansatta beräkningsjobb som ligger enbart på GPU'n. Men allt hardcore beräkningsjobb måste ändå specialanpassas. Fermi har inte på något sätt löst problematiken med att utnyttja parallella processorer maximalt.

Permalänk
Medlem

Jag menar bara att GPU idag använder ett abtrakt API som heter DirectX, och i framtiden kommer inte det att behövas utan de programmeras på samma sätt som en CPU. Sen är det väl shaders på väg bort, det är cores som kan användas till vad som helst.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av teejee
C++ är bara språket, du måste fortfarande programmera parallellt för shaders (http://en.wikipedia.org/wiki/Shader) , tar du en h264 decoder i c++ och kompilerar den direkt för Fermi (om det nu går utan stora problem) så kommer resultatet bli värdelöst.

Det här med C++-stödet verkar ha blivit lite förvirrat. Det går inte att kompilera vanlig C++-kod och få den att köra på GPU, och jag är ganska säker på att det inte heller kommer gå med Fermi. Att Nvidia säger att de nu kommer stödja C++ borde helt enkelt betyda att de nu stödjer C++ i en CUDA-kernel, istället för bara C som förrut. Man måste fortfarande skriva CUDA-kernels och anpassa programmet för att få det att köra på GPUn. C++-stödet kan göra det lite trevligare att programmera CUDA, men är inget revolutionerande. Man kan redan nu använda C++ till resten av programmet om man vill, och endast skriva de delar som ska köras på GPUn i C för CUDA.

Shaders används förresten för grafik, och används sällan för parallella beräkningar. De är ett sätt att ändra funkionalitet på en del av grafik-pipelinen, så att man kan styra hur grafikkortet utför grafikberäkningarna mer noggrant. För generella beräkningar används istället C för CUDA, OpenCL eller liknande.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av perost
Det här med C++-stödet verkar ha blivit lite förvirrat. Det går inte att kompilera vanlig C++-kod och få den att köra på GPU, och jag är ganska säker på att det inte heller kommer gå med Fermi. Att Nvidia säger att de nu kommer stödja C++ borde helt enkelt betyda att de nu stödjer C++ i en CUDA-kernel, istället för bara C som förrut. Man måste fortfarande skriva CUDA-kernels och anpassa programmet för att få det att köra på GPUn. C++-stödet kan göra det lite trevligare att programmera CUDA, men är inget revolutionerande. Man kan redan nu använda C++ till resten av programmet om man vill, och endast skriva de delar som ska köras på GPUn i C för CUDA.

Shaders används förresten för grafik, och används sällan för parallella beräkningar. De är ett sätt att ändra funkionalitet på en del av grafik-pipelinen, så att man kan styra hur grafikkortet utför grafikberäkningarna mer noggrant. För generella beräkningar används istället C för CUDA, OpenCL eller liknande.

Jag får känslan att ditt svar passade bättre som svar på en del andra inlägg. För jag håller med dig i det mesta, kanske var otydligt i mitt inlägg
Jag använde nog begreppet shaders lite väl generellt också . Det är väl streams man pratar om vad gäller GPGPU-programmering. Men det är ju shader processorerna (SP) som används för GPGPU-beräkningarna också, så begreppen måste ju vara nära relaterade.

Tillägg: just, det när jag skrev att det kanske går att kompilera en h264-avkodare så tror jag nog att det kan gå att kompilera en C++ algoritm på Fermi, men den kommer ju bara gå i en tråd/stream om man inte skriver om den fullständigt så det blir ju värdelöst. Och det finnns säkert en massa begränsningar som t ex använding av diverse C++ libraries.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av teejee
Jag får känslan att ditt svar passade bättre som svar på en del andra inlägg. För jag håller med dig i det mesta, kanske var otydligt i mitt inlägg

Jo, jag ville bara klargöra lite, och ditt inlägg råkade bli offret. Inget illa menat

Citat:

Ursprungligen inskrivet av teejee

Jag använde nog begreppet shaders lite väl generellt också . Det är väl streams man pratar om vad gäller GPGPU-programmering. Men det är ju shader processorerna (SP) som används för GPGPU-beräkningarna också, så begreppen måste ju vara nära relaterade.

SP står faktiskt för Scalar Processor. Begreppet shader nämns över huvud taget inte i CUDA-dokumentationen.

Citat:

Ursprungligen inskrivet av teejee

Tillägg: just, det när jag skrev att det kanske går att kompilera en h264-avkodare så tror jag nog att det kan gå att kompilera en C++ algoritm på Fermi, men den kommer ju bara gå i en tråd/stream om man inte skriver om den fullständigt så det blir ju värdelöst. Och det finnns säkert en massa begränsningar som t ex använding av diverse C++ libraries.

Jo, det borde gå att bara slänga in C++-kod i en CUDA-kernel och köra, på samma sätt som C används nu, men man kommer som sagt att få värdelös prestanda. Däremot så måste man fortfarande använda CUDA, så det går inte att kompilera fristående C++-kod och köra den på GPUn.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av perost

SP står faktiskt för Scalar Processor. Begreppet shader nämns över huvud taget inte i CUDA-dokumentationen.

du har säkert helt rätt att Shader processor inte är korrekt, jag googlade lite och den förekommer enstaka gånger, men är nog en slarvig benämning. Däremot förekommer rätt ofta benämningen stream processor också. Allt för att förvirra

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av rafferaffe
jag har hört att de ska producera ati-kort faktiskt, men har ingen länk, en annan swec-user sa det till mig

Jag har kontakt med Evga och dom är inne i ett väldigt spännande samtal med Ati.... Mer än det är jag direkt förbjuden att säga utan att jag själv förlorar min för mig väldigt viktigs kontakt. Men dom är imponerade av 5870 och vet att det kommer både singel och dubbel mackor som kommer vara avsevärt snabbare och ha stöd för "mer" som bara väntar på tillåtelse att implentera i sin mjukvara.

Permalänk
Inaktiv
Citat:

Ursprungligen inskrivet av RaZman
När Nvidia skiftar generation så slår dem på stort, istället för att gå in halvhjärtat som AMD.

Grattis! Du är nu idiotförklarad.