AMD Radeon R9 Fury X

Permalänk
Medlem

Tråkigt att prestandan inte räcker hela vägen men glatt överraskad att effektiviteten ökat så pass mycket.

Synd att framtiden kommer styras av Nvidia, hejdå vettiga priser.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Santrik:

Finns det någon internationell 'konkurrensbyrå' som i så fall skulle få i uppgift att dela Nvidia i två delar, eftersom att de blir den enda grafikkortsmakaren i världen?

Nej. Speciellt inte eftersom det är Intel som totalt dominerar grafikkortsmarknaden.

Permalänk

Är inte direkt förvånad över pumpen till denna slutna vattenkylningen och att den låter med tanke på att man själv haft sluten vattenkylning till processorn och det var man egentligen aldrig riktigt nöjd med.

Den presterar väldigt bra i 4K och bra i 1440P men i 1080P verkar det som att den tappar ganska mycket vilket inte känns så bra med tanke på vad kortet kostar.

Bättre energieffektivitet är välkommet och att kortet är så kompakt är riktigt tufft och praktiskt vilket är kul att se. HBM minnena verkar också prestera bra och göra sitt jobb och att det "bara" har 4GB blir aldrig något problem i högre upplösningar.

När det kommer till överklockning är Nvidia bara bäst och det är imponerande att se faktiskt för där har AMD svårt att hänga med i svängarna känns det som.

Jag tycker detta ser bra ut överlag och med bättre drivrutiner och kanske ett aningen lägre pris kan nog detta bli något även om Fury med luftkylare känns betydligt mer lockande efter att ha läst om pumpen till detta kortet.

För egen del ser man mer fram emot Fury och R9 Nano med tanke på att de kommer få lägre pris än Fury X och luftkylning och förhoppningsvis inte tumma för mycket på prestandan för då är risken att 390X blir det bättre kortet vilket inte borde ligga i AMD intresse med de grafikkorten.

Tack för en bra recension!

Visa signatur

Stationär Speldator: AMD Ryzen 7 2700 I AMD Radeon 6750 XT
Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti

Permalänk

Jag förstår inte varför alla här dömer Fury X så snabbt. Fury X är en purfärsk krets som fortfarande behöver många optimeringar genom drivrutiner. Kolla t.ex hur R9 290 presterade vid release och hur det presterar idag. Det krossar GTX 780 i dagsläget, men vid release så var 780 bättre. Samma sak med GTX 680/HD 7970 (770/280X).

''Dont judge a book by it's cover''

Permalänk
Medlem
Skrivet av cardeci:

Tja. Det finns annat än råa flops som begränsar FPS:en. Hur många % mer finns det av andra saker? Det kan ju helt enkelt var som så att SPU:s inte är det som throttlar i de här testerna.

Och att hoppas på att DX12 för med sig underverk för spelprestanda på grafikkort är inte riktigt förankrat i verkligheten. Det drar ner CPU-overheaden avsevärt (om det är ett DX12-spel), men inte GPU-användningen. Det förenklar framförallt drivrutinerna, men delar av det de nu gör flyttar istället till spelets kod, som hantering av allehanda resurser (säg, minne) på grafikkortet etc.

Folk i allmänhet verkar tro att det gör att behovet att hantera det helt försvinner (se t.ex. ryktena om att CF kommer använda "allt minne" på dina grafikkort, istället för att spegla, t.ex. (i verkligheten är det exakt som nu, Men spelet får välja och implementera CF-mode)).

Det kan iofs vara väldigt bra för AMD, eftersom mycket av jobbet flyttas från drivrutinsutvecklarna till spelutvecklarna.

Det är samma arkitektur och ökningen är precis samma, skulle något bottlenecka skulle det vara HBM-Minnet vilket det inte gör.

Det är definitivt en flaskhals orsakad av drivrutinerna, finns flera fall där nya kort slösar flops pga omogna drivers, bara och kolla på 290X vid release och dagens 290X. AMDs GCN arkitektur har varit bra på att vara up-to-date genom bättre drivrutiner, Kepler har Nvidia nästan slängt undan, 780 Ti förlorar mot 290X enormt idag och Kepler har flera problem (Witcher 3?).

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Medlem

Varför har man inte testat mot Gigabytes eller EVGA's fabriksöverklockade 980Ti?

Om man är intresserad av att köpa det bästa är det ju synda att de snabbaste korten på Nvidia sidan inte är med.

Permalänk
Medlem

Vilken rysare!

Visa signatur

Jag är ingen AMD, Intel eller Nvidia fanboy! Vid köpråd rekommenderar jag det som är mest prisvärt vid tillfället!

NZXT H440 | i7 5820K @ 3,8 GHz | EVGA GTX 980 SC | Crucial 16GB DDR4

EVGA G2 750W | MSI X99S SLI Plus | NZXT Kraken X41 | 256GB Samsung 850 Pro

Citera så jag hittar tillbaka!

Permalänk
Datavetare
Skrivet av FredrikMH:

Jag har sett det också. Flera tester så ligger genomsnittlig renderingstid för Nvidias kort stabilare än vad Fury och även 290X gör. Dessa problem har inte med minnet att göra men samma signal kan uppstå när minnet tillfälligt går över. Men det verkar vara återkommande i flera speltitlar.

Oavsett är det ingen big deal med spelen som är ute idag. Det jag baserar mina åsikter på är att om man söker runt på "4k vram usage" och letar i forumtrådar så hittar man flera exempel från några olika titlar där VRAM sticker iväg. Ibland på grund av en bugg men ibland för att det just behöver så mycket. Det i sin tur kan vara dåligt optimerade spel men oavsett tycker jag att man tar en liten risk med att köpa ett grafikkort med 4GB VRAM om man har eller ska köpa en 4K skärm.

De flesta kör ändå 1080p/1440p då det flesta gamingskärmar siktar på det. Fury X har ju oavsett stor potential.

Med tanke på hur Fury står sig pris- och prestandamässigt mot 980ti så håller jag med, ingen kan säga med säkerhet hur VRAM användningen blir i framtiden, finns ju inget i resultaten som talar emot 980ti och då har man en "försäkring" i mer VRAM och en bättre upplevelse idag.

Det som nog svider extra i TR resultatet är att Fury X trots allt levererar bättre 1%-worst case FPS än R9 290x, i den senare har man haft rätt gott om tid att optimera drivers. 980 blir i sin tur slagen en hel del på denna punkt av 980ti/Titan X (som har i princip identiskt resultat), så uppmätt "mjukheten" i 4k är bättre på motsvarande prissatt Nvidia-kort i dagsläget.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Fattar inte hur Fury X har sånt urdålig prestanda @ 1440p. Visst AMD, låter helt vettigt att köpa 1440p Hz FreeSync bildskärm. Fury visar inte ens 60 FPS prestanda med Witcher 3 @ 1440p* och när man slänger såna slantar på ett kort så måste man förvänta mera.

*Blir en liten tirad här. Med ini tweaks o OC på mitt 290X så kör jag ~50FPS (snarare 60 i Novigrad) med Ultra++, spelets grafik förinställningar e skit (t.ex om man stänger av ingame AA och sedan stänger av TemporalAA i rendering.ini så går det att tvinga 8xEQAA genom CCC utan at förlora prestanda och man får dessutom överlägsen IQ). Självklart om jag byte till Fury X så kan jag köra med samma inställningar med 60FPS (jag estimerar 10-15% prestanda från mitt nuvarande system med samma inställningar), men om jag ville maxa ännu mera och i framtiden installera mods (när REDKit kommer) så är Fury X ett uselt kort att köpa. Ta ett 980Ti med OC i räckvidd med Gigabytes G1, så ligger man 34% över Fury X, just nu sägs det att man får ut ~5-8% prestandaökning med en 10% OC (inväntar volt mods) så får man ändå mindre FPS än 980Ti referens**. Om jag tar 8% ökning då Ligger prestandan ungefär (1440p Ultra, Hairworks off):

**(http://www.guru3d.com/articles_pages/amd_radeon_r9_fury_x_review,20.html, http://www.guru3d.com/articles_pages/gigabyte_geforce_gtx_980...

Fury X: 53FPS
Fury X 10% Clock OC: 57FPS (~8% ökning) 25%
980Ti Referens: 61FPS
Gigabyte 980Ti G1: 71FPS (~+16% jämfört med referens, +~34% Fury X referens, ~+25% Fury X OC)

Med såna nummer kommer man behöva köra Fury X över 40% OC. Visst Fury X volt mods saknas, men det skulle vara dumt, även med CLC kylaren, att förvänta sig 40% OC med praktiska ökningar i prestanda.

Om Fury X hade prestanda i samma liga som G1, då hade det varit okej eftersom man har HBM och kan tom CFX när DX12 (memory pooling) kommer för att få 8GB HBM. Nu när vi vet läget blir det ganska lätt för mig att hoppa över 980Ti/Fury. Man skulle tro att 980Ti blir valet för nån som äger GTX 970/290X, den presterar bra men har GDDR5. När nästa generationens kort kommer med 8-16GB HBM2 2-4x ggr mer bandbredd så kommer det finnas nya spel osv som hittar bra användning för detta (redan säkerligen många devs där ute runkar på tanken om 8GB 2TB/s). Fury X är en besvikelse gällande rå prestanda och detta underspelar effekten som HBM v2 kommer ha i 2016.

Permalänk
Avstängd
Skrivet av Bazisten:

Usch vad kortet låter i vila och när det jobbar

Spoltjutet, eller om det är pumpen, låter som mitt Gigabyte Gaming-moderkort jag lämnade tillbaka och köpte ett billigare Gigabyte som var tyst. Man står ut i två minuter, sedan blir man galen. Inte acceptabelt AMD även på ett tidigt recensionsexemplar.

Visa signatur

Höghastighetsfiber är livet :)

Permalänk
Medlem
Skrivet av Helllodar:

Det är definitivt med drivers att göra.

Bara att vänta tills Windows 10 och nya drivers och sen benchmarka.

Det som var intressant var nog hellre 390X, den klår ju 980 i flera spel.

Om Fury X är GCN 1.2 och även har 45% mer kärnor ska den definitivt prestera 45% bättre vilket vi inte ser här, driver problem helt klart.

Ja, vi får vänta ett halvår på guld-drivrutinerna.

Permalänk
Medlem
Skrivet av OrlMrt:

Varför har man inte testat mot Gigabytes eller EVGA's fabriksöverklockade 980Ti?

Om man är intresserad av att köpa det bästa är det ju synda att de snabbaste korten på Nvidia sidan inte är med.

Finns nog här:
http://www.sweclockers.com/test/20730-amd-radeon-r9-fury-x/20...
http://www.sweclockers.com/test/20730-amd-radeon-r9-fury-x/17...

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Skrivet av Melinho2895:

Jag förstår inte varför alla här dömer Fury X så snabbt. Fury X är en purfärsk krets som fortfarande behöver många optimeringar genom drivrutiner. Kolla t.ex hur R9 290 presterade vid release och hur det presterar idag. Det krossar GTX 780 i dagsläget, men vid release så var 780 bättre. Samma sak med GTX 680/HD 7970 (770/280X).

''Dont judge a book by it's cover''

Men man vill ju ha prestanda nu och inte i framtiden då nya och bättre grafikkort är på gång.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Datavetare
Skrivet av Helllodar:

Det är samma arkitektur och ökningen är precis samma, skulle något bottlenecka skulle det vara HBM-Minnet vilket det inte gör.

Det är definitivt en flaskhals orsakad av drivrutinerna, finns flera fall där nya kort slösar flops pga omogna drivers, bara och kolla på 290X vid release och dagens 290X.

Finns andra potentiella flaskhalsar. 290x/390x har samma teoretisk pixel-fill-rate och triangle-setup-rate som Fury X, så titlar som är begränsad av t.ex. väldigt komplexa modeller kommer prestera väldigt snarlikt på dessa titlar. Här är lite syntetiska benchmarks som visar att man även ser detta i praktiken. Det är faktiskt en till potentiell förklaring kring varför Fury X presterar rätt nära 390x i 1920x1080 (har postat en annan gissning tidigare i denna tråd).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Helllodar:

Det är samma arkitektur och ökningen är precis samma, skulle något bottlenecka skulle det vara HBM-Minnet vilket det inte gör.

Fast om det verkligen är exakt samma arkitektur så borde ju redan drivrutinerna vara bra? Eftersom det är samma som 390x, bara fler enheter.

Permalänk
Medlem
Skrivet av Ragnarok:

Jag hade hoppats att AMD skulle kunna lyckas med ett kort tillslut, men jag vågade inte tro på det så jag gjorde som så många andra och köpte ett Nvidia kort innan fury X ens var testat. Tydligen inte ett dåligt val.

Undra om AMD reser sig efter Fury X floppen.

Flopp? say what?

Tänk på att det är första BETAdrivers dom kört med. Hur länge har nvidia haft tid och optimera sina drivers?
Visst man skall väl kanske inte förvänta sig några mirakel men med tanke på att kortet presterade riktigt bra redan så tror jag nog dom kan pressa nvidia avesvärt mycket mer än dom gör just nu.

Tänk på att det är helt nya tekniker i kortet som kanske tar lite extra tid också att få koll på för folket som kodar drivers och optimeringar.
första GCN som kom tog säkert ett halvår att få riktig fason på. Överklockning kommer absolut senare när dom fått koll på sina drivers nog för att våga släppa på volt etc och lyckas få allt stabilt nog.
Åter igen så är stabilitet vid OC någon som bara blir bättre och bättre ju fler drivers dom släpper.

Bör även nämnas att dessa kort oftast är pre production och inte alltid helt 100% som konsumentkorten, titta bara på kylaren och pumpljudet dom nämnde.

Nej, allt kan fortfarande hända och kommer troligen göra det också sen får vi se åt vilket håll det blir.

Visa signatur

MediaCen= Playstation 4, Playstation 3, Xbox 360, Proj= Epson TW700, Projduk= Grandview Cyber 100" tab-tension, Receiver= Marantz SR-6005, Front= Jamo S708, Cen= Jamo D8CEN, Surr= Jamo D8SUR, Surr bak= Jamo D8SUR, Sub= REL T3 + Audiovector K-Sub Signature, Köpta filmer= 1000++ och stiger stadigt

Permalänk
Medlem
Skrivet av leafbranch:

Ja, vi får vänta ett halvår på guld-drivrutinerna.

Fördelen med GCN arkitekturen har alltid varit att prestandan ökar genom tid, AMDs grafikkort har mer råprestanda.

Med Nvidia får man prestandan man vill direkt men den ökar inte inom tid.

Dagens 290X>>>>>>780 Ti till exempel. Jag vet inte vad som gömmer sig bakom GCN men vid råprestanda ligger GCN överlägset Maxwell, tyvärr är det tvärtom vid DirectX applikationer.

Visa signatur

Gpu: EVGA GeForce GTX 1080 TI FE Kraken G10+H110 Psu:Corsair AX760 Mb: Gigabyte Aorus Gaming 7 Cpu: Intel 8700k @5.2GHz @ 1.385V Cpu-kylare:EVGA CLC 280 Chassi:Define R5 Minne:G.Skill Ripjaws V 3600Mhz CL16 SSD:OCZ Arc 240GB HDD: Toshiba 3TB A-600

Permalänk
Medlem

Så jädrans less att behöva läsa år 2015 Exemplaret hade "spoltjut" va fasiken är det för fel på utvecklarna/tillverkarna? använd kvalleprylar i korten för en gångs skull!! billigt skräp som avger detta ljud är vad dem sätter i.... nej fi fan!

Permalänk
Inaktiv

Förstår inte alla klagomål på vattenkylaren. En äkta nörd skulle vara skitglad över det, misstänker starkt att vi har ett gäng apple wannabe nördar som sitter och trollar

Dock tråkigt med coil whine på test ex.

Var i övrigt lite besviken på test resultaten. Måhända drivarna slog slint. Löser det sig i framtiden? Kanske. Tar vram'en slut på framtida spel? Kanske.

Allt i allt förstår jag om folk avstår från att pynta 7 laks för kortet. Det hade jag själv avstått från i vilket fall som helst, men om jag nu trots allt skulle lägga de pengarna på ett grafikkort så skulle jag nog helst vilja känna att kortet är perfekt just där och då.

Permalänk
Medlem

Osäkerheten kring pumpens missljud ger mig en dålig känsla. Kommer produkterna i affärerna verkligen ha mindre missljud? Och det nästan obefintliga överklocknings utrymmet känns ju rent ut sagt dåligt.

Visa signatur

Platinum PS5 / 100% Steam achievements:
Demon's Souls Remake // Bloodborne // Elden Ring // Elden Ring Nightreign // Dark Souls 3

Permalänk
Medlem
Skrivet av Helllodar:

Fördelen med GCN arkitekturen har alltid varit att prestandan ökar genom tid, AMDs grafikkort har mer råprestanda.

Med Nvidia får man prestandan man vill direkt men den ökar inte inom tid.

Dagens 290X>>>>>>780 Ti till exempel. Jag vet inte vad som gömmer sig bakom GCN men vid råprestanda ligger GCN överlägset Maxwell, tyvärr är det tvärtom vid DirectX applikationer.

Ja, tills dx12 kommer.

Visa signatur

| Fractal Design Define Mini C | MSI Z490M MPG GAMING EDGE | Corsair RM750X 750W v2 | Intel Core i5 10600K |
|GIGABYTE RTX 3070 AORUS Master |Corsair 32GB DDR4 3200MHz CL16 |
| Asus Strix Raid DLX | Acer 27" Predator XB271HK G-Sync 4K IPS | Tobii 4C |
| LG OLED55B6V | nVidia Shield V2 |

Permalänk
Medlem

Utan att tillföra något vettigt, lite "meh" var det nog, 95% prestanda, 75% pris mot nvidias motsvarighet hade smakat bättre.

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem
Skrivet av Helllodar:

Fördelen med GCN arkitekturen har alltid varit att prestandan ökar genom tid, AMDs grafikkort har mer råprestanda.

Med Nvidia får man prestandan man vill direkt men den ökar inte inom tid.

Dagens 290X>>>>>>780 Ti till exempel. Jag vet inte vad som gömmer sig bakom GCN men vid råprestanda ligger GCN överlägset Maxwell, tyvärr är det tvärtom vid DirectX applikationer.

Nja, inte enligt SweClockers prestandaindex förutom i 4k.
780Ti vs 290X:
1080p: 101 vs 100
1440p: 100 vs 100
2160p: 95 vs 100

390X däremot är mycket bättre, men då har ju AMD jobbat hårt med att optimera det medan Nvidia inte längre bryr sig om 780Ti.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem

Härligt att AMD skickat ut kort till många recensenter som lider av både spoltjut och problem med pumpen. Känns ju sådär bra reklammässigt? Spoltjutet är nog tyvärr inget som går att åtgärda men det andra får vi hoppas att AMD fixat (som det påstås i artikeln här på swecl). Vill inte låta klyschig men "first impressions last" verkar inte var något de tagit till sig riktigt.

Hade hoppats på bra prestanda även i 1920x1080 så där blev jag lite besviken. Jaja, hoppas på bättre resultat nästa gång

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Snusfri

Blev som jag trodde en ny Bulldozer för AMD.
Lite tråkigt faktiskt då det hade varit bra om de satt lite mer eld i baken på Nvidia.

Bara att invänta Pascal med HBM v2 från Nvidia när AMD lekt försökskanin med första versionen och misslyckats.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Thinkpad E14 G5 - 16GB RAM - 512GB SSD
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 9 Pro XL

Permalänk
Medlem
Skrivet av ArcticFire:

Nja, inte enligt SweClockers prestandaindex förutom i 4k.
780Ti vs 290X:
1080p: 101 vs 100
1440p: 100 vs 100
2160p: 95 vs 100

390X däremot är mycket bättre, men då har ju AMD jobbat hårt med att optimera det medan Nvidia inte längre bryr sig om 780Ti.

Vem säger att Nvidia struntar i Kepler? Visst de där med Witcher 3 var otroligt dåligt, men att skriva att de inte längre bryr sig om prestandan i den serien är inget annat än skitsnack.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av THB:

Blev som jag trodde en ny Bulldozer för AMD.
Lite tråkigt faktiskt då det hade varit bra om de satt lite mer eld i baken på Nvidia.

Bara att invänta Pascal med HBM v2 från Nvidia när AMD lekt försökskanin med första versionen och misslyckats.

Knappast misslyckats va? Bättre prestanda än Titan X i vissa fall (4K) och en prislapp som är bra mycket lägre. Sen ordet försökskanin har inte mycket i detta sammanhanget att göra. Isådana fall så blir det Nvidia som är försökskaniner i deras nästa gen, för de har inte lärt sig något av AMD's process.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av coopish:

Och 980ti tredjepartslösningarna vinner även i 4k upplösning. Ingen i sina sinnens fulla bruk jämför väl mot 980ti i referensutförande? Så som Sweclockers test tydligen gör.

Självklart. Hur många köper referens? Väldigt få. Man ser ju hur vissa, t.ex Gigabyte och EVGA säljer 980Ti som presterar bättre än Titan X typ överallt.

Permalänk
Medlem
Skrivet av elajt_1:

Vem säger att Nvidia struntar i Kepler? Visst de där med Witcher 3 var otroligt dåligt, men att skriva att de inte längre bryr sig om prestandan i den serien är inget annat än skitsnack.

Har de gjort samma jobb som AMD gjort med 390X? Nej.
290X och 780Ti presterar ju jämnt förutom i 4k.

Visa signatur

De köper en bil. Säljaren säljer bilen till dem. Var är du? Vart ska du? Varifrån kom du?

Permalänk
Medlem
Skrivet av chipw00t:

Precis. Man måste ju göra som man själv vill.

Det borde ju inte spela någon roll för dig att jag tycker att 1080p och 980ti är en mismatch lika lite som jag bryr mig om att andra tycker att min åsikt i ämnet är felaktig. Alla måste ju inte tycka likadant. Tråkig värld vi skulle ha då.

Jag reagerade mest på grund av sättet du uttryckte dig! Självklart ska inte alla tycka lika, men om man nu, som jag tolkar det som att du faktiskt tycker, ska acceptera andras åsikter borde man inte kalla dessa dumma!

Självklart kommer folk reagera negativt och kanske ta illa upp om man skriver som du gör. Peace!

Skickades från m.sweclockers.com

Visa signatur

i7 4970k@4,7 GHz | Corsair H100i | 16GB Corsair DDR3 1600MHz | Asus z97-A | Gtx 970 Strix | OZC 750W | Hatar OS | Fractal Design R5 | Samsung 840 EVO 256gb
ASUS 24" VG248QE 144Hz + Två VA-paneler från Benq