Radeon "Fiji" enda nya grafikprocessorn i kommande 300-serien

Permalänk
Medlem
Skrivet av MakeCoke:

Fast 390x väntas ju ha 50-70% bättre prestanda än 290x till ungefär samma effektuttag. Då har de lyckats öka perf/W med, just det, 50-70%. Vad som däremot är illa är att de billigare korten kommer att dra nästan lika mycket som toppkorten p.g.a. gammal rebrandad teknik.

Ja om prestanda/watt faktiskt gått upp för i alla fall 390(X) så är det ju genast lite bättre.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem

Hatar när dom rebrandar kort, lika illa oavsett tillverkare.
Jag struntar i om ett kort drar lite mindre watt. Om "nya" 370 bara är rebrandade 270 som EVENTUELLT drar lite mindre watt så gör det mig inte gladare för det. Ex Tri-x kylare har inga problem att kyla 290/290x. Vad ger det mig som konsument om ett kort ger samma prestanda men drar mindre watt??

I bärbara enheter kan jag förstå det, men för desktop är det Bull, enligt mig.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Medlem
Skrivet av MakeCoke:

Passiva datorer — ja tack. Men att grafikkorten skulle komma att dra 500W är bara skitsnack. 250-300W är vad man kan kyla bort på ett vettigt sätt, och det är där omkring som toppkorten ligger.

Du missförstår mig. Det jag menade är att om alla resonerade att strömförbrukningen inte spelar (aldrig spelat) någon roll, hade vi idag (från begynnelsen fram till idag) haft kaminer i våra datorer som dessutom presterat betydligt sämre än dagens datorer.

Permalänk
Medlem
Skrivet av Lessismore:

Du missförstår mig. Det jag menade är att om alla resonerade att strömförbrukningen inte spelar (aldrig spelat) någon roll, hade vi idag (från begynnelsen fram till idag) haft kaminer i våra datorer som dessutom presterat betydligt sämre än dagens datorer.

Aha, okej. Det viktigaste är ju faktiskt att öka prestanda/W då det är det som avgör hur snabba kretsar man kan bygga. Slänga in fler beräkningsenheter och höja klockfrekvenser går ju bara till en viss gräns, sen går det inte att kyla bort längre.

Visa signatur

Bästa trådstarten någonsin.

Asus Zenbook UX430: 8550U, MX150, 16 GiB, 1 TB

Permalänk
Medlem
Skrivet av Nautilus011:

Hatar när dom rebrandar kort, lika illa oavsett tillverkare.
Jag struntar i om ett kort drar lite mindre watt. Om "nya" 370 bara är rebrandade 270 som EVENTUELLT drar lite mindre watt så gör det mig inte gladare för det. Ex Tri-x kylare har inga problem att kyla 290/290x. Vad ger det mig som konsument om ett kort ger samma prestanda men drar mindre watt??

I bärbara enheter kan jag förstå det, men för desktop är det Bull, enligt mig.

Det är stor skillnad om garafikkort drar mindre eller mer watt i alla fall i prestandaklassen. Dagens toppkort ligger snart på gränsen för vad som relativt enkelt och tyst går att kyla. Ökar ströförbrukningen mycket mer så krävs betydligt mer avancerade/dyra och ljudliga kyllösningar.

Visa signatur

Intel i7-3770K@4,5GHz 1,275V - ASRock P67 Pro3 REV B3 - Corsair Vengeance Pro DDR3 2133MHz 2x8GB - MSI GTX 1080 Gaming X - Samsung 840 EVO 120GB - WD Caviar Black 6TB - Seagate SV35 2TB - Noctua NH-C12P SE14 - LG DVD+-RW - Seasonic Focus+ Gold 750FX - Antec One Hundred - Dell 25" UltraSharp U2515H 1440p

Permalänk
Medlem
Skrivet av Obligatorisk:

Ja, eftersom strömförbrukningen är direkt relaterad till värmeutvecklingen. Ett strömsnålt grafikkort är ett svalt, och därmed potentiellt tyst grafikkort. För mig och många andra så är ljudnivån den absolut viktigaste faktorn.

Sitter på ett R9 290 just nu med stockkylare, låter som ett fanskap när det belastas, men vad gör väl det? När jag spelar har jag (och jag antar så gott som alla andra) hörlurar på mig. Utan belastning är kortet knäpptyst.

Jag var också en sån där som gjorde allt för att tysta ner lådan, men just nu är det bara idle-ljudet som är intressant. En bättre kylare slår f.ö. lite lägre strömförbrukning alla dagar i veckan. Köp inte stock så klarar ni er.

Visa signatur

i5 4670k 4.2Ghz 1.2v
AMD R9 290
Windows 10

Permalänk
Medlem

så länge man får bättre prestanda/krona så är jag nöjd;), även om det hade varit roligt att se fler nya kretsar,

jag skulle gissa på att de kommer se ut såhär tills nästa nod byte, för FIJI och även hawaii visar på en arkitektur som var planerad för mer ström effektiva noder,

och jag chansar på att de inte hade tid/råd att banta ner dem, om de visar en 45% höjning från hawaii tillsammans med en HELT ny ram teknik, så skulle jag fortfarande kalla det en riktigt bra krets! men det är ju upp till bevis den måste ju släppas först;)

jag har alltid valt de kraftfullare korten framför de strömsnålare då jag vill ha så mycket powah jag kan få;)

gtx 580 var nog det kortet som lärde mig att inte bry mig så mycket om strömförbrukning eftersom partner tillverkarna har blivit grymt bra med sina kylare;D

Permalänk
Master of Overkill
Skrivet av Obligatorisk:

Ja, eftersom strömförbrukningen är direkt relaterad till värmeutvecklingen. Ett strömsnålt grafikkort är ett svalt, och därmed potentiellt tyst grafikkort. För mig och många andra så är ljudnivån den absolut viktigaste faktorn.

Håller med allt handlar om värme och sånt, gillar kort som drar mindre och även presterar.

Ser ut som GM200 drar minst lika mycket som AMD så, dock lär Nvidia kosta typ 10-11k så RIP, jag gör inte om det iallfall.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av tvelander:

Håller med allt handlar om värme och sånt, gillar kort som drar mindre och även presterar.

Ser ut som GM200 drar minst lika mycket som AMD så, dock lär Nvidia kosta typ 10-11k så RIP, jag gör inte om det iallfall.

Såg nu i din signatur att du bytt från 4 Titans till 2 980:s. Får man fråga varför? Ger de tillräcklig prestanda för 3x 1440p?

Visa signatur

Bästa trådstarten någonsin.

Asus Zenbook UX430: 8550U, MX150, 16 GiB, 1 TB

Permalänk
Medlem

Prestanda/watt för 380 som är fiji verkar vara samma eller bättre än 980 maxwell. 380 startar vid högre effekt men kommer ha bättre pretanda än något singel kort.

Permalänk
Medlem
Skrivet av MakeCoke:

Jäkligt tråkigt. Jag vill inte ha något dyrt toppkort som drar en massa ström, utan ett billigare strömsnålt kort. När de gör så här så drar ju även de billigare korten en massa ström och saknar dessutom funktioner (så som Freesync, Trueaudio m.m.).

Bara 280X som saknande just det. Nya 3xx serien ska alla kort ha fullt stöd.

Skrivet av MakeCoke:

Fast 390x väntas ju ha 50-70% bättre prestanda än 290x till ungefär samma effektuttag. Då har de lyckats öka perf/W med, just det, 50-70%. Vad som däremot är illa är att de billigare korten kommer att dra nästan lika mycket som toppkorten p.g.a. gammal rebrandad teknik.

Får väl se när det släpps, Nvidia skalade ju bort allt dom kunde på 9xx serien för att pressa strömförbrukningen. AMD kan ju göra nått liknande på sina äldre kort men det viktigaste är att 3xx serien blir bättre på 4K (men misstänker bara toppkortet är närheten av acceptabel prestanda i 4k). Kommer väl dom stora förändringarna från båda tillverkaren med näste serie kort på 16 NM.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd
Skrivet av Friterad:

Självklart gör dom det, men inte till denna skalan, ganska patetiskt att efter så lång tid bara komma med 1 ny gpu, som faktiskt inte bara är ett nytt namn. Detta skadar ju oss eftersom det inte blir bra konkurrens mot Nvidia.

Men du som är så bra kan väl hjälpa dom att utveckla en ny gpu som bräcker nvidia då?Tyvärr har inte amd resurserna för det men det tänkte du inte på eller?

Visa signatur

FD refine S Msi x99s sli plus 5930k@4400mhz NH-D14 Asus GTX 980 Strix SLI 16gb gskill ripjaws ddr4 3ghz Os Samsung 950 pro 512gb NVME Spel samsung 840/850 evo/pro Win 10 Pro Corsair Ax850 Gold Asus PG278Q Rog Swift

Permalänk
Medlem
Skrivet av tvelander:

Håller med allt handlar om värme och sånt, gillar kort som drar mindre och även presterar.

Ser ut som GM200 drar minst lika mycket som AMD så, dock lär Nvidia kosta typ 10-11k så RIP, jag gör inte om det iallfall.

Skrivet av MakeCoke:

Såg nu i din signatur att du bytt från 4 Titans till 2 980:s. Får man fråga varför? Ger de tillräcklig prestanda för 3x 1440p?

Det är jag också väldigt nyfiken på, med tanke på att Tvelander ofta pratat så varmt om mycket minne. 4GB räcker idag ibland inte ens på 1 skärm för att inte tala om 3?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Avstängd
Skrivet av MakeCoke:

Du glömmer strömförbrukning och finesser såsom Mantle, Freesync, Trueaudio, G-sync, Shadowplay m.m.

Mitt GTX680 klarar av både G-sync och ShadowPlay så nu vet jag inte riktigt vad du menar.

Skrivet av Valiumballong:

Strömförbrukning, är det något som vi verkligen bryr oss om? På riktigt, alltså.

Ja, ju lägre strömförbrukning desto mindre värmeutveckling.

Skrivet av Lessismore:

Om alla resonerade som dig hade vi haft grafikkort som dragit 500+W, haft gigantiska kylare eller obligatorisk vattenkylning på enkla sketna grafikkort. Utvecklingen är illa som den redan är. Att överhuvudtaget behöva ha en fläkt i en dator är ju egentligen galet. Jämför en 60W glödlampa med en en 6W ledlampa. Båda levererar samma ljusmängd, ledlampan kräver bara 1/10-del av effekten och håller 10ggr längre.

Elpriset är kanske inte det mest alarmerande (ännu), men att slänga på hektovis koppar och en massa andra prylar för att hålla tempen i schack är ett oerhört slöseri på resurser, för att inte tala om belastning på konstruktionen där nästa steg kanske blir tvärslå'er mellan moderkort-grafikkort-chassi för att förhindra att allt säckar ihop.

Där kan jag verkligen inte hålla med dig, jag har bytt lampa oftare nu än vad jag behövde göra på glödlampans tid, jag har inte haft en enda LED-lampa som hållit i 1 år medan jag hade glödlampor som höll i 2 + att det blivit kallare i lägenheten eftersom glödlampan även gav värme vilket LED-lampan inte gör alls.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Master of Overkill
Skrivet av elajt_1:

Det är jag också väldigt nyfiken på, med tanke på att Tvelander ofta pratat så varmt om mycket minne. 4GB räcker idag ibland inte ens på 1 skärm för att inte tala om 3?

Jag har kvar datorn som den är, bara skaffat delarna i sign OCKSÅ

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Dinoman:

Jag misstänker att AMD helt enkelt inte har råd än att göra på detta viset. Det bör ju vara kostsamt att utveckla arkitekturer i olika prestandanivåer. På det här viset så kan man ju mycket billigt fortsätta att tjäna pengar på gammal utveckling.

Personligen är jag mycket skeptisk till denna metod och tycker det borde regleras. Är det noll och ingen som helst förändring mot föregående modell så borde det inte vara okej att leda konsumenten in på spåret att något nytt har lanserats när det i själva verket är återanvändning.

Innan "flame war":et drar igång så kan jag meddela att jag anser att både AMD och NVIDIA tillämpar denna metod på ett förkastligt sätt. Som ni ser i sign äger jag ett R9 290x. Så tack för mig.

Tror du inte delvist att det också beror på att man vill prova ut arkitekturen i mindre skara först? Så att eventuella fel skulle kosta mindre att åtgärda. Det tror jag mest på och att det naturligtvis blir både tids och kostnadsfråga.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Hjälpsam
Skrivet av Minsc S2:

Som sagt, en krets som blev så ignorerad och kritiserad att jag förträngt dess egentliga release-datum, hehe.

*Går och ställer mig i skamvrån*

Något verkar inte varit helt hundra med R9 285, vi får hoppas att de lyckas lösa problemen helt, saker har i all fall blivit mycket bättre med de senaste drivarna.

Skrivet av emilakered:

Ja, det blev ingen storsäljare direkt..

Rent tekniskt kan man väl räkna Bonaire (R7 260X) som ny också, även om kretsen faktiskt introducerades i 7000-serien med HD 7790. "Uppdaterade" funktioner för till exempel Trueaudio finns ju dock.

Få se nu...
R9 290(x), R7 260x och några svagare kort har GCN1.1 och R9 285 har GCN1.2, resten av de som duger till spel har GCN1.0 (R9 280(x) och R9 270(x)), har jag missat något?
Möjligtvis Kavaris APU:r som har GCN1.1, de duger ju till enklare spelande.
Hoppas att de i alla fall fasar ut alla med GCN1.0, de stödjer ju inte heller Freesync annat än för filmtittande.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Jag behöver nytt grafikkort nu. Rätt skönt att det inte är så mycket att vänta på då.
Känns bättre att investera i ett 290 nu. Innan dom har fått ut ett 390x med bra kylning till ok pris så är det väl höst.

Visa signatur

[]i5-2500k[]16gb[]R9-290[]

Permalänk
Medlem
Skrivet av jonas1972:

Men du som är så bra kan väl hjälpa dom att utveckla en ny gpu som bräcker nvidia då?Tyvärr har inte amd resurserna för det men det tänkte du inte på eller?

Vad är det för småbarns argument?

Permalänk
Moderator
Testpilot
Skrivet av Lessismore:

Om alla resonerade som dig hade vi haft grafikkort som dragit 500+W, haft gigantiska kylare eller obligatorisk vattenkylning på enkla sketna grafikkort. Utvecklingen är illa som den redan är. Att överhuvudtaget behöva ha en fläkt i en dator är ju egentligen galet. Jämför en 60W glödlampa med en en 6W ledlampa. Båda levererar samma ljusmängd, ledlampan kräver bara 1/10-del av effekten och håller 10ggr längre.

Elpriset är kanske inte det mest alarmerande (ännu), men att slänga på hektovis koppar och en massa andra prylar för att hålla tempen i schack är ett oerhört slöseri på resurser, för att inte tala om belastning på konstruktionen där nästa steg kanske blir tvärslå'er mellan moderkort-grafikkort-chassi för att förhindra att allt säckar ihop.

Ditt resonemang är ju fullkomligt skogstokigt.

Du drar paralleller mellan ljuskällor och grafikkort och lyckas finta bort dig själv något fantastiskt. För det första så är det en bransch som alldeles nyligen har utvecklats, innan LED-tekniken kom så hade det stått still i decennier, det var inte ett skit som förbättrades på det området innan LED kom.

För det andra så jämför du med ett konstant värde kontra ett variabelt värde. Ljuskällan avger samma (läs: likvärdigt) med ljus fast till en väsentligt lägre effektåtgång. Vad du missar i jämförelsen med grafikkort är att de olika generationerna av arkitekturer levererar inte samma prestanda, den är inte konstant. Prestandan ökar mer eller mindre linjärt medan effektförbrukningen inte alls ökar i samma takt.

Anledningen till att det har blivit en sådan skev diskussion angående effektförbrukningen på Hawaii aka R9 290x, beror enligt mig på två saker:

1. Effektuttaget var den högsta noteringen hittills på 290W.
2. Kylningen på referensexemplaret var tydligt underdimensionerad och kärnan tillåts gå upp till 95 grader.

Detta blev ett mediadrev som sedan väldigt många svalde med hull och hår, vilket också har skapat den förvrängda bilden om att Hawaii är en väldigt ineffektiv arkitektur. Lanseringen av Hawaii påminner väldigt mycket om Fermi, det gick precis samma diskussioner då och dom var precis lika felaktiga då som dom är nu. Nvidia har lärde sig sin läxa och från och med Fermi så har dom alltid haft fantastiska kylare, vilket jag är helt övertygad om har gett dom billiga poänger i diverse reviews.

Tittar man på Hawaii som lanserades 24 Oct 2013 och jämför den med GK110 7:e Nov 2013 så är dom två korten likvärdiga prestandamässigt där GTX 780 Ti har ett visst övertag.

R290x TDP = 290W
GTX 780 Ti TDP = 250W

HD 7970 TDP = 250W
GTX 580 TDP = 244W

HD 6970 TDP = 250W

HD 5870 TDP = 188W
GTX 480 TDP = 250W

HD 4890 TDP = 190W
GTX 280 TDP = 236W

Jag tror vi kan ta och lugna ner oss en smula angående effektdiskussionen. Visst ökar effektförbrukningen men som man kan se av exemplen ovan så ligger man inte så långt ifrån värstingkortet (GTX 280) som kom fem år tidigare än R9 290x.

Tänk på att Maxwell (GTX 980) och Hawaii (R9 290x) inte är direkt jämförbara då Maxwell är en ny arkitektur och det är Fiji som den bör jämföras med.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Avstängd
Skrivet av Dinoman:

Ditt resonemang är ju fullkomligt skogstokigt.
Du drar paralleller mellan ljuskällor och grafikkort och lyckas finta bort dig själv något fantastiskt. För det första så är det en bransch som alldeles nyligen har utvecklats, innan LED-tekniken kom så hade det stått still i decennier, det var inte ett skit som förbättrades på det området innan LED kom.

Resonemanget i sig är helt korrekt, då det löpande skett utveckling av glödlampor/belysning under alla åren, där det blivit mer ljus för mindre energi under tiden, lit grafikkort som nästan har ökande energiåtgång för att få ut mer prestanda än tidigare, så man kan säga att grafikkorten går tvärsemot ljuskällorna, medan ex cpu:er (oftast) får minskad energiåtgång, och "på köpet" något bättre prestanda löpande.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem

Tror vi får vänja oss vid att endast toppkorten är nyutvecklade och resten är ompackade chip med mindre modifieringar. Det är inte alls så stora reella teknikkliv längre, kostnaderna springer iväg, och jag får för mig att nya grafikkortsmodeller inte kommer lika ofta heller.

Skrivet av +_+:

Var inte ryktet först 8GB för de nya korten från AMD? Känns som att man börjar nå en nivå där 4GB är gränsfall för entusiastkorten tycker jag. Men jag kanske bara missförstod något från tidiagre rykten. Ingen ide att dra några slutsatser förrens de lanseras.

Skrivet av spel565:

Endast 4gb? Om kortet är så op lär minnet flaska i höga upplösningar.

För att SK Hynix inte kan producera HBM med högre täthet ännu. Men det kan komma 8GB-kort senare.
http://www.sweclockers.com/nyhet/20048-amd-radeon-300-serien-...

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Inaktiv
Skrivet av Obligatorisk:

Ja, eftersom strömförbrukningen är direkt relaterad till värmeutvecklingen. Ett strömsnålt grafikkort är ett svalt, och därmed potentiellt tyst grafikkort. För mig och många andra så är ljudnivån den absolut viktigaste faktorn.

Köp sega kort då?

Det är väl självklart att toppmodellen kommer sitta nära 300W för att de vill ha max prestanda ur den. Det går inte skrika till sig snabbast kort som också inte drar någon el. Beräkningar kostar ström hur man än gör. I för sig kan säkert AMD och Nvidia klocka ner toppmodeller tills de drar väldigt lite men är du beredd att betala nästan lika mycket för ett kort som är bra mycket segare men tystare? Har en känsla att du skulle vara först att skriva över skit prestanda då.

Permalänk
Medlem
Skrivet av Valiumballong:

Sitter på ett R9 290 just nu med stockkylare, låter som ett fanskap när det belastas, men vad gör väl det? När jag spelar har jag (och jag antar så gott som alla andra) hörlurar på mig. Utan belastning är kortet knäpptyst.

Jag var också en sån där som gjorde allt för att tysta ner lådan, men just nu är det bara idle-ljudet som är intressant. En bättre kylare slår f.ö. lite lägre strömförbrukning alla dagar i veckan. Köp inte stock så klarar ni er.

Mitt HD 6770 är passivt kylt, min CPU kyls av en Scythe Samurai-1000 där fläkten inte går att höra ens om man sätter örat bara cm från(och kan för övrigt stänga av fläkten om jag vill också, cpu går upp omkring 10C, men om jag tar bort OC så är den nästan tillbaks där vi började ändå, väldigt trevlig kylare när jag köpte den). Chassifläktarna är de enda som hörs(trots att de är satta på lägsta, korkade Antec 900 som inte förstår vad "tysta fläktar" är), men inte heller de hörs när lådan står bakom skrivbordet.

Så näh, jag spelar nästan aldrig med hörlurar på mig. Behövs inte. Och ska försöka åstadkomma än tystare system när jag snart köper nytt. Noctuas U14S lär bli det som löser dubbleringen av W i CPU.

Visa signatur

Moderkort: Gigabyte GA Z97-UD5H Black Edition, CPU: Intel i7 4790K, Kylare: Noctua U14S, RAM: 32GB Crucial Ballistix Sport XT 1866, GPU: Powercolor Radeon HD 7870 PCS+,
SSD: 256GB Crucial MX-100, HDD: 3TB WD Red, 2TB WD Red, PSU: Be Quiet Straight Power E-9 500W, Chassi: Cooler Master Silencio 652S

Permalänk
Medlem
Skrivet av DW75:

Mitt HD 6770 är passivt kylt [...]
Så näh, jag spelar nästan aldrig med hörlurar på mig. Behövs inte. Och ska försöka åstadkomma än tystare system när jag snart köper nytt. Noctuas U14S lär bli det som löser dubbleringen av W i CPU.

Handlar ju lite om vilka krav man har på sitt spelande.
Du prioriterar en tyst dator, men du skulle aldrig klara av att få en lika tyst dator om du skulle få för dig att spela på t.x. 144 hz och 1440p.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Rajat:

Där kan jag verkligen inte hålla med dig, jag har bytt lampa oftare nu än vad jag behövde göra på glödlampans tid, jag har inte haft en enda LED-lampa som hållit i 1 år medan jag hade glödlampor som höll i 2 + att det blivit kallare i lägenheten eftersom glödlampan även gav värme vilket LED-lampan inte gör alls.

Va? Hur tusan tar du död på LED-lampor på mindre än ett år?

Första LED jag köpte var väl för över 10 år sen, den fungerar fortfarande alldeles utmärkt, fast visst var den svindyr. Alla LED jag köpt sen dess, senaste 5 åren ungefär, ingen har gått sönder sen jag börjat använda de.

Märket Star trading har gett bra ljus för bäst pris hitills(dock drar de lite mycket ström, den som motsvarar >60W drar hela 9W, medans den första (över 300kr) jag köpte motsvarar knappt 60W och drar bara 2.5W).

Är du säker på att du inte misstar halogen eller lysrörslampor för LED?

Visa signatur

Moderkort: Gigabyte GA Z97-UD5H Black Edition, CPU: Intel i7 4790K, Kylare: Noctua U14S, RAM: 32GB Crucial Ballistix Sport XT 1866, GPU: Powercolor Radeon HD 7870 PCS+,
SSD: 256GB Crucial MX-100, HDD: 3TB WD Red, 2TB WD Red, PSU: Be Quiet Straight Power E-9 500W, Chassi: Cooler Master Silencio 652S

Permalänk
Medlem
Skrivet av DW75:

Va? Hur tusan tar du död på LED-lampor på mindre än ett år?

Första LED jag köpte var väl för över 10 år sen, den fungerar fortfarande alldeles utmärkt, fast visst var den svindyr. Alla LED jag köpt sen dess, senaste 5 åren ungefär, ingen har gått sönder sen jag börjat använda de.

Märket Star trading har gett bra ljus för bäst pris hitills(dock drar de lite mycket ström, den som motsvarar >60W drar hela 9W, medans den första (över 300kr) jag köpte motsvarar knappt 60W och drar bara 2.5W).

Är du säker på att du inte misstar halogen eller lysrörslampor för LED?

Jag har ingen aning varför vi pratar om glödlampor, men men.. LED har generellt längre livslängd, och varför? De har ingen glödtråd som är flera 100 grader varm och sitter och försöker oxidera varje sekund Det är därför svårt att jämföra lamporna på ett rätt och riktigt sätt. Notera att de också avger olika slags ljus, dvs olika våglängder. LED's kan fixa många färger (om du färgar in glaset) men LED skiljer sig väldigt starkt motför tex en natriumlampa. Det finns ju anledningar att vissa lampor föredras i vissa scenarion. Diskutera grafikkort nu och sluta med glödlampor xD

När det kommer till livslängd av glödlampor så fanns det en som var på i en övergiven bensinstation, konstant, i över 5 år här uppe i norr, om man ska lita på min far. Spelar roll om man slår av och på en hel del
Här finns en video som förklarar:

Permalänk
Medlem
Skrivet av MakeCoke:

Fast 390x väntas ju ha 50-70% bättre prestanda än 290x till ungefär samma effektuttag. Då har de lyckats öka perf/W med, just det, 50-70%. Vad som däremot är illa är att de billigare korten kommer att dra nästan lika mycket som toppkorten p.g.a. gammal rebrandad teknik.

Den ökningshypen hör man vid varenda nytt kort som skall komma (oavsett om det är nVidia eller AMD) men i praktiken landar det på sin höjd på 20-25% om man har tur...oftast har ökningen landat på 15% i snitt de senaste 10 åren...

Permalänk
Medlem
Skrivet av Lonefox:

Den ökningshypen hör man vid varenda nytt kort som skall komma (oavsett om det är nVidia eller AMD) men i praktiken landar det på sin höjd på 20-25% om man har tur...oftast har ökningen landat på 15% i snitt de senaste 10 åren...

Nja, tittar du på AMD så är 7970 typ 80% snabbare än 6970 och 290x över 30% snabbare än 7970 så där har du betydligt högre utveckling de senaste åren. Det är mest nVidia som förstör statistiken med alla extrasläpp med Ti och titan vilka äter upp skillnaderna något. 680 var mycket snabbare än 580 och 780ti var som sista kort den generationen betydligt snabbare än 680 även om original 780 inte var det. Nu vart dock inte 980 så mycket snabbare men nog är snittet högre än 15% de senaste åren. (har ej kollat längre tillbaks än nämnda kort dock)

Skickades från m.sweclockers.com

Visa signatur

Storburk: Ryzen 7 3700X, MSI B450M Mortar, FD Define Mini, CM M2 Silent 720W, 32 GB, RX 5700 XT 8GB, NVME SSD + HDD - HTPC: Ryzen 5 2400G, 16 GB, NVME SSD, BeQuiet 550W

Permalänk
Moderator
Testpilot
Skrivet av PowerNet:

Resonemanget i sig är helt korrekt, då det löpande skett utveckling av glödlampor/belysning under alla åren, där det blivit mer ljus för mindre energi under tiden, lit grafikkort som nästan har ökande energiåtgång för att få ut mer prestanda än tidigare, så man kan säga att grafikkorten går tvärsemot ljuskällorna, medan ex cpu:er (oftast) får minskad energiåtgång, och "på köpet" något bättre prestanda löpande.

Nej, resonemanget är felaktigt.

Han jämför en glödlampa med en LED-lampa och påpekar att LED-lampan kan uppnå samma ljusstyrka för en tiondel av energiåtgången, det resonemanget är korrekt, med glödlampan har inte förbättras löpande, den var precis lika effektiv vid slutet av sin livstid som i början, i princip. Den har ABSOLUT inte utvecklats på samma sätt som grafikkort.

Vad väldigt många verkar glömma är vilken explosionsartad förändring som har skett inom 3D-grafiken på väldigt kort tid. Det har inte på något sätt skett samma förändring på processor-sidan, vilket har gjort att Intel kan göra mer energieffektiva processorer till samma prestanda för det krävs inte mer prestanda i en PC idag. Det är väldigt tydligt om man kollar på Intels senaste Devils Canyon och jämför den med Sandy Bridge som kom för fyra år sedan. Skillnaden är försvinnande liten, speciellt i jämförelse med skillnaden mellan en GPU från den tiden t.ex. HD 6970 kontra R9 290. Där R9 290 presterar 194% bättre än HD 6970.

i7 4770K presterar knappast dubbelt så bra som i7 2700K.

Crysis 1920x1200 4xAA

HD 6970 (250W) = 37.5 FPS
R9 290x (275W) = 72.8 FPS (ca 194% ökning)

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt