Radeon "Fiji" enda nya grafikprocessorn i kommande 300-serien

Permalänk
Moderator
Testpilot
Skrivet av Videoapan:

Nja, tittar du på AMD så är 7970 typ 80% snabbare än 6970 och 290x över 30% snabbare än 7970 så där har du betydligt högre utveckling de senaste åren. Det är mest nVidia som förstör statistiken med alla extrasläpp med Ti och titan vilka äter upp skillnaderna något. 680 var mycket snabbare än 580 och 780ti var som sista kort den generationen betydligt snabbare än 680 även om original 780 inte var det. Nu vart dock inte 980 så mycket snabbare men nog är snittet högre än 15% de senaste åren. (har ej kollat längre tillbaks än nämnda kort dock)

Skickades från m.sweclockers.com

Man kan ju också se det så att GM204 är den "riktiga" uppföljaren till GK104 vilket betyder att GTX 980 är den naturliga uppföljaren till GTX 680 och där är prestandaskillnaden imponerande, speciellt med tanke på att 980 har en TDP på 165W och 680 195W.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Friterad:

Vad är det för småbarns argument?

Alltså, du klagade på att det var patetiskt att de bara designade en GPU till denna generationen. Att utveckla GPU:er av den här magnituden är det inte många som klarar av. Det är tråkigt att de inte har resurser att utveckla alla GPU:er från början. Men å andra sidan? Varför ska de lägga massa miljoner i utvecklingskostnader för att utveckla något de redan har? Om de behöver en GPU i 6TFLOP-klassen på 28nm och GCN, och de redan har en sådan, vad är vinsten med att utveckla en ny? Så länge de inte har en tillräckligt stor arkitekturförbättring eller ny tillverkningsprocess så finns det inte mening att utveckla från början vad man redan har. Sitter man och klagar på att de är patetiska så förtjänar man lite ett svar på samma nivå, att man får göra det bättre själv om man kan.

Skrivet av Dinoman:

Ditt resonemang är ju fullkomligt skogstokigt.

Du drar paralleller mellan ljuskällor och grafikkort och lyckas finta bort dig själv något fantastiskt. För det första så är det en bransch som alldeles nyligen har utvecklats, innan LED-tekniken kom så hade det stått still i decennier, det var inte ett skit som förbättrades på det området innan LED kom.

För det andra så jämför du med ett konstant värde kontra ett variabelt värde. Ljuskällan avger samma (läs: likvärdigt) med ljus fast till en väsentligt lägre effektåtgång. Vad du missar i jämförelsen med grafikkort är att de olika generationerna av arkitekturer levererar inte samma prestanda, den är inte konstant. Prestandan ökar mer eller mindre linjärt medan effektförbrukningen inte alls ökar i samma takt.

Anledningen till att det har blivit en sådan skev diskussion angående effektförbrukningen på Hawaii aka R9 290x, beror enligt mig på två saker:

1. Effektuttaget var den högsta noteringen hittills på 290W.
2. Kylningen på referensexemplaret var tydligt underdimensionerad och kärnan tillåts gå upp till 95 grader.

Detta blev ett mediadrev som sedan väldigt många svalde med hull och hår, vilket också har skapat den förvrängda bilden om att Hawaii är en väldigt ineffektiv arkitektur. Lanseringen av Hawaii påminner väldigt mycket om Fermi, det gick precis samma diskussioner då och dom var precis lika felaktiga då som dom är nu. Nvidia har lärde sig sin läxa och från och med Fermi så har dom alltid haft fantastiska kylare, vilket jag är helt övertygad om har gett dom billiga poänger i diverse reviews.

Tittar man på Hawaii som lanserades 24 Oct 2013 och jämför den med GK110 7:e Nov 2013 så är dom två korten likvärdiga prestandamässigt där GTX 780 Ti har ett visst övertag.

R290x TDP = 290W
GTX 780 Ti TDP = 250W

HD 7970 TDP = 250W
GTX 580 TDP = 244W

HD 6970 TDP = 250W

HD 5870 TDP = 188W
GTX 480 TDP = 250W

HD 4890 TDP = 190W
GTX 280 TDP = 236W

Jag tror vi kan ta och lugna ner oss en smula angående effektdiskussionen. Visst ökar effektförbrukningen men som man kan se av exemplen ovan så ligger man inte så långt ifrån värstingkortet (GTX 280) som kom fem år tidigare än R9 290x.

Tänk på att Maxwell (GTX 980) och Hawaii (R9 290x) inte är direkt jämförbara då Maxwell är en ny arkitektur och det är Fiji som den bör jämföras med.

Dold text

Håller med i det mesta, men det hör till ämnet att nVidia och AMD inte är riktigt lika när de anger TDP. 780Ti och 290X drar väldigt lika i praktiken, men har ganska olika TDP. GTX 580 drar 67W mer än 6970 i praktiken i Sweclockers test, men har samma TDP.
Poängen är att man borde uppjustera nVidias siffror i dina exempel en hel del, då blir ökningen i effektförbrukning de senaste åren ännu mindre.

Skrivet av Lonefox:

Den ökningshypen hör man vid varenda nytt kort som skall komma (oavsett om det är nVidia eller AMD) men i praktiken landar det på sin höjd på 20-25% om man har tur...oftast har ökningen landat på 15% i snitt de senaste 10 åren...

Nej. Inte alls, nu har ju väggen vid 28nm gjort att vi suttit kvar på samma generation ett tag, men jämför 780Ti mot GTX 580, även om du tar med mellanhoppet med 680 så blir det ganska enormt mycket större hopp, jämför sedan 580 med 280, och 280 mot 8800. Där är det minst 100% i snitt. Även om man räknar in mellanhopp som kommit ibland så är det inga 15% inte. Samma sak med AMD, 290X är ju inte riktigt en ny generation, men är ändå kring 32-34% över 7970 i SweClockers tester. 7970 mot 6970 är närmare 50%, serierna 3870-4870-5870 var det mer än 100% varje generation.

Då har vi ändå räknat på benchmarkresultat, som med olika flaskhalsar gör att man inte ser hela prestandavinsten. 100% högre grafikprestanda ger sällan 100% högre benchmarkresultat i samtida spel, eftersom även andra flaskhalsar pressas.

Faktum är att innan 28nm var det snarare regel än undantag att en generation gav 50-100%+.

Permalänk
Medlem
Skrivet av Obligatorisk:

Ja, eftersom strömförbrukningen är direkt relaterad till värmeutvecklingen. Ett strömsnålt grafikkort är ett svalt, och därmed potentiellt tyst grafikkort. För mig och många andra så är ljudnivån den absolut viktigaste faktorn.

nja med en tillräckligt stor kylare och tysta fläktar så blir kortet tyst nog för att man inte ska störa sig nämnvärt och ljudnivåerna har sjunkit enormt över åren på korten även om det fortfarande finns dammsugare till kylare.

Mina 2 mekaniska hårddiskar, cpu kylare och chassiefläktar låter mer än mitt R9 280 från Asus just nu pga att man har chassiet liggande med ena sidoplåten mot sitt träskrivbord.
(vibrationerna som förs över på en gång mot skrivbordet.
(känner hårddiskarnas vibrationer när man kör defrag eller benchmark på dem t ex )
Men är inte så känslig utav detta ljud direkt då man haft en högre ljudnivå från datorn konstant förut.
Även strömsnåla kort kan låta som bara den om de har en kass kylare eller en högljudd fläkt också och referenskylare är alltid vid highend kort något högljudda eller varma.

Har ett gammalt 9700 pro liggande som vid den tiden var bland de tystare modellerna trots att fläkten susar på i konstant 3k + rpm och det är en hel del strömsnålare än de flesta kort man har nu på marknaden så det är inte bara strömsnålare kretsar som är relaterat till ljudnivån.

Visa signatur

Ryzen 5 5600, MSI B450 Tomahawk Max, 2x8 gb kingston reaper 3200 mhz Gigabyte GTX 1660 Super OC och nätagg be quiet 700w SSD: 120 gb pny cs 900, Kingston Fury 1 tb, wd blue ssd 500gb

Permalänk
Medlem
Skrivet av #enbom:

Tråkigt... Men ganska väntat. Har ju varit så rätt länge nu. Mitt GTX770 är väl samma som GTX680 egentligen?

Jodå flashade mitt GTX 680 till GTX 770 men är ingen garanti att det funkar eftersom GTX 770 har högre speccade minnesmoduler som fixar högre klockfrekvenser!

Skickades från m.sweclockers.com

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Skrivet av Rajat:

Där kan jag verkligen inte hålla med dig, jag har bytt lampa oftare nu än vad jag behövde göra på glödlampans tid, jag har inte haft en enda LED-lampa som hållit i 1 år medan jag hade glödlampor som höll i 2 + att det blivit kallare i lägenheten eftersom glödlampan även gav värme vilket LED-lampan inte gör alls.

Just därför vanliga glödlampan fasas ut. Har köp led både från IKEA och ica , har suttit över ett år och fungerar än.

Oftast har man 3års garanti på led, så man kan lämna tillbaks för en ny. Låter som något galet hos dig med antigen elen eller otur med defekta lampor.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd
Skrivet av Broken-arrow:

Just därför vanliga glödlampan fasas ut. Har köp led både från IKEA och ica , har suttit över ett år och fungerar än.

Oftast har man 3års garanti på led, så man kan lämna tillbaks för en ny. Låter som något galet hos dig med antigen elen eller otur med defekta lampor.

Jag vill ha tillbaka glödlampan, den alstrade även värme och var mycket billigare, även i längden.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Skrivet av Rajat:

Jag vill ha tillbaka glödlampan, den alstrade även värme och var mycket billigare, även i längden.

En led glödlampa som inte är defekt håller 10år och man får tag i en för runt 70/100kr slå ut det på tio år och hur länge håller glödtrådslampa? 1/2år om man har tur. Kostar väl runt 20/30kr för ett två pack.

Så är inga större kostnader. Är det kalt inne kolla om du har kallras eller kolla så elementen är hela och fungerar.

Bor man där elen kostar, men värmen är betald på hyran. Så vill man inte ha dyra lampor som drar onödigt med el.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Avstängd
Skrivet av Broken-arrow:

En led glödlampa som inte är defekt håller 10år och man får tag i en för runt 70/100kr slå ut det på tio år och hur länge håller glödtrådslampa? 1/2år om man har tur. Kostar väl runt 20/30kr för ett två pack.

Så är inga större kostnader. Är det kalt inne kolla om du har kallras eller kolla så elementen är hela och fungerar.

Bor man där elen kostar, men värmen är betald på hyran. Så vill man inte ha dyra lampor som drar onödigt med el.

Som jag skrev tidigare, jag har haft glödlampor som hållit i 2+ år och en glödlampa drar inte så mycket ström så att jag går i personlig konkurs. Min dator drar mer än ifall jag hade haft 2-3 glödlampor i varenda rum.

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Medlem
Skrivet av fantomsmurfen:

Det är stor skillnad om garafikkort drar mindre eller mer watt i alla fall i prestandaklassen. Dagens toppkort ligger snart på gränsen för vad som relativt enkelt och tyst går att kyla. Ökar ströförbrukningen mycket mer så krävs betydligt mer avancerade/dyra och ljudliga kyllösningar.

Håller med dig om att strömförbrukningen inte får öka. Men kort som endast sänker strömförbrukningen är inte intressant enligt mig. Bäst är väl kort med bättre prestanda med lägre förbrukning, men kort med bättre prestanda till samma förbrukning tycker jag också är bra.

Visa signatur

Skärm: Acer XB271 HU, Keyboard: Corsair k95
Moderkort: Asus Prime-A Z690, GPU: RTX 4080
CPU: Intel i7 13700k, Ram: 32Gb DDR5 6000Hz
Chassi: Lian Li Lancool 3, Högtalare: ALTEC LANSING 5.1 THX
Disk 1: WD 850x 1Tb, Disk 2: WD 850x 2Tb,PSU: Seasonic Prime 1000w

Permalänk
Moderator
Testpilot
Skrivet av Aleshi:

...

Håller med i det mesta, men det hör till ämnet att nVidia och AMD inte är riktigt lika när de anger TDP. 780Ti och 290X drar väldigt lika i praktiken, men har ganska olika TDP. GTX 580 drar 67W mer än 6970 i praktiken i Sweclockers test, men har samma TDP.
Poängen är att man borde uppjustera nVidias siffror i dina exempel en hel del, då blir ökningen i effektförbrukning de senaste åren ännu mindre.

...

Jo så är det ju men jag valde att gå på officiella siffror, det förenklar jämförelsen men visst är det precis så som du säger. AMD/ATi är mer ärliga med sitt TDP. Sen så har Nvidia generellt bättre kylare än vad AMD använder sig av vilket i kombination med lågt satt TDP kan ge illusionen om att Nvidia har mer energieffektiva kretsar. De har energieffektiva kretsar men det är inte en sådan skillnad som många vill göra gällande.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Nej, resonemanget är felaktigt.

Han jämför en glödlampa med en LED-lampa och påpekar att LED-lampan kan uppnå samma ljusstyrka för en tiondel av energiåtgången, det resonemanget är korrekt, med glödlampan har inte förbättras löpande, den var precis lika effektiv vid slutet av sin livstid som i början, i princip. Den har ABSOLUT inte utvecklats på samma sätt som grafikkort.

Glödlampan var ju som bäst i början. Sen har den blivit sämre. Det finns en glödlampa på en brandstation i USA som har varit igång i över 100 år.

Kolla på glödlamps konspirationen! Väldigt intressant.

Visa signatur

Ryzen 5 5600, Geforce 1080

Permalänk
Medlem
Skrivet av Pantsoff:

Glödlampan var ju som bäst i början. Sen har den blivit sämre. Det finns en glödlampa på en brandstation i USA som har varit igång i över 100 år.

Kolla på glödlamps konspirationen! Väldigt intressant.

Nej, det där är så jävla dumt att man bara blir ledsen. Har med effektivitet att göra, de där lamporna från förr eller från östblocket ger inte alls samma ljusflöde per watt. Kolla upp den där lampan på brandstationen så ser du att den verkligen inte lyser starkt. Driftkostnaden för en glödlampa överstiger mångfalt inköpskostnaden. Att offra brinntid för ljusstyrka ger alltså mer för pengarna för kunden. Men det är klart, skulle inte bli lika bra dokumentär om man tog hänsyn till fakta.

EDIT: Du kan ju kolla hur många av dessa gamla glödlampor som klarar att leverera 600-700 lumen.

Permalänk
Avstängd
Skrivet av Dinoman:

Nej, resonemanget är felaktigt.
Han jämför en glödlampa med en LED-lampa och påpekar att LED-lampan kan uppnå samma ljusstyrka för en tiondel av energiåtgången, det resonemanget är korrekt, med glödlampan har inte förbättras löpande, den var precis lika effektiv vid slutet av sin livstid som i början, i princip. Den har ABSOLUT inte utvecklats på samma sätt som grafikkort.
Vad väldigt många verkar glömma är vilken explosionsartad förändring som har skett inom 3D-grafiken på väldigt kort tid. Det har inte på något sätt skett samma förändring på processor-sidan, vilket har gjort att Intel kan göra mer energieffektiva processorer till samma prestanda för det krävs inte mer prestanda i en PC idag. Det är väldigt tydligt om man kollar på Intels senaste Devils Canyon och jämför den med Sandy Bridge som kom för fyra år sedan. Skillnaden är försvinnande liten, speciellt i jämförelse med skillnaden mellan en GPU från den tiden t.ex. HD 6970 kontra R9 290. Där R9 290 presterar 194% bättre än HD 6970.
i7 4770K presterar knappast dubbelt så bra som i7 2700K.

Nej, resonemanget är helt korrekt, då tekniken för att ge ljus har förfinats under alla år, från glödlampor, till lågenergilampor, halogen, och nud LED lampor.
Grunden är densamma, att de ska ge ljus, och där ligger grafikkorten efter i effektivitet mot hur ljudkällorna utvecklats från en 50W ljuskälla, till att en ljuskälla som bygger på nyare teknik (LED) ger samma ljus för ca 6W förbrukning vilket för en minskning med ca 88% i energiåtgång.
Så resonemanget är korrekt att ljuskällor gått framåt snabbare, och minskar sin energiåtgång mot vad ex grafikkort, eller cpuer för den delen gör i dagsläget.
Där det på grafikkort och cpuer är relativt liten ökning i prestandan mellan 2 cpu serier, eller 2 grafikkorts serier medans minskningen på energiåtgången står still, eller till och med att de drar mer ström än tidigare.

Skrivet av Rajat:

Jag vill ha tillbaka glödlampan, den alstrade även värme och var mycket billigare, även i längden.

Om du nu vill ha glödlampor så får du köpa det, ingen som hindrar dig direkt

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Medlem
Skrivet av Aleshi:

Alltså, du klagade på att det var patetiskt att de bara designade en GPU till denna generationen. Att utveckla GPU:er av den här magnituden är det inte många som klarar av. Det är tråkigt att de inte har resurser att utveckla alla GPU:er från början. Men å andra sidan? Varför ska de lägga massa miljoner i utvecklingskostnader för att utveckla något de redan har? Om de behöver en GPU i 6TFLOP-klassen på 28nm och GCN, och de redan har en sådan, vad är vinsten med att utveckla en ny? Så länge de inte har en tillräckligt stor arkitekturförbättring eller ny tillverkningsprocess så finns det inte mening att utveckla från början vad man redan har. Sitter man och klagar på att de är patetiska så förtjänar man lite ett svar på samma nivå, att man får göra det bättre själv om man kan.

Håller med i det mesta, men det hör till ämnet att nVidia och AMD inte är riktigt lika när de anger TDP. 780Ti och 290X drar väldigt lika i praktiken, men har ganska olika TDP. GTX 580 drar 67W mer än 6970 i praktiken i Sweclockers test, men har samma TDP.
Poängen är att man borde uppjustera nVidias siffror i dina exempel en hel del, då blir ökningen i effektförbrukning de senaste åren ännu mindre.

Nej. Inte alls, nu har ju väggen vid 28nm gjort att vi suttit kvar på samma generation ett tag, men jämför 780Ti mot GTX 580, även om du tar med mellanhoppet med 680 så blir det ganska enormt mycket större hopp, jämför sedan 580 med 280, och 280 mot 8800. Där är det minst 100% i snitt. Även om man räknar in mellanhopp som kommit ibland så är det inga 15% inte. Samma sak med AMD, 290X är ju inte riktigt en ny generation, men är ändå kring 32-34% över 7970 i SweClockers tester. 7970 mot 6970 är närmare 50%, serierna 3870-4870-5870 var det mer än 100% varje generation.

Då har vi ändå räknat på benchmarkresultat, som med olika flaskhalsar gör att man inte ser hela prestandavinsten. 100% högre grafikprestanda ger sällan 100% högre benchmarkresultat i samtida spel, eftersom även andra flaskhalsar pressas.

Faktum är att innan 28nm var det snarare regel än undantag att en generation gav 50-100%+.

Jag tycker att argumentet "gör det bättre själv" är fånigt, speciellt med tanke på att jag är kund och dom är företaget med miljardresurser. Knappast jämförbart utan bara ett dåligt sätt att försvara företaget

Jag vet att det inte går bra för dom, men en enda gpu med ny teknik? Hur kan dom förvänta sig att tjäna ihop pengar om dom bara ger majoriteten av kunderna gammal teknik? Det är en gpu som är ny och det är den bästa vilket också är en dyrare som få kommer köpa. Enligt mig är det ett dumt val helt enkelt

Permalänk
Medlem
Skrivet av Friterad:

Jag tycker att argumentet "gör det bättre själv" är fånigt, speciellt med tanke på att jag är kund och dom är företaget med miljardresurser. Knappast jämförbart utan bara ett dåligt sätt att försvara företaget

Ja det är lite fånigt, men det var ett fånigt svar på ett fånigt inlägg är min poäng.

Skrivet av Friterad:

Jag vet att det inte går bra för dom, men en enda gpu med ny teknik? Hur kan dom förvänta sig att tjäna ihop pengar om dom bara ger majoriteten av kunderna gammal teknik? Det är en gpu som är ny och det är den bästa vilket också är en dyrare som få kommer köpa. Enligt mig är det ett dumt val helt enkelt

Men du kan inte förklara varför? Varför ska de lägga ner många miljoner på att släppa ett chip som i princip blir likadant som ett som de redan har utvecklat? Vad är poängen? För att du ska känna att produkten är fräsch? Som sagt, behöver de en krets i 6TFLOPS-klassen med GCN på 28nm, varför inte använda den de redan har? Att utveckla en ny tillför ju inte så mycket eller hur?
Det är först meningsfullt antingen när de gjort ett arkitekturellt genombrott eller när de har ny tillverkningsteknik. Om de ska uppfinna hjulet från början och lägga massa pengar på att utveckla om likadana kretsar från början både med 200-serien och 300-serien så minskar chansen rejält att vi får se någon 400-serie.

Permalänk
Medlem
Skrivet av Aleshi:

Ja det är lite fånigt, men det var ett fånigt svar på ett fånigt inlägg är min poäng.

Men du kan inte förklara varför? Varför ska de lägga ner många miljoner på att släppa ett chip som i princip blir likadant som ett som de redan har utvecklat? Vad är poängen? För att du ska känna att produkten är fräsch? Som sagt, behöver de en krets i 6TFLOPS-klassen med GCN på 28nm, varför inte använda den de redan har? Att utveckla en ny tillför ju inte så mycket eller hur?
Det är först meningsfullt antingen när de gjort ett arkitekturellt genombrott eller när de har ny tillverkningsteknik. Om de ska uppfinna hjulet från början och lägga massa pengar på att utveckla om likadana kretsar från början både med 200-serien och 300-serien så minskar chansen rejält att vi får se någon 400-serie.

Det är inte ett fånigt inlägg bara för att du inte håller med, men visst vi säger väl så.

Man kan lika gärna undra varför dom överhuvudtaget kommer med något nytt alls då om det nu är så. 390X om den nu kommer heta det kommer ju vara den enda som har den nya tekniken och då även vara den av dom korten som kommer sälja minst med tanke på prisklassen. Det ska ju vara bättre nu, visserligen säkert överdrivna rykten men om det nu är mycket bättre än förra generationen så hade dom kunnat göra i alla fall mer än ett kort med det nya, speciellt med tanke på att dom knappt kommit med nya grejer sedan, ja, vad är det? 2012? Dom har kört den här leken nu ett tag och bytt namn på massa gpu'er, går det bättre för AMD idag? Verkar inte så, möjligtvis en smula bättre pga konsolerna och det men att det är någon stor vinst tror jag inte.

Om AMD ska ta sig fram och konkurrera riktigt mot Nvidia, så räcker det inte att ha rå prestanda som är lika bra i samma prisklass, man ska ha bra värmeutveckling, bra drivrutiner, bra programvara osv. Dom måste göra något riktigt bra och ge Nvidia en stor fet smäll. Kände en del hype efter dessa rykten om deras nya gpu, men det sjönk rätt bra när man fick reda på att bara ett kort är nytt. Gång på gång har man blivit besviken på AMD, inget man är glad över att det går dåligt för dom och dom har ju gått många miljarder i back vilket säkert bara kommer fortsätta.

Permalänk
Medlem
Skrivet av Dinoman:

Ditt resonemang är ju fullkomligt skogstokigt.

Du drar paralleller mellan ljuskällor och grafikkort och lyckas finta bort dig själv något fantastiskt. För det första så är det en bransch som alldeles nyligen har utvecklats, innan LED-tekniken kom så hade det stått still i decennier, det var inte ett skit som förbättrades på det området innan LED kom.

För det andra så jämför du med ett konstant värde kontra ett variabelt värde. Ljuskällan avger samma (läs: likvärdigt) med ljus fast till en väsentligt lägre effektåtgång. Vad du missar i jämförelsen med grafikkort är att de olika generationerna av arkitekturer levererar inte samma prestanda, den är inte konstant. Prestandan ökar mer eller mindre linjärt medan effektförbrukningen inte alls ökar i samma takt.

Anledningen till att det har blivit en sådan skev diskussion angående effektförbrukningen på Hawaii aka R9 290x, beror enligt mig på två saker:

1. Effektuttaget var den högsta noteringen hittills på 290W.
2. Kylningen på referensexemplaret var tydligt underdimensionerad och kärnan tillåts gå upp till 95 grader.

Detta blev ett mediadrev som sedan väldigt många svalde med hull och hår, vilket också har skapat den förvrängda bilden om att Hawaii är en väldigt ineffektiv arkitektur. Lanseringen av Hawaii påminner väldigt mycket om Fermi, det gick precis samma diskussioner då och dom var precis lika felaktiga då som dom är nu. Nvidia har lärde sig sin läxa och från och med Fermi så har dom alltid haft fantastiska kylare, vilket jag är helt övertygad om har gett dom billiga poänger i diverse reviews.

Tittar man på Hawaii som lanserades 24 Oct 2013 och jämför den med GK110 7:e Nov 2013 så är dom två korten likvärdiga prestandamässigt där GTX 780 Ti har ett visst övertag.

R290x TDP = 290W
GTX 780 Ti TDP = 250W

HD 7970 TDP = 250W
GTX 580 TDP = 244W

HD 6970 TDP = 250W

HD 5870 TDP = 188W
GTX 480 TDP = 250W

HD 4890 TDP = 190W
GTX 280 TDP = 236W

Jag tror vi kan ta och lugna ner oss en smula angående effektdiskussionen. Visst ökar effektförbrukningen men som man kan se av exemplen ovan så ligger man inte så långt ifrån värstingkortet (GTX 280) som kom fem år tidigare än R9 290x.

Tänk på att Maxwell (GTX 980) och Hawaii (R9 290x) inte är direkt jämförbara då Maxwell är en ny arkitektur och det är Fiji som den bör jämföras med.

Åååhh, att jag ens drog upp glödlampor vs LEDlampor, den här tråden har spårat duktigt nu

Jag försöker inte få AMD's produkter att framstå som sämre än nVidia's. Det jag menade är att tekniken gått fel spår iom att vi accepterar strömtörstiga grafikkort med högljudda fläktar, som kräver skrymmande chassin och tunga kylare.

Vad blir prestandan vs effektförbrukningen och dess kylanordning om grafikkortsmakarna väljer att optimera tillverkningsprocessen med åtanke i att halvera klockfrekvensen? Jag tror inte man kan göra en direkt jämförelse genom att ta ett R9-290X och klocka ned till 500Mhz, det blir inte rättvis jämförelse.

Halva storleken, 70% av prestandan, 100W effektförbrukning och passivt kylt? Isf ska DET vara AMD's toppkort, där lägger vi ribban. nVidia ska så klart göra detsamma.

Men nu är vi där vi är och det är svårt att göra om.

Skickades från m.sweclockers.com

Permalänk
Avstängd
Skrivet av PowerNet:

Om du nu vill ha glödlampor så får du köpa det, ingen som hindrar dig direkt

Jo, EU förbjuder mig men du har tydligen missat det

Varför försvann glödlampan?

Visa signatur

The problem in society today: Smart phones, stupid people.

Permalänk
Avstängd
Skrivet av Rajat:

Jo, EU förbjuder mig men du har tydligen missat det

Varför försvann glödlampan?

Ingen slm missat det, och det är inget förbud mot köpande.
Utan de får inte importeras till EU längre.
Men det finns rätt mycket glödlampor kvar ute i både butiker, och i olika lager.
Och om jag inte minns helt fel, så får de fortfarande importeras/tillverkas inom EU via vissa undantag i reglerna.
Så glödlamporna kommer inte försvinna ur hemmen på rätt många års sikt.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||

Permalänk
Skrivet av Friterad:

Det är inte ett fånigt inlägg bara för att du inte håller med, men visst vi säger väl så.

Man kan lika gärna undra varför dom överhuvudtaget kommer med något nytt alls då om det nu är så. 390X om den nu kommer heta det kommer ju vara den enda som har den nya tekniken och då även vara den av dom korten som kommer sälja minst med tanke på prisklassen. Det ska ju vara bättre nu, visserligen säkert överdrivna rykten men om det nu är mycket bättre än förra generationen så hade dom kunnat göra i alla fall mer än ett kort med det nya, speciellt med tanke på att dom knappt kommit med nya grejer sedan, ja, vad är det? 2012? Dom har kört den här leken nu ett tag och bytt namn på massa gpu'er, går det bättre för AMD idag? Verkar inte så, möjligtvis en smula bättre pga konsolerna och det men att det är någon stor vinst tror jag inte.

Om AMD ska ta sig fram och konkurrera riktigt mot Nvidia, så räcker det inte att ha rå prestanda som är lika bra i samma prisklass, man ska ha bra värmeutveckling, bra drivrutiner, bra programvara osv. Dom måste göra något riktigt bra och ge Nvidia en stor fet smäll. Kände en del hype efter dessa rykten om deras nya gpu, men det sjönk rätt bra när man fick reda på att bara ett kort är nytt. Gång på gång har man blivit besviken på AMD, inget man är glad över att det går dåligt för dom och dom har ju gått många miljarder i back vilket säkert bara kommer fortsätta.

Fast..... Drivrutinerna är det inget större fel på. Har haft AMD i drygt ett halvår och har inte haft ett enda problem med drivrutinerna ännu.

Hade ett GTX 570 där det var en bugg som hängde med i typ varannan ny drivrutin enda från 2011 till mitten av 2014. Kortet låste sig i idle frekvenser och man var tvungen att starta om datorn för att det skulle återgå till normala frekvenser. Lagom kul att starta upp ett spel och ha 5 fps.

Du snackar om att de ska ge Nvidia en stor fet smäll. Det är inte rätt läge för dem att satsa allt. Varför göra en helt galen satsning på en tillverkningsteknik som är påväg bort, utdömd? Tänk lite.

Visa signatur

| Intel i5-4670k @ 4.6Ghz | Noctua NH-U12P SE2 | Asus GTX 980 | ASUS Z-87 A| Några SSD | Corsair TX V2 750W PSU | 12GB DDR3 Ram|

Permalänk
Medlem
Skrivet av Wallman_91:

Fast..... Drivrutinerna är det inget större fel på. Har haft AMD i drygt ett halvår och har inte haft ett enda problem med drivrutinerna ännu.

Hade ett GTX 570 där det var en bugg som hängde med i typ varannan ny drivrutin enda från 2011 till mitten av 2014. Kortet låste sig i idle frekvenser och man var tvungen att starta om datorn för att det skulle återgå till normala frekvenser. Lagom kul att starta upp ett spel och ha 5 fps.

Du snackar om att de ska ge Nvidia en stor fet smäll. Det är inte rätt läge för dem att satsa allt. Varför göra en helt galen satsning på en tillverkningsteknik som är påväg bort, utdömd? Tänk lite.

Det är väldigt olika, dock tycker jag att kvalitén på drivrutinerna är bättre överlag på Nvidia men speciellt är det programvaran (Catalyst, Nvidia kontrollpanel osv) som är den största skillnaden.

Har haft ett Nvidia kort som det varit problem med, det var ett 560, dock var det defekt och inte drivrutiner och fick det utbytt. Man vet aldrig, kan varit defekt kort du fick också om du nu inte testat det och redan vet vad problemet var dvs. Jag säger inte att dom ska satsa allt, det är inte att satsa allt om man kommer ut med i alla fall 2 eller 3 kort som faktiskt är nya, det behöver inte ens vara jätte stor skillnad. Dom kan ju försöka göra lite som Nvidia och ta det bästa kortet och bara göra en lite låst version av den. AMD fans blir besvikna gång på gång, jag är ingen marknadsexpert men mycket bättre kunde/kan dom göra tycker jag.

Permalänk
Medlem
Skrivet av Friterad:

Det är väldigt olika, dock tycker jag att kvalitén på drivrutinerna är bättre överlag på Nvidia men speciellt är det programvaran (Catalyst, Nvidia kontrollpanel osv) som är den största skillnaden.

Har haft ett Nvidia kort som det varit problem med, det var ett 560, dock var det defekt och inte drivrutiner och fick det utbytt. Man vet aldrig, kan varit defekt kort du fick också om du nu inte testat det och redan vet vad problemet var dvs. Jag säger inte att dom ska satsa allt, det är inte att satsa allt om man kommer ut med i alla fall 2 eller 3 kort som faktiskt är nya, det behöver inte ens vara jätte stor skillnad. Dom kan ju försöka göra lite som Nvidia och ta det bästa kortet och bara göra en lite låst version av den. AMD fans blir besvikna gång på gång, jag är ingen marknadsexpert men mycket bättre kunde/kan dom göra tycker jag.

Fast nya Fiji med GCN 1.3 kommer att användas i både 390x och 390.

Visa signatur

Bästa trådstarten någonsin.

Asus Zenbook UX430: 8550U, MX150, 16 GiB, 1 TB

Permalänk
Medlem
Skrivet av MakeCoke:

Fast nya Fiji med GCN 1.3 kommer att användas i både 390x och 390.

Då återstår det att se prisskillnaden

Permalänk
Hjälpsam
Skrivet av PowerNet:

Resonemanget i sig är helt korrekt, då det löpande skett utveckling av glödlampor/belysning under alla åren, där det blivit mer ljus för mindre energi under tiden, lit grafikkort som nästan har ökande energiåtgång för att få ut mer prestanda än tidigare, så man kan säga att grafikkorten går tvärsemot ljuskällorna, medan ex cpu:er (oftast) får minskad energiåtgång, och "på köpet" något bättre prestanda löpande.

Så sant! man ersatte ju koltrådar med Wolfram så sent som 1910, det är ju bara hundra år sedan!

Skrivet av PowerNet:

Ingen slm missat det, och det är inget förbud mot köpande.
Utan de får inte importeras till EU längre.
Men det finns rätt mycket glödlampor kvar ute i både butiker, och i olika lager.
Och om jag inte minns helt fel, så får de fortfarande importeras/tillverkas inom EU via vissa undantag i reglerna.
Så glödlamporna kommer inte försvinna ur hemmen på rätt många års sikt.

Hoppas jag att de får, dess färgåtergivning slår fortfarande allt förutom solen.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Friterad:

Det är väldigt olika, dock tycker jag att kvalitén på drivrutinerna är bättre överlag på Nvidia men speciellt är det programvaran (Catalyst, Nvidia kontrollpanel osv) som är den största skillnaden.

Har haft ett Nvidia kort som det varit problem med, det var ett 560, dock var det defekt och inte drivrutiner och fick det utbytt. Man vet aldrig, kan varit defekt kort du fick också om du nu inte testat det och redan vet vad problemet var dvs. Jag säger inte att dom ska satsa allt, det är inte att satsa allt om man kommer ut med i alla fall 2 eller 3 kort som faktiskt är nya, det behöver inte ens vara jätte stor skillnad. Dom kan ju försöka göra lite som Nvidia och ta det bästa kortet och bara göra en lite låst version av den. AMD fans blir besvikna gång på gång, jag är ingen marknadsexpert men mycket bättre kunde/kan dom göra tycker jag.

Snarare bra för då kommer ju i 4xx serien 390 hamna på 480 i stället (beroende på vart toppkortet nu hamnar):) Brukar ju vara så i många branscher, t.ex bil industrin (där kan dyr teknik bli billigare och hamna i billigare bilar).

Nvidia har gjort samma sak i flera år. Speciellt i laptops.

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Skrivet av Friterad:

Det är väldigt olika, dock tycker jag att kvalitén på drivrutinerna är bättre överlag på Nvidia men speciellt är det programvaran (Catalyst, Nvidia kontrollpanel osv) som är den största skillnaden.

Har haft ett Nvidia kort som det varit problem med, det var ett 560, dock var det defekt och inte drivrutiner och fick det utbytt. Man vet aldrig, kan varit defekt kort du fick också om du nu inte testat det och redan vet vad problemet var dvs. Jag säger inte att dom ska satsa allt, det är inte att satsa allt om man kommer ut med i alla fall 2 eller 3 kort som faktiskt är nya, det behöver inte ens vara jätte stor skillnad. Dom kan ju försöka göra lite som Nvidia och ta det bästa kortet och bara göra en lite låst version av den. AMD fans blir besvikna gång på gång, jag är ingen marknadsexpert men mycket bättre kunde/kan dom göra tycker jag.

Tror inte mitt kort var defekt. Har två andra polare som också haft sådana problem. Dock fungerade kortet väldigt bra det mesta av tiden.

Men jag tycker det känns onödigt att försöka designa en ny strömsnålare krets till en döende tillverkningsteknik. De borde satsa krutet på 20nm. Men jag förstår vad du menar.

Visa signatur

| Intel i5-4670k @ 4.6Ghz | Noctua NH-U12P SE2 | Asus GTX 980 | ASUS Z-87 A| Några SSD | Corsair TX V2 750W PSU | 12GB DDR3 Ram|

Permalänk
Medlem
Skrivet av Broken-arrow:

Snarare bra för då kommer ju i 4xx serien 390 hamna på 480 i stället (beroende på vart toppkortet nu hamnar):) Brukar ju vara så i många branscher, t.ex bil industrin (där kan dyr teknik bli billigare och hamna i billigare bilar).

Nvidia har gjort samma sak i flera år. Speciellt i laptops.

Läs mitt första svar

Skrivet av Wallman_91:

Tror inte mitt kort var defekt. Har två andra polare som också haft sådana problem. Dock fungerade kortet väldigt bra det mesta av tiden.

Men jag tycker det känns onödigt att försöka designa en ny strömsnålare krets till en döende tillverkningsteknik. De borde satsa krutet på 20nm. Men jag förstår vad du menar.

Då kan dom lika gärna skita i att göra nytt om dom bara ska ha 1 eller 2 kort i ett år och sedan byta.

Permalänk
Moderator
Testpilot
Skrivet av PowerNet:

Nej, resonemanget är helt korrekt, då tekniken för att ge ljus har förfinats under alla år, från glödlampor, till lågenergilampor, halogen, och nud LED lampor.
Grunden är densamma, att de ska ge ljus, och där ligger grafikkorten efter i effektivitet mot hur ljudkällorna utvecklats från en 50W ljuskälla, till att en ljuskälla som bygger på nyare teknik (LED) ger samma ljus för ca 6W förbrukning vilket för en minskning med ca 88% i energiåtgång.
Så resonemanget är korrekt att ljuskällor gått framåt snabbare, och minskar sin energiåtgång mot vad ex grafikkort, eller cpuer för den delen gör i dagsläget.
Där det på grafikkort och cpuer är relativt liten ökning i prestandan mellan 2 cpu serier, eller 2 grafikkorts serier medans minskningen på energiåtgången står still, eller till och med att de drar mer ström än tidigare.

Om du nu vill ha glödlampor så får du köpa det, ingen som hindrar dig direkt

Din jämförelse är helt felaktig och förvirrar snarare än befäster en ståndpunkt, den här diskussionen är bara löjlig.

Det handlar inte om att jag tycker glödlampor är bra eller att jag vill sträva bakåt det handlar om att din jämförelse är fullkomligt felaktig.

Skrivet av Lessismore:

Åååhh, att jag ens drog upp glödlampor vs LEDlampor, den här tråden har spårat duktigt nu

Jag försöker inte få AMD's produkter att framstå som sämre än nVidia's. Det jag menade är att tekniken gått fel spår iom att vi accepterar strömtörstiga grafikkort med högljudda fläktar, som kräver skrymmande chassin och tunga kylare.

Vad blir prestandan vs effektförbrukningen och dess kylanordning om grafikkortsmakarna väljer att optimera tillverkningsprocessen med åtanke i att halvera klockfrekvensen? Jag tror inte man kan göra en direkt jämförelse genom att ta ett R9-290X och klocka ned till 500Mhz, det blir inte rättvis jämförelse.

Halva storleken, 70% av prestandan, 100W effektförbrukning och passivt kylt? Isf ska DET vara AMD's toppkort, där lägger vi ribban. nVidia ska så klart göra detsamma.

Men nu är vi där vi är och det är svårt att göra om.

Skickades från m.sweclockers.com

Det finns grafikkort som är passivt kylda och klarar av samma last som ett topp-grafikkort gjorde för sex-sju år sedan så den framtiden finns redan men du skulle ju aldrig acceptera det eller hur? För du vill ju ha den fläskiga grafiken? Ja då kan du inte vänta dig mycket mer än att det krävs en riktig arbetshäst för att göra ett ordentligt arbete.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Mina damer och herrar, kan vi inte bara ta och släppa diskussionen kring glödlampor? Den är väldigt offtopic.

Jag vill se kommentarer om fiji och 300-serien!

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Avstängd
Skrivet av Dinoman:

Din jämförelse är helt felaktig och förvirrar snarare än befäster en ståndpunkt, den här diskussionen är bara löjlig.

Det handlar inte om att jag tycker glödlampor är bra eller att jag vill sträva bakåt det handlar om att din jämförelse är fullkomligt felaktig.

Nej. Den är helt korrekt.
Ljuskällor har minskat sin energiförbrukning för samma ljusmängd med ca 88% (50W glödlampa vs 6W led lampa).
Samma utveckling har inte skett på grafikkortens front, där det är rätt små skillnader i ökning i prestanda medans energiåtgången oftast står stilla, eller till och med ökat under årens lopp.
Så där borde tillverkarna satsa mer, att minska energiförbrukningen med bibehållen prestanda, än att öka prestandan utan att minska energiåtgången.

Jämför man sedan grafikkort mot ex cpuer så har cpuerna haft en bättre utveckling på energiåtgånfen, där cpuer har många gånger mer prestanda mor äldre cpuer, men minskad energiåtgång.

Visa signatur

System: Corsair Obsidian 550D Midi Tower Svart || Corsair AX 850W PSU || Intel® Core i7-3770K Processor || ASUS P8P67-M || 2 x Intel® SSD 520 Series 180GB || Gigabyte GeForce GTX 670 2GB PhysX CUDA ||