Nvidia kniper 76 procent av grafikkortsmarknaden

Permalänk
Medlem
Skrivet av MrNeikter:

http://www.sweclockers.com/image/diagram/9216?k=8a5eb4a9954a4...

Drivrutinerna har inte varit efter sedan 2011 och AMD:s grafikkort är fortfarand mycket "bang for the buck" så jag vet inte riktigt vart du vill komma?

Du kunde länkat tabellen för 1440p också.
Det blir ju trots allt vanligare och vanligare här på Sweclockers.

Intressant att läsa så många kommentarer i denna tråden som bashar AMDs grafikkort.
Själv tycker jag att det är intressant att anmärka att R9 290 ligger jämsides med GTX 970, och R9 290X ligger jämsides med GTX 780 Ti. (två kort med samma förbrukning för övrigt.)

Det bådar gott inför R9 390/390X, men sen ska vi inte glömma att Nvidia antagligen har ett äss i rockärmen i form av GTX 980 Ti.

Skrivet av maxkill:

Det gröna laget e ju bäst. Vem vill ha microstuttering liksom.

Grabben, det är 2015 nu, inte 2011.

Skrivet av Skonky:

Jag tycker att AMD har gjort många dåliga bestlut på siståne med hur och när de släpper sina kort, men även att de väljer att återanvända gamla arkitekturer, och hela kort som nya. Visst, det händer på båda lagen, men AMD tar priset då de har gjort detta 3-4 gånger i rad? Hur många gånger har 7950 och 7970 inte återlanserats? med lite överklockning, så vips är det ett nytt kort, till högre pris igen. Även om priserna är humanare än Nvidias är.

HD 7950 och HD 7970 har återlanserats/rebrandats en gång (R9 280/280X), så precis lika många gånger som GTX 670 och GTX 680 (som blev GTX 760 och GTX 770.) med andra ord.

Skrivet av fermia:

Nvidia + GSYNC = WIN WIN

Ja som f.d. Asus Swift-ägare kan jag intyga att det är väldigt behagligt för ögonen med G-sync.
Jag misstänker dock att Freesync kommer vara lika behagligt.

Skrivet av inquam:

Dock är strömförbrukning något AMD kan jobba på både i sina grafikkort och processorer.

Detta är inte riktat mot just dig inquam, utan även till alla som säger att AMD måste jobba på föbrukningen på sina grafikkort.

Vi behöver inte backa länge för att komma tillbaks till HD 6000 vs GTX 500 och HD 5000 vs GTX 400-serierna. Två generationer där Nvidia-korten gjorde sig kända som grilljärn just eftersom de blev så varma, och där AMD hade prestanda-per-watt tronen.

Sen kan vi jämföra R9 290X och GTX 780 Ti. Två kort från samma generation som slogs om att bli herren på täppan, och som enligt grafen jag länkade precis presterar lika bra i 1440p: Dessa två kort har samma förbrukning! (780 Ti har t.o.m. enligt Sweclockers tester 5 watts högre förbrukning i snitt.)

Så jag förstår inte hur folk kan säga att AMD måste jobba på förbrukningen på sina kort?

Ja, Maxwell har riktigt bra prestanda/watt, men är nysläppta kort i en ny generation där AMD inte har släppt några kort än. I övrigt är de båda tillverkarna väldigt lika.

Skrivet av lastninja:

Ytterligare en tråd med massa AMD fanboys som svämmar ut osanningar om GTX 970, aja.

Tycker här är lika många fanboys från båda sidorna om jag ska vara ärlig, tyvärr.

Det ligger i allas intresse att AMD kan konkurrera med Nvidia på GPU-fronten och med Intel på CPU-fronten.
Tror inte att någon här vill betala 10.000:- för ett GTX 1080, eller 7500:- för en I7-5790k.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Datavetare
Skrivet av Romoes:

3.5/4 = (3.5)*2/8 = (3.5)*2 o/o = 3.5*2() % = 3.5*20 % = 70 % ~ 0.76 %

Tror du blandat ihop mängd RAM med hög bandbredd med beräkningskraft jämfört med GTX980. Beräkningskraften är ca 13/16 (ca 81%) jämfört med GTX980 men det är fortfarande 7/8 av RAM som ha hög bandbredd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Moderator
Testpilot
Skrivet av lastninja:

Nja, Nvidia brukar passa på att klocka ner dessa flaggskepp lite så det skulle snarare kanske antyda 200-225W. Vi får se hur det blir.

Ja om motståndet tillåter iaf.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Med tanke på att det gäller fjärde kvartalet är det väl inget som är konstigt?

I prestandasegmentet var ju R9 290/290X riktigt värdelösa köp kontra 970 då det var snabbare, svalare och billigare. Nu ser det ju inte ut så längre efter AMDs nya drivare och prissänkningar, dessutom var ju inte minnesbegränsningarna kända förrän i år. Även klassen under med 280X påverkades nog en hel del av 970

I de billigare volymklasserna har jag inte så mycket att komma med som kan backas upp på något sätt men jag har fått för mig att nvidia av någon anledning alltid varit starka här, men har som sagt ingen källa till det. Utöver det kan jag tänka mig att även de billigare korten får en skjuts av att nvidias prestandakort fått så många lovord.

Det ska bli spännande att se vad som händer framåt våren med nya släpp och om AMD kan ta igen lite marknadsandelar med sina kommande släpp.

Till sist så slog en liten galen tanke mig. Om det skulle råka gå så illa att AMD går under, hade man kunnat splitta företaget och sälja CPU-divisionen till nvidia och GPU till Intel?

Permalänk
Medlem
Skrivet av Vesh:

Till sist så slog en liten galen tanke mig. Om det skulle råka gå så illa att AMD går under, hade man kunnat splitta företaget och sälja CPU-divisionen till nvidia och GPU till Intel?

USA har väldigt stränga lagar gällande konkurrens.

Intel/Nvidia hade aldrig fått köpa upp (delar av) AMD.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Minsc S2:

USA har väldigt stränga lagar gällande konkurrens.

Intel/Nvidia hade aldrig fått köpa upp (delar av) AMD.

Mjo känner till att det finns rätt strikta lagar kring det, men gäller inte det främst när man blir ensam aktör på marknaden? Just CPU-sidan borde väl bli rätt oförändrad då den är rätt låst med Intel och AMD så länge x86 är den dominerande arkitekturen på konsumentsidan.

I varje fall så får vi hoppas att AMD kan leverera något smaskigt snart så vi får se lite andra siffror under året

Permalänk
Medlem
Skrivet av Mr. Bravo:

*host* 6800 Ultra *host*

Fast nä. Det släpptes för recension samtidigt som 6800, chippets specifikationer och lanseringsdag för Ultra-varianten fanns redan sedan tidigare. Dessutom skiljde det tre ynka veckor mellan 6800 och 6800 Ultra. Det var inte något hemligt, det var inte något märkvärdigt starkare än det som fanns, och det var inget ny arkitektur eller nytt chip över 6800. Utöver det så vann det ju inte direkt över Radeon X800 XT PE.

Alltså, de släppte toppmodellen i serien helt enligt plan tre veckor efter seriens första kort, på utannonserat datum med redan kända specifikationer, utan att ta prestandakronan. Det kvalificerar verkligen inte någonstans för att vara ett hemligt färdigutvecklat grafikkort som ligger färdigt och redo på lager bara för att vänta in konkurrensen för att överraska med något överlägset.

Permalänk
Medlem

Efter senaste Steam HW Survey landade andelen med Nvidia på 51,57%, AMD på 28,88% och Intel på 19,17% av alla användare. Jag misstänker ju att Steam-statistiken bättre avspeglar vad kundbasen för diskreta AMD/Nvidia-grafikkort sitter på där ute. Frågan är hur Intel räknas, om det är något som faktiskt används eller om det bara är vad som rapporteras finnas i systemet?

http://store.steampowered.com/hwsurvey/

Permalänk
Inaktiv
Skrivet av Vesh:

Mjo känner till att det finns rätt strikta lagar kring det, men gäller inte det främst när man blir ensam aktör på marknaden? Just CPU-sidan borde väl bli rätt oförändrad då den är rätt låst med Intel och AMD så länge x86 är den dominerande arkitekturen på konsumentsidan.

I varje fall så får vi hoppas att AMD kan leverera något smaskigt snart så vi får se lite andra siffror under året

Nvidia kommer aldrig få x86-licensen. Möjligen om de åter försöka hitta någon lösning med VIA då. Problemet är att VIA då troligen måste köpa upp Nvidia vilket lär bli svårt när Nvidia bör vara det större företaget och JHH och förmodligen hela styrelsen lär totalvägra.

Skrivet av Sveklockarn:

Efter senaste Steam HW Survey landade andelen med Nvidia på 51,57%, AMD på 28,88% och Intel på 19,17% av alla användare. Jag misstänker ju att Steam-statistiken bättre avspeglar vad den huvudsakliga kundbasen för AMD/Nvidia sitter på där ute. Frågan är hur Intel räknas, om det är något som faktiskt används eller om det bara är vad som rapporteras finnas i systemet?

http://store.steampowered.com/hwsurvey/

Intel räknas bara om riktig GPU saknas. Siffrorna hade sett annorlunda ut annars med tanke på att typ alla moderna intelprocessorer har iGPU och de har en väldigt stor andel av x86-CPU marknaden.

Permalänk
Medlem
Skrivet av anon5930:

Intel räknas bara om riktig GPU saknas. Siffrorna hade sett annorlunda ut annars med tanke på att typ alla moderna intelprocessorer har iGPU och de har en väldigt stor andel av x86-CPU marknaden.

Hmm ok. Eftersom de vanligaste GPUerna enligt Steam är Intel HD Graphics 3000/4000, åtföljda av GTX 760, så tänkte jag att det lutar åt att Intel räknas lite för frikostigt när de som sagt toppar diskreta grafikkort bland dedikerade dataspelare. Å andra sidan har Intel ganska få modeller, så det är ju logiskt att det blir några enstaka vanligt förekommande.

Permalänk
Medlem
Skrivet av Minsc S2:

Du kunde länkat tabellen för 1440p också.
Det blir ju trots allt vanligare och vanligare här på Sweclockers.

http://www.sweclockers.com/image/diagram/9180?k=1288264a24c8a...

Intressant att läsa så många kommentarer i denna tråden som bashar AMDs grafikkort.
Själv tycker jag att det är intressant att anmärka att R9 290 ligger jämsides med GTX 970, och R9 290X ligger jämsides med GTX 780 Ti. (två kort med samma förbrukning för övrigt.)

Det jag tycker är intressant är hur 280X knappat igen på Titan. Titan ansågs vara ohotad kung en gång. 280X som är långsammare än 7970GHz är inte alls så långt efter längre. Kollar man lite förhållandet 680 mot 770, 7970 mot 280X och sedan 770 mot 280X så ser man att gamla hederliga 7970GHz har större prestandaövertag över 680 än vad Titan har över 7970.

Permalänk
Inaktiv
Skrivet av Sveklockarn:

Hmm ok. Eftersom de vanligaste GPUerna enligt Steam är Intel HD Graphics 3000/4000, åtföljda av GTX 760, så tänkte jag att det lutar åt att Intel räknas lite för frikostigt när de som sagt toppar diskreta grafikkort bland dedikerade dataspelare. Å andra sidan har Intel ganska få modeller, så det är ju logiskt att det blir några enstaka vanligt förekommande.

Jo, det har du helt klart rätt i. Sen kan det ju vara så att de i vissa fall kanske räknar med båda men jag skulle tro att en stor del av Intel-GPU'erna kommer från laptops och andra portabla system. Jag har lite svårt att se att någon skulle ha en speldator där man låter grafiken skötas av Intel iGPU av någon modell.

Permalänk
Medlem
Skrivet av Minsc S2:

HD 7950 och HD 7970 har återlanserats/rebrandats en gång (R9 280/280X), så precis lika många gånger som GTX 670 och GTX 680 (som blev GTX 760 och GTX 770.) med andra ord.

Hmm. beror på hur man räknar. 7970, 7970 ghz edition, R9 280, och R9 280x... Alla olika rebrands av samma gamla chipp. Sen att den fortfarande håller är en helt annan grejj. Men att bara överklocka ett grafikkort och inte göra många fler sjusteringar för att sen släppa det med samma prislapp som innan är inte exakt samma sak som Nvidia gjorde. Med 7950 gjordes samma sak. Var det inte samma kort som blev R9 270? rätta mig om jag har fel.

På 680 gjordes få förändringar och rebrandades som 770. Sant, och jag erkände från början att båda lagen har gjort detta. Inget jag förnekade. Men Nvidia har inte gjort det på samma nivå som AMD. Där de nu har gjort detta rätt många gånger. Dessutom ska de göra samma sak i 300 serien igen. Där enbart deras hög presterande kort kommer att få en ny arkitektur. Resten kommer att vara rebrandade. Så får vi se 7970 som R9 370/370x?? R9 290/x som R9 380/x? Det är vad jag tror.

De har satt det i system. Så att de slipper utveckla fler chipp, eftersom att det är dyrt. Jag förstår strategin, men tycker det är tråkigt.

Jag tror att Nvidia vinner för att utvecklingen går framåt med deras kort. Visst, AMD lyckas kräma ur samma prestanda, men Nvidia lyckas få samma prestanda till lägre förbrukning, och därför lägre värmeutveckling vilket gör att hela systemet går svalare, och tystare. Vilket var anledningen till att jag valde ett 770, istället för ett 7950, även om 7950 faktiskt var billigare.

Permalänk
Medlem
Skrivet av Skonky:

Hmm. beror på hur man räknar. 7970, 7970 ghz edition, R9 280, och R9 280x... Alla olika rebrands av samma gamla chipp. Sen att den fortfarande håller är en helt annan grejj. Men att bara överklocka ett grafikkort och inte göra många fler sjusteringar för att sen släppa det med samma prislapp som innan är inte exakt samma sak som Nvidia gjorde. Med 7950 gjordes samma sak. Var det inte samma kort som blev R9 270? rätta mig om jag har fel

Vet inte riktigt om jag klassar HD 7970 GHz som en rebrand av HD 7970, det är ungefär som att varje kort som är överklockat från fabrik skulle klassas som en rebrand - och då har vi plötsligt en jädra massa rebrands på alla kort.

HD 7970 blev dock lite tweakat och sen rebrandat som R9 280X.
R9 280 (icke-X) däremot är ett tweakat HD 7950.

R9 270 som du nämner tror jag är ett tweakat HD 7850, medans R9 270X är ett tweakat HD 7870.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Skrivet av Aleshi:

Fast nä. Det släpptes för recension samtidigt som 6800, chippets specifikationer och lanseringsdag för Ultra-varianten fanns redan sedan tidigare. Dessutom skiljde det tre ynka veckor mellan 6800 och 6800 Ultra. Det var inte något hemligt, det var inte något märkvärdigt starkare än det som fanns, och det var inget ny arkitektur eller nytt chip över 6800. Utöver det så vann det ju inte direkt över Radeon X800 XT PE.

Alltså, de släppte toppmodellen i serien helt enligt plan tre veckor efter seriens första kort, på utannonserat datum med redan kända specifikationer, utan att ta prestandakronan. Det kvalificerar verkligen inte någonstans för att vara ett hemligt färdigutvecklat grafikkort som ligger färdigt och redo på lager bara för att vänta in konkurrensen för att överraska med något överlägset.

Dåligt formulerat av mig, om man ens kan kalla det "formulerat" då Syftade på att 6800 Ultra satt på tronen under ett helt år och låg även kvar på i princip samma höga pris även kort efter att 7000-serien äntligen släpptes. Jag vill komma ihåg att det var ett jäkla liv på forumen då över att det inte hände något på grafikkortsmarknaden under den tiden, och att folk inte ville lägga så mycket pengar på ett 6800 Ultra som redan var så gammalt som det var.

x800-serien var väl snarare känd för att vara bra bang för buck, vilket även jag valde att införskaffa, men har inget minne utav att dom faktiskt slog 6800 Ultra på fingrarna, trots försök me diverse fabriksklockade modeller som ingen ville köpa. Röda lagets 1900-serie som dök upp därpå floppade ju dessutom rejält vilket tillät fortsatt löjliga priser och allmänt seg utveckling på Nvidias sida.

Hur som helst så var 04-05 utan tvekan historiens tråkigaste år på grafikkortsmarknaden, om jag får säga det själv

Visa signatur

Intel i7 6700k @4.7Ghz | Be Quet! Dark Rock Pro 3 | Asus Z170 ROG Hero VIII | 32GB DDR4 Corsair Vengeance 3000Mhz | Asus 1080Ti Strix OC | Samsung 950 Pro M.2 250GB, Samsung EVO 850 120GB, Samsung EVO 840 250GB, & Seagate 7200rpm 4TB | Corsair HX 1050W | Fractal Design S | Asus Xonar U7 | Sennheiser PC360 | TrackIR 5 + ProClip | Eizo 27" EV2736W | HTC Vive | Windows 10 Pro

Permalänk
Medlem
Skrivet av Skonky:

Hmm. beror på hur man räknar. 7970, 7970 ghz edition, R9 280, och R9 280x... Alla olika rebrands av samma gamla chipp. Sen att den fortfarande håller är en helt annan grejj. Men att bara överklocka ett grafikkort och inte göra många fler sjusteringar för att sen släppa det med samma prislapp som innan är inte exakt samma sak som Nvidia gjorde. Med 7950 gjordes samma sak. Var det inte samma kort som blev R9 270? rätta mig om jag har fel.

På 680 gjordes få förändringar och rebrandades som 770. Sant, och jag erkände från början att båda lagen har gjort detta. Inget jag förnekade. Men Nvidia har inte gjort det på samma nivå som AMD. Där de nu har gjort detta rätt många gånger. Dessutom ska de göra samma sak i 300 serien igen. Där enbart deras hög presterande kort kommer att få en ny arkitektur. Resten kommer att vara rebrandade. Så får vi se 7970 som R9 370/370x?? R9 290/x som R9 380/x? Det är vad jag tror.

De har satt det i system. Så att de slipper utveckla fler chipp, eftersom att det är dyrt. Jag förstår strategin, men tycker det är tråkigt.

Jag tror att Nvidia vinner för att utvecklingen går framåt med deras kort. Visst, AMD lyckas kräma ur samma prestanda, men Nvidia lyckas få samma prestanda till lägre förbrukning, och därför lägre värmeutveckling vilket gör att hela systemet går svalare, och tystare. Vilket var anledningen till att jag valde ett 770, istället för ett 7950, även om 7950 faktiskt var billigare.

Men vad är nackdelen med att förre generationens toppkort är denna generations mellankort? Det är liksom ingen mening med att utveckla ett ungefär likadant kort som man redan har från början bara för att det ska kännas nytt och fräscht?
Och du har rätt i att nVidia inte ligger på samma nivå i frågan. De har alltid varit långt värre. AMD har återanvänt några billigare kort från 5000-serien i 6000-serien, och några kort i mellersta 200-serien kommer från 7000-serien. Men nVidia blandar runt friskt. 9800 GTX var ju ett toppkort som var ett rebrandat mellan kort, hur funkar det? 8800. Ta GT 640, är det GF116, GK107 eller GK208 i ett sådant? det kan alltså vara ett GT 545 lika gärna som ett GT 730. Det finns moderna grafikkort från nVidia som baseras på det vid det här laget skitgamla GT 440. Ja visst, nu snackar vi kort i x50-serien och nedåt. Men nVidia har som sagt rebrandat övre mellankort som toppkort, och ner igen. Och AMD har inte ett kort med många olika kärnor som kan förvirra eller lura folk. Dessutom har AMD gjort det med mycket mycket färre kort än nVidia.

Så, nä, det är inte jämförbart. nVidias metoder kan lura vilken påläst människa som helst, de blandar helt olika arkitekturer under precis samma produktnamn vilket kan ge helt olika prestandaprofil på något som borde vara samma kort. AMDs rebrands luras inte, de har något fåtal generationer återanvänt ett kort ett steg längre ner istället för att lägga miljoner på att utveckla ett i princip identiskt kort.

Skrivet av Mr. Bravo:

Dåligt formulerat av mig, om man ens kan kalla det "formulerat" då Syftade på att 6800 Ultra satt på tronen under ett helt år och låg även kvar på i princip samma höga pris även kort efter att 7000-serien äntligen släpptes. Jag vill komma ihåg att det var ett jäkla liv på forumen då över att det inte hände något på grafikkortsmarknaden under den tiden, och att folk inte ville lägga så mycket pengar på ett 6800 Ultra som redan var så gammalt som det var.

x800-serien var väl snarare känd för att vara bra bang för buck, vilket även jag valde att införskaffa, men har inget minne utav att dom faktiskt slog 6800 Ultra på fingrarna, trots försök me diverse fabriksklockade modeller som ingen ville köpa. Röda lagets 1900-serie som dök upp därpå floppade ju dessutom rejält vilket tillät fortsatt löjliga priser och allmänt seg utveckling på Nvidias sida.

Hur som helst så var 04-05 utan tvekan historiens tråkigaste år på grafikkortsmarknaden, om jag får säga det själv

Ja i så fall var det sannerligen dåligt formulerat, för då är vi överens om att GeForce 6800 inte var ett exempel på det jag sa aldrig hänt? Vi är överens om att man aldrig sitter och håller på någon mördararkitektur man kan släppa vid behov?
Men förstår inte riktigt vad 6800 Ultra har med något att göra isf. Det är liksom helt orelaterat till diskussionen. Men nä 6800 Ultra var inte ohotad. Den hade lite snabbare OpenGL-drivrutiner än ATi. Men X800 XT PE var snabbast på DX9 titlar, inte sällan med förkrossande marginal, dessutom billigare. Och vad var fel med x1900-serien? X1950 XTX var ju ohotat snabbaste enkel-GPU kortet, varje kort de hade var snabbare än motsvarande nVidia.
http://www.anandtech.com/show/2069/6
Här vinner X1950 XTX i varenda spel, stänger man av AA så kommer 7900 GTX om med knapp marginal i 2 titlar, men i övriga vinner XTX.
Och tillät seg utveckling? Menar du alltså att nVidia kunnat släppa 8800 GTX tidigare om de velat? Vad har du för belägg för påståendet? Förövrigt finns det inga generationer som varit så extremt jämna Xx00 vs 6x00 och X1x00 vs 7x00. Även fast ATi var strået vassare. Så nVidia var hårt pressade att få fram 8800 GTX och ta kronan så fort som möjligt. 5x00 mot 9x00 vann ATi stort och nVidias 8x00 vann stort mot ATis 2x00.

Permalänk
Medlem

Röda laget behöver göra ett kort med en skaplig referenskylare, istället för deras plastiga skräp som går upp i 90 grader och låter som ett medelstort jaktplan. Eftermarknadskylarna lägger på så jävla mycket på priset för en ganska liten flashig ändring och folk blir som skator när kort blänker å blinkar. Jag har ingen lojalitet till något av lagen, alla rebrands de senaste åren har gjort mig sur på hela alltet.

Visa signatur

i7-2600k @ 3,6Ghz / GTX780 REF 3GB / 8GB Generiskt skräpram / Z77E-ITX / SX500-LG /~ En miljon fläktar / Ncase M1 =D

Permalänk
Medlem
Skrivet av Mooseon:

Röda laget behöver göra ett kort med en skaplig referenskylare, istället för deras plastiga skräp som går upp i 90 grader och låter som ett medelstort jaktplan. Eftermarknadskylarna lägger på så jävla mycket på priset för en ganska liten flashig ändring och folk blir som skator när kort blänker å blinkar. Jag har ingen lojalitet till något av lagen, alla rebrands de senaste åren har gjort mig sur på hela alltet.

Finns det något test som visar att AMD skulle ha sämre kylare? Kylaren på Titan/GTX 780/Ti börjar ju också låta massvis när man höjer effekt/mm² som den ska kyla. 290X är ju mycket mer svårkyld då kretsen är mycket mindre än den jättekrets nVidia tagit till för att få upp prestandan.
Inte bra ur alla synvinklar att ha hög prestanda och effekt på liten yta alltid.

Det enda jag sett bevis för är att Hawaii är svårare att kyla då den har ungefär samma prestanda och effekt som motsvarande nVidia kort, men på mindre yta. Har hittills inte sett att själva kylaren är sämre. Sedan är det väl en fråga om hur man mäter temperatur också.

Skulle vilja se båda kylarna monterade på en neutral värmekälla och se hur de presterar där.

Permalänk
Medlem
Skrivet av Aleshi:

Finns det något test som visar att AMD skulle ha sämre kylare? Kylaren på Titan/GTX 780/Ti börjar ju också låta massvis när man höjer effekt/mm² som den ska kyla. 290X är ju mycket mer svårkyld då kretsen är mycket mindre än den jättekrets nVidia tagit till för att få upp prestandan.
Inte bra ur alla synvinklar att ha hög prestanda och effekt på liten yta alltid.

Det enda jag sett bevis för är att Hawaii är svårare att kyla då den har ungefär samma prestanda och effekt som motsvarande nVidia kort, men på mindre yta. Har hittills inte sett att själva kylaren är sämre. Sedan är det väl en fråga om hur man mäter temperatur också.

Jag menade mer på att titankylaren har funnits i flera år och har utan ändring klarat/klarar sig ok i temps och ljud, speciellt för att vara utblås. R9 290 och 290X referenskylare som var specifikt gjord för de korten är obrukbar om man är ljudkänslig, samt kyler ganska kasst. Eftersom i stort sett alla eftermarknadskylare är open air blir det en massa kringkostnader om det inte är vad man vill ha. En referenskylare ska inte kunna snedda in i värmefarozonen tycker jag, det är rena trabantfasoner.

Tillägg: Jag förstår fortfarande inte varför både AMD och nvidia inte överlåter kylningen åt folk som bevisligen kan det; låt ett företag som sysslar med det göra referensdesignen så går enhetskostnaden ner och man kan pressa prestandan mer.

Visa signatur

i7-2600k @ 3,6Ghz / GTX780 REF 3GB / 8GB Generiskt skräpram / Z77E-ITX / SX500-LG /~ En miljon fläktar / Ncase M1 =D

Permalänk
Medlem
Skrivet av Minsc S2:

Vet inte riktigt om jag klassar HD 7970 GHz som en rebrand av HD 7970, det är ungefär som att varje kort som är överklockat från fabrik skulle klassas som en rebrand - och då har vi plötsligt en jädra massa rebrands på alla kort.

HD 7970 blev dock lite tweakat och sen rebrandat som R9 280X.
R9 280 (icke-X) däremot är ett tweakat HD 7950.

R9 270 som du nämner tror jag är ett tweakat HD 7850, medans R9 270X är ett tweakat HD 7870.

Ok. Då kommer jag ihåg fel. Tack för rättningen/klarifikationen, men det är detta jag menar. De har satt det i system, och jag tycker det är synd. Om ryktena är sanna kommer samma sak att ske nu med nästa generation också.

Skrivet av Aleshi:

Men vad är nackdelen med att förre generationens toppkort är denna generations mellankort? Det är liksom ingen mening med att utveckla ett ungefär likadant kort som man redan har från början bara för att det ska kännas nytt och fräscht?
Och du har rätt i att nVidia inte ligger på samma nivå i frågan. De har alltid varit långt värre. AMD har återanvänt några billigare kort från 5000-serien i 6000-serien, och några kort i mellersta 200-serien kommer från 7000-serien. Men nVidia blandar runt friskt. 9800 GTX var ju ett toppkort som var ett rebrandat mellan kort, hur funkar det? 8800. Ta GT 640, är det GF116, GK107 eller GK208 i ett sådant? det kan alltså vara ett GT 545 lika gärna som ett GT 730. Det finns moderna grafikkort från nVidia som baseras på det vid det här laget skitgamla GT 440. Ja visst, nu snackar vi kort i x50-serien och nedåt. Men nVidia har som sagt rebrandat övre mellankort som toppkort, och ner igen. Och AMD har inte ett kort med många olika kärnor som kan förvirra eller lura folk. Dessutom har AMD gjort det med mycket mycket färre kort än nVidia.

Så, nä, det är inte jämförbart. nVidias metoder kan lura vilken påläst människa som helst, de blandar helt olika arkitekturer under precis samma produktnamn vilket kan ge helt olika prestandaprofil på något som borde vara samma kort. AMDs rebrands luras inte, de har något fåtal generationer återanvänt ett kort ett steg längre ner istället för att lägga miljoner på att utveckla ett i princip identiskt kort.

Du verkar ha varit med längre än jag. Du har mer koll på vilka chip som används var etc. Men tack för att du visar min poäng ännu tydligare. Skillnaden i hur du och jag ser på det verkar skilja sig åt en del. Då jag anser inte heller att det är nödvändigt att utveckla nya kort varje generation. Jag förstår varför de återanvänder ibland. Men som jag sa. AMD har satt detta i system, och gör det varje ny generation de senaste 2-3 generationerna, och kommer att göra det inför 300-serien.

Problemet uppstår i att helt plötsligt konkurerar gammla chip mot nya. Nvidia utvecklar mer strömsnåla produkter, som ger mer prestanda, men lägre värmeutveckling och ljud. Till exempel har nästan alla kort som är 960 och över semi-passiv kylning på nya Maxwell. Tror du att AMD kommer kunna konkurerra om detta ens i nästa generation? För mig låter det tveksamt, och detta har inte enbart med eftermarkands kylare att göra.

Genom att sätta detta i system som AMD har gjort gör de sig själva en otjänst. De försöker spara pengar på det, men de förlorar en hel del pengar för att de inte kan konkurera mot de features som konkurerande grafikkort har. Marknaden går mot mindre, tystare, och strömsnålare datorer, medans AMD utvecklar strömslukande kretsar, som behöver kraftig kylning för att kunna hållas någorlunda svala, och tysta. För de som inte anser att detta är ett problem, är det helt ok. Men jag vill ha en sval, tyst, och liten dator, därför kommer det dröja innan jag köper ett AMD kort tills det utvecklar en krets som kan konkurera mot Nvidia inom dessa aspekter.

För de som enbart vill ha så mycket prestanda för så lite pengar som möjligt funkar AMD säkert väldigt bra. Jag tycker deras satsning på Freesync är grymt bra, och hoppas (förmodligen förgäves) att även Nvidia ska haka på. Deras g-sync lösning med extra licens-hårdvara i skärmar är extremt olycklig, och jag hoppas inte att någon köper dessa skärmar så att Nvidia löser det på annat sätt.

Permalänk
Medlem
Skrivet av Mooseon:

Jag menade mer på att titankylaren har funnits i flera år och har utan ändring klarat/klarar sig ok i temps och ljud, speciellt för att vara utblås. R9 290 och 290X referenskylare som var specifikt gjord för de korten är obrukbar om man är ljudkänslig, samt kyler ganska kasst. Eftersom i stort sett alla eftermarknadskylare är open air blir det en massa kringkostnader om det inte är vad man vill ha. En referenskylare ska inte kunna snedda in i värmefarozonen tycker jag, det är rena trabantfasoner.

Tillägg: Jag förstår fortfarande inte varför både AMD och nvidia inte överlåter kylningen åt folk som bevisligen kan det; låt ett företag som sysslar med det göra referensdesignen så går enhetskostnaden ner och man kan pressa prestandan mer.

Fast åter igen. Finns det belägg för att kylaren till 290X är sämre än motsvarande för Titan? Även eftermarknadskylare har svårare att kyla 290X. Man ser ju också att kylaren genast får svårare bara med den lilla effektökningen som är mellan Titan och 780Ti.

Anledningen till att de envisas med utblås är för att korten måste kunna fungera i lådor med dålig ventilation, open air kylare som ska ta hand om 300W blir katastrof i ett HP-chassi då värmen inte lämnar burken. Tredjepartstillverkare behöver inte bry sig om sådant i samma utsträckning.

Permalänk
Medlem
Skrivet av Aleshi:

Fast åter igen. Finns det belägg för att kylaren till 290X är sämre än motsvarande för Titan? Även eftermarknadskylare har svårare att kyla 290X. Man ser ju också att kylaren genast får svårare bara med den lilla effektökningen som är mellan Titan och 780Ti.

Anledningen till att de envisas med utblås är för att korten måste kunna fungera i lådor med dålig ventilation, open air kylare som ska ta hand om 300W blir katastrof i ett HP-chassi då värmen inte lämnar burken. Tredjepartstillverkare behöver inte bry sig om sådant i samma utsträckning.

Jag känner inte till något oberoende test så det kan mycket väl stämma. DOCK vill jag påpeka att om man nu väljer att ha högre effekt/area får man ta hänsyn till detta när man designar kylningen; Om kylförmågan hos AMD är sämre eller bättre är irrelevant, det enda som gäller är att den kan kyla kretsen den är designad för. Jag har själv ett SFF chassi och har haft problem med att hitta ett vettigt kort just på grund av detta, sen är självklart SFF en väldigt liten del av marknaden, men en gedigen referenskylare är bara positivt för alla inblandade.

Visa signatur

i7-2600k @ 3,6Ghz / GTX780 REF 3GB / 8GB Generiskt skräpram / Z77E-ITX / SX500-LG /~ En miljon fläktar / Ncase M1 =D

Permalänk
Medlem
Skrivet av Aleshi:

Fast åter igen. Finns det belägg för att kylaren till 290X är sämre än motsvarande för Titan? Även eftermarknadskylare har svårare att kyla 290X. Man ser ju också att kylaren genast får svårare bara med den lilla effektökningen som är mellan Titan och 780Ti.

Anledningen till att de envisas med utblås är för att korten måste kunna fungera i lådor med dålig ventilation, open air kylare som ska ta hand om 300W blir katastrof i ett HP-chassi då värmen inte lämnar burken. Tredjepartstillverkare behöver inte bry sig om sådant i samma utsträckning.

Det beror på vad man anser är sämre. Om den är högljud jämfört med konkurentens kylare så är det rätt många som anser att den är sämre bara på grund av det. Eftersom den inte bara är lite högre, utan rätt mycket mer. Sen att 290x är ett svårkylt kort är kanske det som är det stora problemet? Men om AMD utvecklar ett så värmealstrande kort, varför kan de inte ta fram en referenskylare som kan kyla det någorlunda normalt? Om kylaren inte klarar av att hålla temperaturerna nere på sitt kort så är det väl sämre? Eftersom den inte klarar av att göra sitt jobb lika bra som konkurrentens?

Permalänk
Medlem
Skrivet av Skonky:

Det beror på vad man anser är sämre. Om den är högljud jämfört med konkurentens kylare så är det rätt många som anser att den är sämre bara på grund av det. Eftersom den inte bara är lite högre, utan rätt mycket mer. Sen att 290x är ett svårkylt kort är kanske det som är det stora problemet? Men om AMD utvecklar ett så värmealstrande kort, varför kan de inte ta fram en referenskylare som kan kyla det någorlunda normalt? Om kylaren inte klarar av att hålla temperaturerna nere på sitt kort så är det väl sämre? Eftersom den inte klarar av att göra sitt jobb lika bra som konkurrentens?

Jag skrev något snarlikt

Visa signatur

i7-2600k @ 3,6Ghz / GTX780 REF 3GB / 8GB Generiskt skräpram / Z77E-ITX / SX500-LG /~ En miljon fläktar / Ncase M1 =D

Permalänk
Medlem
Skrivet av Mooseon:

Jag skrev något snarlikt

Vi skrev nog samtidigt. Ditt inlägg kom en minut innan mitt

Permalänk
Medlem

Bara hoppas att AMDs 300 serie blir bra.
För jag vill ha nytt grafikkort men känner inte riktigt för att betala summan som GTX980 kostar för tillfället
780it får funka ett tag till!

Visa signatur

ROG Strix Z790-E/Intel i7 13700K/Noctua NH-D15 Black/MSI RTX 4080 Suprim X/32GB Corsair vengeance 6200mhz/Lian Li O11 Air Mini/Seasonic Vertex 850/Kringutrustning: Keychron Q2
Alienware AW3423DWF/Klipsch R-41PM/G-Pro X Superlight/Fidelio X2HR

Permalänk
Medlem
Skrivet av Mooseon:

Jag känner inte till något oberoende test så det kan mycket väl stämma. DOCK vill jag påpeka att om man nu väljer att ha högre effekt/area får man ta hänsyn till detta när man designar kylningen; Om kylförmågan hos AMD är sämre eller bättre är irrelevant, det enda som gäller är att den kan kyla kretsen den är designad för. Jag har själv ett SFF chassi och har haft problem med att hitta ett vettigt kort just på grund av detta, sen är självklart SFF en väldigt liten del av marknaden, men en gedigen referenskylare är bara positivt för alla inblandade.

Ja jag ville bara reda ut att det inte verkar finnas några som helst bevis för påståendet att AMDs kylare är sämre. Bara att 290X är mer svårkyld, vilket kan tillskrivas den höga yteffektiviteten, men det kan också vara temperaturmätningen som spelar roll.

Men frågan är hur lätt det är att göra en kylare som klarar deras krav, dubbla slots och utblås. Jag vet inga direkt designförbättringar de kan göra på rak arm faktiskt. Skulle väl vara själva fläkten ifall den gick att byta ut men det vet jag inte.

Skrivet av Skonky:

Det beror på vad man anser är sämre. Om den är högljud jämfört med konkurentens kylare så är det rätt många som anser att den är sämre bara på grund av det. Eftersom den inte bara är lite högre, utan rätt mycket mer. Sen att 290x är ett svårkylt kort är kanske det som är det stora problemet? Men om AMD utvecklar ett så värmealstrande kort, varför kan de inte ta fram en referenskylare som kan kyla det någorlunda normalt? Om kylaren inte klarar av att hålla temperaturerna nere på sitt kort så är det väl sämre? Eftersom den inte klarar av att göra sitt jobb lika bra som konkurrentens?

Men frågan är: ÄR den mer högljudd? Om de får exakt samma belastning, låter den mer då? Några belägg? Vi ser som sagt hur 780Ti är markant mer högljudd än Titan trots bara marginellt högre effekt. Och då är 780Ti med sin stora ytarea mycket mer lättkyld än 290X som utvecklar lika mycket värme på betydligt mindre yta. Med tanke på hur ljudet ökar från Titan till 780Ti med nVidias kylare, hade den klarat 290X utan att låta minst lika högt som AMDs kylare?

Och nej, en kylare är inte sämre bara för att du ger den ett tuffare jobb, det är dess förmåga att hantera olika jobb som avgör om den är bra eller inte. Frågan är om det går att göra kylaren bättre men fortfarande ha den i utblåsmodell? Några designförbättringar som är rimliga?

Permalänk
Moderator
Testpilot
Skrivet av Skonky:

Det beror på vad man anser är sämre. Om den är högljud jämfört med konkurentens kylare så är det rätt många som anser att den är sämre bara på grund av det. Eftersom den inte bara är lite högre, utan rätt mycket mer. Sen att 290x är ett svårkylt kort är kanske det som är det stora problemet? Men om AMD utvecklar ett så värmealstrande kort, varför kan de inte ta fram en referenskylare som kan kyla det någorlunda normalt? Om kylaren inte klarar av att hålla temperaturerna nere på sitt kort så är det väl sämre? Eftersom den inte klarar av att göra sitt jobb lika bra som konkurrentens?

Kortet är inte mer svårkylt än något annat grafikkort, det har en GPU, det har minnen och det har VRM:er. Det enda som blir varmare är GPU:n. Referenskylaren är notoriskt kass och det beror enbart på att den är billig och dåligt konstruerad. Nvidia gör bortskämt bra referenskylare men kostar också generellt mer. Det är den enda skillnaden i stort.

Sen är R9 290x mer energislukande men det är marginellt mot Nvidias kort i samma generation; GK110.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Aleshi:

Men frågan är: ÄR den mer högljudd? Om de får exakt samma belastning, låter den mer då? Några belägg? Vi ser som sagt hur 780Ti är markant mer högljudd än Titan trots bara marginellt högre effekt. Och då är 780Ti med sin stora ytarea mycket mer lättkyld än 290X som utvecklar lika mycket värme på betydligt mindre yta. Med tanke på hur ljudet ökar från Titan till 780Ti med nVidias kylare, hade den klarat 290X utan att låta minst lika högt som AMDs kylare?

Och nej, en kylare är inte sämre bara för att du ger den ett tuffare jobb, det är dess förmåga att hantera olika jobb som avgör om den är bra eller inte. Frågan är om det går att göra kylaren bättre men fortfarande ha den i utblåsmodell? Några designförbättringar som är rimliga?

AMD's referenskylare är notorisk i det att den låter väldigt mycket, och inte kyler GPU'n särskilt bra. Det är bara att läsa lite i den här tråden som kom upp igår eller i förrgår.

http://www.sweclockers.com/forum/4-ovrigt/1351862-290x-overhe...

Skrivet av b3h4ppyn0w:

Tyvärr så har MSIs twinfrozr och Asus vanliga DC2 problem med att hantera temperaruren på 290x, sapphire och msi Lightning är de bästa alternativen

Till och med tredjepartskylare har problem att kyla deras 290x. Har DCII eller twinfrozr haft problem att kyla 780 ti? Inte vad jag hört...

AMD säger att kortet ska klara av att vara uppe i 95 C, och det är ok. Vad jag vet så har inte några Nvidia kort på siståne haft problem att hålla kortet under 90 C eller till och med 80 c.

Du hävdar att den inte kyler sämre, men om AMD själva har satt så att den ska hålla 95 C så hur kan du hävda annorlunda?

Skrivet av Dinoman:

Kortet är inte mer svårkylt än något annat grafikkort, det har en GPU, det har minnen och det har VRM:er. Det enda som blir varmare är GPU:n. Referenskylaren är notoriskt kass och det beror enbart på att den är billig och dåligt konstruerad. Nvidia gör bortskämt bra referenskylare men kostar också generellt mer. Det är den enda skillnaden i stort.

Sen är R9 290x mer energislukande men det är marginellt mot Nvidias kort i samma generation; GK110.

Om ett kort är mer energislukande innebär det att den också avger mer värme. Vilket gör den svårare att kyla. 290x är ett varmare kort än Nvidias kort. Det är fakta.

Men det är precis det som diskuteras. Aleshi hävdar att 290x inte alls är svårkylt, och att referenskylaren inte alls fungerar sämre än Nvidias referenskylare. Så min fråga är då, om AMD's referenskylare är lika bra som Nvidias referenskylare, varför kan den inte hålla ner temperaturen på kortet? Om nu 290x GPU'n blir varmare än GK 110, varför bygger de då inte en kylare som klarar av att kyla kortet? Speciellt då de inte sålde någre tredjeparts versioner förrän långt senare...

Permalänk
Medlem
Skrivet av Dinoman:

Kortet är inte mer svårkylt än något annat grafikkort, det har en GPU, det har minnen och det har VRM:er. Det enda som blir varmare är GPU:n. Referenskylaren är notoriskt kass och det beror enbart på att den är billig och dåligt konstruerad. Nvidia gör bortskämt bra referenskylare men kostar också generellt mer. Det är den enda skillnaden i stort.

Sen är R9 290x mer energislukande men det är marginellt mot Nvidias kort i samma generation; GK110.

Några belägg för att det är kylaren som är boven? Något test som visar att det är kylaren och inte svårkyld krets eller småfusk med temperaturdioden på nVidia kort? 290X drar ungefär lika mycket som 780Ti, vilket bara är marginellt törstigare än Titan. Men vi ser tydligt hur den lilla skillnaden gör att även nVidias kylare börjar gå upp i ljudnivå och temperatur. Hur hade den kylaren klarat svårkylda 290X?

Skrivet av Skonky:

AMD's referenskylare är notorisk i det att den låter väldigt mycket, och inte kyler GPU'n särskilt bra. Det är bara att läsa lite i den här tråden som kom upp igår eller i förrgår.

http://www.sweclockers.com/forum/4-ovrigt/1351862-290x-overhe...

Ja kylaren låter mycket, men låter den mer än vad kylaren till 780Ti hade gjort vid samma last? Var är testet som visar att det är kylaren som är boven? Vi har ju IB och SB som praktexempel på hur mycket svårare det är att kylare en mindre krets. SB går toksval trots högre effekt, IB kan lätt skena iväg rejält i temperaturer.

Skrivet av Skonky:

Till och med tredjepartskylare har problem att kyla deras 290x. Har DCII eller twinfrozr haft problem att kyla 780 ti? Inte vad jag hört...

Precis min poäng. 290X är märkbart svårare att kyla oavsett kylare jämfört med 780Ti som ligger på samma effekt. Då kan vi åtminstone delvis utesluta att problemet sitter i kylaren eller hur?

Skrivet av Skonky:

Om ett kort är mer energislukande innebär det att den också avger mer värme. Vilket gör den svårare att kyla. 290x är ett varmare kort än Nvidias kort. Det är fakta.

Men det är precis det som diskuteras. Aleshi hävdar att 290x inte alls är svårkylt, och att referenskylaren inte alls fungerar sämre än Nvidias referenskylare. Så min fråga är då, om AMD's referenskylare är lika bra som Nvidias referenskylare, varför kan den inte hålla ner temperaturen på kortet? Om nu 290x GPU'n blir varmare än GK 110, varför bygger de då inte en kylare som klarar av att kyla kortet? Speciellt då de inte sålde någre tredjeparts versioner förrän långt senare...

Jo! Jag säger att 290X är mycket mer svårkylt. Folk hyllar nVidias kylare, men jag efterfrågar belägg för att nVidias kylare faktiskt är bättre. Den kanske hade gått på knäna om den skulle försöka kyla ett 290X.