AMD: "Mer effekthungriga grafikkort en oundviklig trend"

Permalänk
Medlem
Skrivet av DasIch:

Skynda dig att söka jobb hos AMD så du kan berätta för dem hur de ökar energieffektiviteten.

Om de nu hävdar 50% prestanda/W vid övergången från RDNA2 till RDNA3, så kan man ju få ganska stor boost utan att grafikkorten behöver dra mer ström.
Det tillsammans med förbättringar i uppskalningslösningar så blir ju ändå allt spelbart utan problem.

Och det är väl så lösningen för nästa generations konsoler är också, de kommer att förlita sig på uppskalning istället för att sätta dit en jättekraftfull GPU del. Speciellt när de har full kontroll på vilken uppskalare som skall användas.

Permalänk
Quizmaster Malmö 22

Jag undrar verkligen vad som hade hänt om Nvidia hade satsat på prestandaeffektivitet….

Ni kommer ihåg förr när Nvidia körde på topp prestanda, det var Nvidia som gällde.
Sen pratades det om energieffektivitet om dem o då gav folk här det som argument till att köpa Nvidia….

Nu blir det topp prestanda igen….

Permalänk
Medlem
Skrivet av dannesthlm:

Man får väl nästan hoppas att EU går in och bestämmer hur mycket ett grafikkort får förbruka...

Tror definitivt att vi kommer att se något sådant här om inte tillverkare bryter den här trenden.

Permalänk
Medlem
Skrivet av loefet:

Om de nu hävdar 50% prestanda/W vid övergången från RDNA2 till RDNA3, så kan man ju få ganska stor boost utan att grafikkorten behöver dra mer ström.
Det tillsammans med förbättringar i uppskalningslösningar så blir ju ändå allt spelbart utan problem.

Och det är väl så lösningen för nästa generations konsoler är också, de kommer att förlita sig på uppskalning istället för att sätta dit en jättekraftfull GPU del. Speciellt när de har full kontroll på vilken uppskalare som skall användas.

Hade det inte varit så att RT kom in i scenen så hade korten varit rejält snabba, men detta ska förstås pushas på konsumenterna. Sen därefter kommer 8k.
Och allt det här kommer kräva snabbare mer strömslukande kort.

Permalänk
Medlem
Skrivet av DasIch:

Problemet för stationära är även att värmen ska ta vägen någonstans. Annars är det ju bara elda på med 2KW, så länge nätdel och kylning är dimensionerad därefter. Blir dock jobbigt med all värme i rummet.

Själv kan jag inte riktigt använda datorn såhär års. 30 grader varmt inomhus. Blåsa ut en massa varm luft från datorn känns inte aktuellt.

Givetvis kommer det värme det kommer bli varmt om framtidens bärbara så att värmen i rummet blir där givetvis när mer värme ska föras ut och det är givetvis jobbigt med för varmt i rummet. Jag tänker samtidigt att kylningen borde göra att utluften inte är jättemycket varmare än idag det är ju inte som så att komponenterna kommer öka sin maxtemperatur från säg 100 idag till 150 utan att det kommer ju fortfarande röra sig om samma temperaturskala att man ska från 90 till 70 exempelvis och då är frågan hur mycket varmare det man kör ut kommer bli eller om det kommer hålla samma temperatur som idag även om kylningen och PSU är större. Skulle vi börja få ett scenario där vi ska kyla från 150 till 70 då kommer ju den varma luften vara avsevärt mycket varmare.

Permalänk
Medlem
Skrivet av Sorten:

Givetvis kommer det värme det kommer bli varmt om framtidens bärbara så att värmen i rummet blir där givetvis när mer värme ska föras ut och det är givetvis jobbigt med för varmt i rummet. Jag tänker samtidigt att kylningen borde göra att utluften inte är jättemycket varmare än idag det är ju inte som så att komponenterna kommer öka sin maxtemperatur från säg 100 idag till 150 utan att det kommer ju fortfarande röra sig om samma temperaturskala att man ska från 90 till 70 exempelvis och då är frågan hur mycket varmare det man kör ut kommer bli eller om det kommer hålla samma temperatur som idag även om kylningen och PSU är större. Skulle vi börja få ett scenario där vi ska kyla från 150 till 70 då kommer ju den varma luften vara avsevärt mycket varmare.

Det är värmeenergin som ska föras bort så du får lika varm oavsett.

Permalänk
Medlem
Skrivet av Campaigner:

Jag undrar verkligen vad som hade hänt om Nvidia hade satsat på prestandaeffektivitet….

Ni kommer ihåg förr när Nvidia körde på topp prestanda, det var Nvidia som gällde.
Sen pratades det om energieffektivitet om dem o då gav folk här det som argument till att köpa Nvidia….

Nu blir det topp prestanda igen….

Europa ser olyckligt lottat ut, vi har att se fram emot en allvarlig energibrist i vinster och för Sveriges del katastrofala elpriser i åtminsone södra elnätet i vilket Stockholm ingår. 450W grafikkort kommer att vara varma, men inte så heta ...

Kanske vi får se en ny trend av undervoltning och underklockning och performance/watt som det nya benchmark.

Permalänk
Medlem
Skrivet av lille7:

Mer W och mer prestanda per W = mer prestanda. Du vill att de ska göra klenare grafikkort, men då kan du ju bara köpa ett klenare grafikkort.

Nä, jag vill att man ökar prestandan genom förbättringar i arkitekturen, inte genom att pumpa in mer ström. Överklocka kan vi göra själva.

Det ska bli intressant att se hur stor del av prestandaökningen som kommer från högre strömbudget, och hur stor del beror på förbättringar i nästa generation.

Permalänk
Medlem
Skrivet av Lordsqueak:

Nä, jag vill att man ökar prestandan genom förbättringar i arkitekturen, inte genom att pumpa in mer ström. Överklocka kan vi göra själva.

Det ska bli intressant att se hur stor del av prestandaökningen som kommer från högre strömbudget, och hur stor del beror på förbättringar i nästa generation.

Mycket mer cache vet vi redan ger bättre prestanda i spel, dessvärre verkar Nvidia passa på att använda det faktumet för att höja vinstmarginalen genom att ha smalare minnesbuss = billigare PCB. Förmodligen halva antalet minneskapslar i samband med detta vilket ger ännu mer marginal, samtidigt är nog wafers mycket dyrare nu så det kan vara en nödvändig besparing för att inte priset skall dra iväg.

Permalänk
Medlem
Skrivet av Querth:

Ugh. Vill ha ett regelverk som kan begränsa strömbudgeten för grafikkort. Max 150w sen kan Bästa effektivitet vinna.

Vilken tur då att du kan införa ett sånt regelverk för dig själv som konsument hur enkelt som helst. Kika på tester och köp det som presterar bäst inom den effektbudget du accepterar. Klart.

Du får det du vill ha och de som vill ha maximal prestanda och är villiga att tumma på effekten för att få det kan få det också.

Permalänk
Medlem
Skrivet av dannesthlm:

Man får väl nästan hoppas att EU går in och bestämmer hur mycket ett grafikkort får förbruka...

Nej, det får man verkligen hoppas att de INTE gör.

Du kommer kunna fortsätta köpa kort som drar mindre än 300W, men de kommer heta 4060 och 7600 nästa generation.

Permalänk
Medlem
Skrivet av hakro807:

Förvisso inte, men mjukvara följer hårdvarans kapacitet. Det betyder att den som vill ha ett mer strömsnålt kort kommer få svårt att utnyttja modern mjukvara på ett tillfredställande sätt.

Whoaa. Många villkor i sista meningen.
Du menar kanske de titlar som sponsras av grafikkortstillverkarna för att inkludera deras senaste features? Och att man måste använda dessa features för att spelet skall vara ”tillfredsställande”?

Det är en liten, liten spillra av spelmarknaden som bryr sig om det. I själva verket skulle jag vilja säga att det inte är en del av spelmarknaden, utan en del av teknikentusiastsegmentet.

Mjukvaran och hårdvara samevolverar förvisso, men evolutionen drivs av volym, och volymen av spelköpare med diskreta high-end kort är mycket, mycket liten.

Permalänk
Medlem

Det vore intressant om utvecklingen tvingande fram optimering på mjukvarusidan tycker jag. Högre effekt över tid kommer att bli ett problem av redan nämnda anledningar.

Permalänk
Medlem

Tycker inte det här är en utveckling i rätt riktning tyvärr.

Permalänk
Medlem

Så mao säger AMD att deras nästa generation kommer vara strömtörstig, got it!

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Självklart, mer strömförbrukning är naturligt för att undvika kryptogrävandets lönsamhet. Detta har jag hävdat i 2 år nu, men ingen har trott på mig.

Att ingen tror på dig beror på att du har fel i ditt grundantagande.

Vi kan börja i den simpla änden. Vad är det som bestämmer effektbegränsningen på grafikkort?
ATX & PCIe-standarden.

För gamla pcie 3.0 grafikkort ser begränsningen ut så här: 75w ur pcie 16x, 75w från 6pin, 150w från 8pin, totalt 300w om kortet ska kunna certifieras. Således kommer du inte hitta ett gammalt pci-grafikkort som drar mer än 300w. Det ligger nämligen utanför standarden. (Visst kan en partnertillverkare bygga en modell som går utanför standarden, men nvidia och amd kommer inte designa kretsar för effekter utanför standarden.)

Med nya standarder tillåts mer än 300w till grafikkortet. Redan här skulle det vara dags för en sund frågeställning; Höjer tillverkarna hur mycket effekt korten förbrukar för att standarden tillåter det eller är det för att förhindra mining?

En ledtråd är att titta bakåt i tiden. För cirka 25 år sedan, långt före mining, så hade vi grafikkort på PCI, maxgränsen för effekt var 25w. Uppgraderingen till AGP gjorde att korten nu kunde dra drygt 40w istället. Efter ett tag räckte inte dessa 40w, så tillverkare började lägga till molexkontakter på korten. Molexkontakten är designad för att hantera över 100w, men i praktiken får man räkna med kring 50w. 75w var nog det högsta man såg i praktiken. Sen kom pcie och ersatte AGP, nu kunde slotten hantera 75w. Med en ny ATX-standard kom också 6-pins och 8-pinskontakterna, vilket gav oss ytterligare 225w.
Din teori är alltså att vi gått från 25w till 300w av ingen anledning alls, men från 300w till 400w för att förhindra mining.

Men låt säga att vi tror att nya pcie- och atx-standarden effekttak har skrivits i syfte att förhindra mining, skulle din idé kunna stämma rent praktiskt? Generellt så ställer kryptobrytare in grafikkortens power limit i syfte att maximera ROI. Vanligtvis får du mer arbete per watt utförd om du drar ner effektförbrukningen.
Ditt påstående är nu också att nya grafikkort har lägre effektivitet per watt, även när man drar i power limit-reglaget.

Vanligtvis är designen på beräkningskort och grafikkort helt eller delvis samma. Detta är av kostnadsskäl. Ju mer tillverkaren kan återanvända desto bättre. Om dina teorier stämde behöver vi ha något av följande tre scenarion:
1. Prestanda per watt sjunker även på serversidan. Det skulle skapa rubriker, då ingen vill köpa nya kort som ger lägre ROI.
2. Tillverkaren frångår att spara pengar på delad design mellan server- och konsumentsida bara för att skapa en extra ineffektiv konsumentdesign. Ganska tveksamt, när det går att bygga "gratis" begränsningar i drivrutiner, firmware eller stänga av funktioner på kretsnivå.
3. Konsumentkort kommer med ett inbyggt värmeleement, vars enda funktion är att öka förbrukningen.
Verkar något av detta rimligt för ett bolag som vill gå med vinst?

Men låt säga att serverkorten var helt skilda från konsumentkorten. Om det du skriver stämde så skulle förbrukningen hållas ganska konstant där. Den skulle åtminstone inte stiga kraftigt mellan generationerna. Hur ser det ut?
nvidia Volta 350w
nvidia Ampere 400w
nvidia Hopper 700w
Aj då, det stämde inte. Även de dyra beräkningskorten drar mer effekt.

Så här långt har vi landat i följande.
Ditt förslag:
25w -> 300w, har inget med mining att göra.
300w -> 400w, har allt med mining att göra.
En ökning till 400w på konsumentsidan är för att sänka ROI på dina beräkningar.
En ökning till 700w på serversidan är för att höja ROI på dina beräkningar.

Mitt förslag:
Nya flaggskeppskort drar mer effekt för att standarden tillåter det.

Jag föreslår att du drar mindre slutsatser om saker du inte vill lägga tiden på att försöka förstå. Gillar man att kommentera substanslösa killgissningar istället för att läsa på sig eller mäta, så finns det redan en tråd för det.

Permalänk
Medlem
Skrivet av sniglom:

Att ingen tror på dig beror på att du har fel i ditt grundantagande.

Vi kan börja i den simpla änden. Vad är det som bestämmer effektbegränsningen på grafikkort?
ATX & PCIe-standarden.

För gamla pcie 3.0 grafikkort ser begränsningen ut så här: 75w ur pcie 16x, 75w från 6pin, 150w från 8pin, totalt 300w om kortet ska kunna certifieras. Således kommer du inte hitta ett gammalt pci-grafikkort som drar mer än 300w. Det ligger nämligen utanför standarden. (Visst kan en partnertillverkare bygga en modell som går utanför standarden, men nvidia och amd kommer inte designa kretsar för effekter utanför standarden.)

Med nya standarder tillåts mer än 300w till grafikkortet. Redan här skulle det vara dags för en sund frågeställning; Höjer tillverkarna hur mycket effekt korten förbrukar för att standarden tillåter det eller är det för att förhindra mining?

En ledtråd är att titta bakåt i tiden. För cirka 25 år sedan, långt före mining, så hade vi grafikkort på PCI, maxgränsen för effekt var 25w. Uppgraderingen till AGP gjorde att korten nu kunde dra drygt 40w istället. Efter ett tag räckte inte dessa 40w, så tillverkare började lägga till molexkontakter på korten. Molexkontakten är designad för att hantera över 100w, men i praktiken får man räkna med kring 50w. 75w var nog det högsta man såg i praktiken. Sen kom pcie och ersatte AGP, nu kunde slotten hantera 75w. Med en ny ATX-standard kom också 6-pins och 8-pinskontakterna, vilket gav oss ytterligare 225w.
Din teori är alltså att vi gått från 25w till 300w av ingen anledning alls, men från 300w till 400w för att förhindra mining.

Men låt säga att vi tror att nya pcie- och atx-standarden effekttak har skrivits i syfte att förhindra mining, skulle din idé kunna stämma rent praktiskt? Generellt så ställer kryptobrytare in grafikkortens power limit i syfte att maximera ROI. Vanligtvis får du mer arbete per watt utförd om du drar ner effektförbrukningen.
Ditt påstående är nu också att nya grafikkort har lägre effektivitet per watt, även när man drar i power limit-reglaget.

Vanligtvis är designen på beräkningskort och grafikkort helt eller delvis samma. Detta är av kostnadsskäl. Ju mer tillverkaren kan återanvända desto bättre. Om dina teorier stämde behöver vi ha något av följande tre scenarion:
1. Prestanda per watt sjunker även på serversidan. Det skulle skapa rubriker, då ingen vill köpa nya kort som ger lägre ROI.
2. Tillverkaren frångår att spara pengar på delad design mellan server- och konsumentsida bara för att skapa en extra ineffektiv konsumentdesign. Ganska tveksamt, när det går att bygga "gratis" begränsningar i drivrutiner, firmware eller stänga av funktioner på kretsnivå.
3. Konsumentkort kommer med ett inbyggt värmeleement, vars enda funktion är att öka förbrukningen.
Verkar något av detta rimligt för ett bolag som vill gå med vinst?

Men låt säga att serverkorten var helt skilda från konsumentkorten. Om det du skriver stämde så skulle förbrukningen hållas ganska konstant där. Den skulle åtminstone inte stiga kraftigt mellan generationerna. Hur ser det ut?
nvidia Volta 350w
nvidia Ampere 400w
nvidia Hopper 700w
Aj då, det stämde inte. Även de dyra beräkningskorten drar mer effekt.

Så här långt har vi landat i följande.
Ditt förslag:
25w -> 300w, har inget med mining att göra.
300w -> 400w, har allt med mining att göra.
En ökning till 400w på konsumentsidan är för att sänka ROI på dina beräkningar.
En ökning till 700w på serversidan är för att höja ROI på dina beräkningar.

Mitt förslag:
Nya flaggskeppskort drar mer effekt för att standarden tillåter det.

Jag föreslår att du drar mindre slutsatser om saker du inte vill lägga tiden på att försöka förstå. Gillar man att kommentera substanslösa killgissningar istället för att läsa på sig eller mäta, så finns det redan en tråd för det.

Det är klart att jag får fel när du tillskriver mig felaktigheter som jag aldrig har nämnt, sätt ut din halmgubbe som en fågelskrämma istället.

Ingen standard har satts för att förhindra mining det varken tror eller påstår jag, det kan däremot vara mer lukrativt att sälja grafikkort som drar mer ström i standard läget, så länge det går att pressa ut några uns prestanda extra a.k.a fabriksöverklockning.

Jag har inte heller påstått att nya grafikkort skulle ha lägre effektivitet per watt, utan jag tror snarare att den exponentiella ökningen snarare planar ut. Detta då ökningen i rå prestanda kan vara viktigare än effektivitetsökningen.
Som exempel kanske ett 2060 drar 100W medans ett 3060 drar 150W med 20% bättre prestanda, så kanske ett 4060 drar 225W med 25% bättre prestanda istället för att dra 200W med 20% bättre prestanda.
Att jaga ner mängden Watt blir liksom inte så intressant för AMD & Nvidia.

För 25 år sedan användes inte grafikkort till mining då det inte fanns kryptovalutor.

En klase grafikkort som drar 1kWH kostar kanske 2 kronor i timmen att gräva krypto med och man kanske hittar krypto för ett värde av 5 kronor, skulle samma klase grafikkort dra 2kWH så tjänar man bara 1 krona per timme istället för 3 kronor per timme.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Ingen standard har satts för att förhindra mining det varken tror eller påstår jag

Okej, du säger nu att standarden som tillåter högre effekt har inget med mining att göra.
Jag tolkar det som att PCI-SIG och ATX inte är involverade i att förhindra mining. Ok.

Då ligger antimining-biten antingen hos kretskonstruktören (nvidia, amd, intel etc) eller hos partnertillverkaren.

Skrivet av Fenrisulvfan:

det kan däremot vara mer lukrativt att sälja grafikkort som drar mer ström i standard läget, så länge det går att pressa ut några uns prestanda extra a.k.a fabriksöverklockning.

Det här talar mot din sak. Fabriksöverklockning kom före mining. Det är ett sätt för partnertillverkaren att stå ut i benchmarks, öka sina marginaler och segmentera fram fler produkter att sälja.

Menar du att fabriksöverklockning är för att motverka mining? I så fall är pratar vi ett par tiotals watt skillnad, inte de 300->400w som kretstillverkaren står för som tidigare diskuterats. Men vad är partnertillverkarens incitament att motverka mining menar du? Det är inte partnertillverkarna som bygger beräkningskorten med de höga marginalerna.

Eftersom en miner kör grafikkorten vid lägre power limit finns det inte heller något incitament till att köpa fabriksklockade kort (såvida inte de fabriksklockade korten råkar vara billigast på marknaden).

Skrivet av Fenrisulvfan:

Jag har inte heller påstått att nya grafikkort skulle ha lägre effektivitet per watt, utan jag tror snarare att den exponentiella ökningen snarare planar ut. Detta då ökningen i rå prestanda kan vara viktigare än effektivitetsökningen.

Skrivet av Fenrisulvfan:

Som exempel kanske ett 2060 drar 100W medans ett 3060 drar 150W med 20% bättre prestanda, så kanske ett 4060 drar 225W med 25% bättre prestanda istället för att dra 200W med 20% bättre prestanda.

Du skriver att nya grafikkort inte har lägre effektiviten per watt, men du ger ett påhittat exempel som visar just det.
2060, 100w, 100% prestanda. Effektivitet: 1% prestanda per watt.
3060, 150w, 120% prestanda. Effektivitet: 0.8% prestanda per watt.
4060, 225w, 150% (1.2*1.25) prestanda. Effektivitet: 0.67% prestanda per watt.

Om ditt exempel stämde skulle miners flockas till gamla budgetkort eftersom de ger högre prestanda per watt. Jag vet inte i vilken ände du gör din tankevurpa, men jag föreslår att du tittar på faktiska hashrates med anpassade power limit-inställningar, så vi faktiskt diskuterar något konkret.

Första bästa googling visar att generellt får man bättre ROI på stora strömtörstiga flaggskeppskort än budgetkort.
https://minerstat.com/hardware/gpus

Jag kan också slänga ihop ett påhittat exempel, så här får du ett.
Du besöker prisjakt och möts av följande kort:
5090ti med full prestanda, 400w 20.000kr
5090ti med 85% energieffektiv prestanda. 300w 19.500kr eftersom kylaren är krympt.
5090 med 85% prestanda av 5090ti men 380w. 16.000kr

Tror du att majoriteten av kunder skulle välja det energieffektiva kortet över 5090 med samma prestanda?
Tänk på att den som bryr sig om förbrukning, redan har power limits, frame rate limiters och vsync att tillgå.

Skrivet av Fenrisulvfan:

Att jaga ner mängden Watt blir liksom inte så intressant för AMD & Nvidia.

Nej, men det är ju inte ett argument för din sak, tvärtom.
Om nvidia och amd var motiverade att jaga ner förbrukningen men vi ändå såg den stiga, då hade det varit läge att börja spekulera i om det finns någon bakomliggande anledning till detta. Exempelvis att förhindra mining.

Men nu är vi alltså överens om att de saknar incitament att få ner förbrukningen.

Låt oss börja med att applicera Hanlons rakkniv, "Tillskriv aldrig något ont uppsåt när det kan förklaras med dumhet." I den här kontexten blir det följande:
Om nvidia saknar incitament till att få ner förbrukningen, är det troligare att hög förbrukning kommer av lättja än att det skulle vara en sammansvärjelse mot miners.

Vi fortsätter med Ockhams rakkniv "Om flera olika förklaringar till ett fenomen föreligger, så bör man välja den enklaste av dem."
Det enklaste svaret på hög förbrukning är precis som du skriver "Att jaga ner mängden Watt blir liksom inte så intressant".

Slutligen, så finns det ytterligare en dimension av hur man sätter power limit. Spel gör sig bättre med en hög och flexibel power limit eftersom belastningen varierar med vad som ska renderas. Det är fördelaktigt att kortet har effektutrymme att skala upp för att behålla framerate när en scen blir mer komplex att rendera. Det finns alltså ett direkt incitament att sätta en power limit som inte är energieffektiv, med målsättning att kortet inte ska befinna sig på absolut peak större delen av tiden.
Konkret exempel, du kör gsync/freesync till 120Hz, ställer inställningarna så kortet ska klara 120Hz med marginal. När det plötsligt kommer massa effekter på skärmen har kortet energibudget till att skala upp och behålla 120Hz, något du betalar för med lägre energieffektivitet. Vill du få ner energiförbrukningen ytterligare, lås till 100Hz, kortet kommer skala ner sin förbrukning.

Utifrån ovanstående blir min nästa fråga, hade alternativet varit rimligare? Att power limit sätts i syfte att maximera energieffektivitet? Ett sådant kort hade rakt ur lådan varit mer lämpat för mining än gaming. Det verkar underligt att sälja till gamers.

Skrivet av Fenrisulvfan:

För 25 år sedan användes inte grafikkort till mining då det inte fanns kryptovalutor.

Det var precis min poäng. Din tes saknar förklaring på varför ökningen från 25w->300w skedde, men har förklaringen att 300w->400w skedde på grund av mining. Kan du inte motivera varför effektökningen plötsligt byter anledning efter 30 år känns retoriken minst sagt skakig.

Samtidigt visar serversidan med sina besläktade beräkingskort en ökning från 350w -> 700w under samma period, trots att mining inte är ett problem på professionella beräkningskort. Din tes saknar förklaringsmodell om varför det ser ut så.

Skrivet av Fenrisulvfan:

En klase grafikkort som drar 1kWH kostar kanske 2 kronor i timmen att gräva krypto med och man kanske hittar krypto för ett värde av 5 kronor, skulle samma klase grafikkort dra 2kWH så tjänar man bara 1 krona per timme istället för 3 kronor per timme.

Ja, det är helt riktigt. Men för att citera ditt inlägg ovan "Jag har inte heller påstått att nya grafikkort skulle ha lägre effektivitet per watt" så är det fortfarande mest lönsamt att köpa ett nytt grafikkort.

Om det nya kortet har högre effektivitet per watt, som du skriver, så är det ett nytt kort som gör att du tjänar 3 kronor per timme och ett gammalt kort med lägre effektivitet per watt som gör att du tjänar 1 krona per timme.

Här saknar du än en gång förklaring till hur detta är ett hinder för mining. Om nya kort ger bäst prestanda per watt, så är det nya kort som en miner vill ha, det ger högst ROI.

Permalänk
Medlem
Skrivet av EntropyQ3:

Whoaa. Många villkor i sista meningen.
Du menar kanske de titlar som sponsras av grafikkortstillverkarna för att inkludera deras senaste features? Och att man måste använda dessa features för att spelet skall vara ”tillfredsställande”?

Nja, jag talar inte om att allt måste kunna köras på Ultra i 4K utan om att det skapas en betydande lucka i utbudet både prestanda- och energimässigt. Integrerade lösningar blir allt bättre men ligger fortfarande långt efter vanliga grafikkort. Och low-end-korten kan erbjuda bättre prestanda och låg strömförbrukning men är sällan prisvärda. Vad jag talar om är alltså nischen korten som drar 50-60 watt och erbjuder god spelprestanda vid 1080p och medelinställningar.