Rykte: Nästa generations grafikkort kan dra uppemot 500 W

Permalänk
Medlem
Skrivet av Mahkizmo:

... begränsningen är väl typ 25A per fas in i huset samt att man betalar för förbrukningen.

Skrivet av Knotvillage:

Har du direktverkande el annars kanske du klarar dig på 16A. Det kan ju skilja några hundra per månad.

Min familj flyttade 1977 in i en nybyggd villa med direktverkande elvärme. Det var ett helt kvarter i köldhålan Nässjö som byggts med likadana hus.
Där var säkrat med 20A på ingående. Grannen som var en snål elektriker gjorde en överslagsberäkning att 16A borde räcka, så han bytte säkringar i sitt hus för att testa. Efter ett år utan problem tror jag att alla i kvarteret säkrade ner till 16A.
Enda gången på 40 år då 16A var irriterande lite var när vi skulle bygga altan och blev tvungna att tillfälligt stänga av vår extra kyl och frys (av äldre modell) när cirkelsågen skulle startas.

Permalänk
Medlem
Skrivet av Querth:

Borde ju inte vara tillåtet egentligen? Någon standard som sätter en gräns på strömkonsumtionen för privatpersoner borde ju finnas, vi ska ju inte använda ännu mer ström eller?

Vi borde väl få använda hur mycket ström vi vill, sen är det ytterst få som kör på high-end-grafikkort och alla kanske inte körs 24/7; kanske miners då, men om de kör ett som drar 500 eller 2 som drar 250 gör ju ingen nämnvärd skillnad i strömförbrukningen medans man däremot måste producera dubbelt så mycket material till själva korten.

Permalänk
Medlem

Alltså, hade 1000w agg och 2x7970 för snart 10 år sedan, grafikkorten kunde peaka mot 300w styck, gick utmärkt med luftkylt miditower chassi.
Man behöver ju inte köpa top of the line om man nu inte har råd med varken el eller köpa ett annat chassi, lugna sig lite nu. Proportioner, motsvarande en(1) laddning av en tesla kan du spela på datorn 100h+. Hur tänkte ni som menar att vi ska spara ström att övergången till elbilar ska gå till? Vi kommer att öka strömförbrukningen avsevärt generellt. Se bara på "AC" tråden.

Ser inga problem med att top of the line drar mycket ström, men det är ju trevligt med så lite som möjligt såklart.

Permalänk
Medlem
Skrivet av Chromatic:

Åh men då vet jag mer!
Spelar den där Moore's Lag in i spelet på något sätt? För jag har hört att den typ är helt död?

Hur död Moores law är beror lite på vilken definition man använder. Så som den definerades från början var att man fick dubbelt så många transistorer för samma relativa pris. Densitetökning tickar på i hyfsat takt men inte lika fort längre, dock så ryktadedes det ju om att t ex TSMC:s 5nm till och med hade ett dyrare pris per transistor än tidigare nod, så går man efter det så är det tokdött. Vid runt 28nm har jag för mig att Nvidia började göra massa väsen om sig att det började bli en markant skillnad i priset per transistor vid krympningar, och att det skulle leda till att man helt enkelt fick göra dyrare kretsar för att hålla liknande prestandaökningstakt.

Vissa jämnförelser tittar även bara på hur många transistorer en CPU kan innehålla (t ex om du bara bild googlar moore's law), och där följer man väl på sätt å vis kurvan, men personligen tycker jag att man jämför äpplen med päron när man kastar ut kretsstorlek och pris ut ur fönstret i en jämförelse, då beskriver man inte moore's law.

Observationen som beskriver krympningens relation till effektiveten kallas denard scaling (se nedan). Den är också till viss del "död".

Skrivet av Barsk66:

Moores lag har ju gett oss bättre prestanda per Watt i många år då för de flesta användare effekterna minskades - med ökad prestanda. Tänker främst på laptops, surfplattor och mobiler här. På spelfronten har det ändå legat rätt stabilt länge. Men nu är ju Moores lag rätt överspelad och då får vi inte längre den effektbesparing man hade behövt för varje ny generation grafikkort. Istället drar effektbehovet iväg lavinartat... Jag ser faktiskt en fara i att myndigheterna drar öronen åt sig om detta inte tas på allvar av tillverkarna så de tänker till runt detta. Det finns en rimlig gräns för hur mycket el en dator kan dra. I LED-lampsjämförelse skulle ju en enda speldator kunna dra lika mycket ström som 1000 lampor.

Kan myndigheterna lagstifta om glödlampor som drog "för mycket" så kommer det nog här med...

Även om dom till viss del är sammankopplade så tänker du nog på Denard scaling https://en.wikipedia.org/wiki/Dennard_scaling

Angående nyheten, vet inte om folk har lite dåligt minne eller bara missade hela SLI perioden? Kryllade av datorer bland entusiaster med två, tre, ja ibland fyra grafikkort och stora nätagg. Eftersom SLI/Crossfire är dött så är det väl inte superkonstigt med ett kort som antagligen inte drar mycket mer än vad två top kort drog för ett antal år sedan, för dom som inte nöjer sig me prestandan som 250-300W kan leverera, speciellt eftersom det kan handla om kort med mcm kretsar.

Permalänk
Medlem
Skrivet av CubaCola:

Jag har kvar min dammsugare som drar idag olagliga (för dammsugare) 1250w när man dammsuger.
Men jag har kvar den som en bra ursäkt när man inte vill dammsuga, att man tänker på miljön.

Angående begränsningar så borde det finnas någon liten gräns att alla hushåll får dra 1000 watt för att kunna ha frys, kyl, spis, och värme och varmvatten igång utan att det ska bli problem.
men sedan all "lyxkonsumption" får vara extra per person i hushållet.

OffT: Att regeln för dammsugarna kom beror ju på att det var "fint" med hög effekt, annars gick det inte att sälja. (Har hört från utvecklare hos en svensk vitvarutillverkare att man hellre ville att sugeffekten var det som skulle specas.)

Att gå på hög in-effekt gjorde att tillverkarna satte i motorer med låg verkningsgrad för att få upp strömförbrukningen. (Blev säker lite billigare tillverka också.) Men skillnaden att sätta på en 2kW värmefläkt eller dammsuga blir ju marginell, blir dessutom inte kul när det redan är varmt.

OnT: Verkar som 3070 är det optimala kortet i dag då.

Permalänk
Medlem
Skrivet av Querth:

Borde ju inte vara tillåtet egentligen? Någon standard som sätter en gräns på strömkonsumtionen för privatpersoner borde ju finnas, vi ska ju inte använda ännu mer ström eller?

Om du flyttar ut i en koja i skogen med en fotogenlampa så blir det mera el kvar till oss andra.

Skämt åsido, vi kommer behöva ganska mycket mera elkraft per capita i framtiden, vi ska ju ersätta i princip all förbränning med el...

Permalänk
Avstängd
Skrivet av Knotvillage:

Bara CPU och GPU drar 630w i spel. Pumpen 20w. Snåla på psu ska man inte göra. Som JTC säger, man ska lägga sig där agget presterar som bäst. Drar datorn 600w ska man ha ett 1000w agg för det jobbar som bäst runt 60%. Sen är det skönt att aldrig fläkten startar heller viker den för vid 800w.

Håller inte helt med med mindre man har gott om pengar.
Min polare brassade på med 3x 300w gpu'er på vardera billig 850w gold china PSU när han minade ethereum i stekheta guangdong back in the days.

Jag trodde aldrig kina PSU'erna skulle palla ~100% 24/7 konstant load i värmen men det gjorde de.

Skulle såklart inte rekommendera att köra på det viset, men att sprätta ut för ett 1000w agg för en dator som har plaberad peak load på 600w är rätt bortkastat.

Bättre att satsa på ett effektivare 750/850 agg. Särskilt om det är en vardagsdator som inte kommer stå och tugga på max 24/7

Permalänk
Medlem

Är väl inte hela världen om toppmodellerna har en hög maxförbrukning. Är effektiviteten bibehållen eller bättre så kan man ju med powertarget justera in vart man vill ligga i förbrukning. Eller rentav köpa ett billigare lägre tier kort än toppsegmentet för 20k.

Lite som att köpa en sportbil och gnälla över att den drar mycket om man använder all tillgänglig prestanda.

Permalänk
Medlem
Skrivet av dlq84:

Det hoppas jag att ingen vill begränsa, jag väljer själv hur jag lever mitt liv. Elransonering är inget som tillhör ett I-land.

Kanske dumt att begränsa ja, dock kanske man skulle ha det som inriktning, det skulle i sin tur eventuellt bidra till att man utvecklar strömsnålare produkter med hög prestanda.

Permalänk
Medlem
Skrivet av Yatagarasu:

Väldigt många här som verkar tro att RTX 4060 kommer dra 500W (om man ska döma från kommentarerna i alla fall) — Det kortet från nästa generation som med största sannolikhet kommer att sälja mest, om inte en lägre nivå ändå i form av typ ett RTX 4050 blir bästsäljaren.

Nä, men om max modellen drar 500W så är det ju risk för att x060 modellen kommer dra typ 300W. Det är ju lite mer än vad de flesta är vana vid. För min egen del så är jag mest oroligt för värmeutveckling, och hur man hanterar det.
Men vi får väl se hur det blir,, Detta är ju bara ett rykte som sagt, och det finns ju en chans att nvidia's plan A inte kommer dra 500W.

Permalänk
Medlem

Oavsett vad man kan tycka och tänka om effektbehov, så kommer det krävas allt mer komplexa kylarlösningar som då även sannolikt kommer göra avtryck på prissättning.

Permalänk
Medlem
Skrivet av CubaCola:

Undrar om det finns någon gammal kärnreaktor till salu ifrån någon skrotad rysk atomubåt man kan köpa billigt.

I övrigt så har det inte gått att använda min 5600x + 3070 när det varit varmt ute, för det blir snabbt väldigt varmt i rummet.

Finns några, men jag tror du får plocka upp dom från havets botten själv

Lär finnas 16st bara i Barents hav som ryssarna dumpat.

https://www.svd.se/rysk-atomubat-sjonk-till-botten-i-barents-...

https://en.wikipedia.org/wiki/List_of_sunken_nuclear_submarin...

Permalänk
Medlem
Skrivet av H_Bozz:

Håller inte helt med med mindre man har gott om pengar.
Min polare brassade på med 3x 300w gpu'er på vardera billig 850w gold china PSU när han minade ethereum i stekheta guangdong back in the days.

Jag trodde aldrig kina PSU'erna skulle palla ~100% 24/7 konstant load i värmen men det gjorde de.

Skulle såklart inte rekommendera att köra på det viset, men att sprätta ut för ett 1000w agg för en dator som har plaberad peak load på 600w är rätt bortkastat.

Bättre att satsa på ett effektivare 750/850 agg. Särskilt om det är en vardagsdator som inte kommer stå och tugga på max 24/7

Annars är väl PSU ett av de saker som man har kvar längst och prylarna drar ju vara mer och mer för varje generation. Jag skulle iallafall rekommendera att skaffa ett agg som är effektivast för den specifika datorn. Man kan som bekant aldrig ha för stort PSU och man vet ju aldrig vad som händer framöver. Man kanske byter upp sig eller ner sig och då har man ett agg som klarar det.

Permalänk
Rekordmedlem
Skrivet av Knotvillage:

Annars är väl PSU ett av de saker som man har kvar längst och prylarna drar ju vara mer och mer för varje generation. Jag skulle iallafall rekommendera att skaffa ett agg som är effektivast för den specifika datorn. Man kan som bekant aldrig ha för stort PSU och man vet ju aldrig vad som händer framöver. Man kanske byter upp sig eller ner sig och då har man ett agg som klarar det.

Datorer i allmänhet drar mindre ström för varje uppdatering men Nvidia verkar nu ha kört fast i sin teknikutveckling och vräker bara på med "muskler" utan att förbättra tekniken.

Permalänk
Medlem
Skrivet av Barsk66:

Det var ju inte längesedan glödlampor förbjöds för de drog så mycket el. En vanlig lampa drog då 25-60W, när lågenergilamporna kom med sitt usla färgspektra så drog de runt 9-13W. Nu finns LED-lampor med filament som ger en upplevelse som helt motsvarar de gamla glödlamporna och de drar nån enstaka Watt. Fantastisk utveckling där.

Moores lag har ju gett oss bättre prestanda per Watt i många år då för de flesta användare effekterna minskades - med ökad prestanda. Tänker främst på laptops, surfplattor och mobiler här. På spelfronten har det ändå legat rätt stabilt länge. Men nu är ju Moores lag rätt överspelad och då får vi inte längre den effektbesparing man hade behövt för varje ny generation grafikkort. Istället drar effektbehovet iväg lavinartat... Jag ser faktiskt en fara i att myndigheterna drar öronen åt sig om detta inte tas på allvar av tillverkarna så de tänker till runt detta. Det finns en rimlig gräns för hur mycket el en dator kan dra. I LED-lampsjämförelse skulle ju en enda speldator kunna dra lika mycket ström som 1000 lampor.

Kan myndigheterna lagstifta om glödlampor som drog "för mycket" så kommer det nog här med...

Kan komma, men mindre troligt. En gammaldags 60W glödlampa kostade ca 2:- på IKEA om man köpte 10-pack. (drog el för runt 60:- om den höll 1000 timmar) så ingen större vinst på det för tillverkarna, så de lobbade snarare för förbudet än mot. Tillverkarna av grafikkort kommer däremot säkerligen lobba emot ett sådant förbud.

Nu kan man på clas-olle köpa en motsvarande led-lampa för 60:- som drar 10W. Dock verkar det fortfarande vara problem med livslängden om man kollar recensionerna. Köpte själv en tidigt för över 200:- som höll ca 50 timmar innan den började dumma sig.

Permalänk
Medlem
Skrivet av Bengt-Arne:

Får fråga.
Vilket syftar det på?
Kalifornien, Colorado, Hawaii, Oregon, Vermont, Washington eller EU?

Jag har pratat om EU Från början...

EU täcker mer än endast ett tak över hur mycket en PC får förbrukas i kWh/år, eller ett nätaggregats verkningsgrad.
Det är olika kategorier där grafikkort klassas specifikt beroende bandbredd som ex., även olika instickskort, hårddiskar m.m.
Allt sammanställs till en total årlig max förbrukning som är olika för var enhet (PC, laptop...) , samtidigt så görs en löpande revidering av kraven.
https://eur-lex.europa.eu/legal-content/SV/TXT/PDF/?uri=CELEX... (Obs! PDF)
Saxat från länk:
diskret grafikkort (dGfx): en diskret intern komponent som innehåller en eller flera grafikprocessorer med ett gränssnitt för lokal minneskontroll och lokalt grafikspecifikt minne, och som delas in i följande kategorier:
a) G1 (rambuffert – bandbredd ≤ 16).
b) G2 (16 < rambuffert – bandbredd ≤ 32).
c) G3 (32 < rambuffert – bandbredd ≤ 64).
d) G4 (64 < rambuffert – bandbredd ≤ 96).
e) G5 (96 < rambuffert – bandbredd ≤ 128).
f) G6 (rambuffert – bandbredd > 128 [med rambuffert – databredd < 192-bitar]).
g) G7 (rambuffert – bandbredd > 128 [med rambuffert – databredd ≥ 192-bitar]).

Med rambuffert – bandbredd (FB_BW) avses den mängd data som behandlas per sekund av samtliga grafikprocessorer
(GPU) på ett diskret grafikkort (dGfx), och den beräknas enligt följande:
Rambuffert – bandbredd = (datahastighet × databredd)/(8 × 1 000)
Där följande gäller:
a) Rambuffert – bandbredd uttrycks i gigabyte/sekund (GB/s).
b) Datahastighet är den effektiva minnesdatafrekvensen mätt i MHz.
c) Databredd är databredden hos minnets rambuffert, ut­tryckt i bitar.
d) Med siffran 8 omvandlas resultatet till byte.
e) Division med 1 000 omvandlar megabyte till gigabyte.

G1 till G7 får sen olika krav på kWh/år, krav som justeras ner med tiden.

Var dator delas in i klasser där max förbrukning för grafikkort varierar.
Exempel.
Från 1'a Juli 2014 gällde för G1 34 kWh/år, från 1'a Januari 2016 så var det 18 kWh/år föe G1.
För en annan klasifiering gäller motsvarande 12 kWh/år och 7 kWh/år.

Hmm... 7 kWh/år innebär med ett 500W grafikkort totalt 14 timmars spelande per år, det är något för en gamer

Nu gäller det här ju när datorn är idle, dvs inte används.
se tex:
https://www.youtube.com/watch?v=cUgyyWsJUgw

Permalänk
Avstängd
Skrivet av Knotvillage:

Annars är väl PSU ett av de saker som man har kvar längst och prylarna drar ju vara mer och mer för varje generation. Jag skulle iallafall rekommendera att skaffa ett agg som är effektivast för den specifika datorn. Man kan som bekant aldrig ha för stort PSU och man vet ju aldrig vad som händer framöver. Man kanske byter upp sig eller ner sig och då har man ett agg som klarar det.

Kör man ett 1000w gold agg i en dator som drar max 300w är det mindre lyckat. Bättre med ett 750w platinum.

Dessutom håller inte alls PSU i det oändliga. plötsligt går man från 20->24pin atx eller från 6->8->12pin för gpun eller fråm 4pin molex till vad de nu heter som går in i hårdiskarna med sata kontakter. Pratades ju om att flytta över 5v till moderkorten nyligen.

Permalänk
Medlem
Skrivet av SAFA:

Nu gäller det här ju när datorn är idle, dvs inte används.
se tex:
https://www.youtube.com/watch?v=cUgyyWsJUgw

Precis!

Tusan räknade med en annan reaktion, med tanke på 14 timmar per år

Permalänk
Medlem
Skrivet av H_Bozz:

Kör man ett 1000w gold agg i en dator som drar max 300w är det mindre lyckat. Bättre med ett 750w platinum.

Dessutom håller inte alls PSU i det oändliga. plötsligt går man från 20->24pin atx eller från 6->8->12pin för gpun eller fråm 4pin molex till vad de nu heter som går in i hårdiskarna med sata kontakter. Pratades ju om att flytta över 5v till moderkorten nyligen.

Nej. Har man en dator som drar 300w ska man absolut satsa på 750 men som i mitt fall när dator kan dra över 800w och drar runt 730w i spel så är ett 1200w agg inte alls överdrivet. Hade absolut klarast sig på ett 1000w som jobbar nästa i runt 70%.

Permalänk
Medlem

Next-gen blir stort, men jag ser inte mycket behov utav detta utöver overclockers och företag som vill visa stora siffror på benchmarks.

Är helt nöjd med att fortfarande spela spel på 1080p, vilket inte kräver mer än en 2060. De nya premiumkorten krävs bara för att driva spel i 4k+ upplösning vilket jag ser som onödigt lyx.

Permalänk
Medlem
Skrivet av SAFA:

Kan komma, men mindre troligt. En gammaldags 60W glödlampa kostade ca 2:- på IKEA om man köpte 10-pack. (drog el för runt 60:- om den höll 1000 timmar) så ingen större vinst på det för tillverkarna, så de lobbade snarare för förbudet än mot. Tillverkarna av grafikkort kommer däremot säkerligen lobba emot ett sådant förbud.

Nu kan man på clas-olle köpa en motsvarande led-lampa för 60:- som drar 10W. Dock verkar det fortfarande vara problem med livslängden om man kollar recensionerna. Köpte själv en tidigt för över 200:- som höll ca 50 timmar innan den började dumma sig.

Nu hamnar vi lite OT, men kort svar. Priset på LED-lampor går bara neråt, och kvaliteten uppåt. Färgspektra/färgtemp nu fullt OK, och i princip identiskt med glödlampor. Fördelen här är ju att det finns flera olika färgtemperaturer att välja för högre temp om man vill ha "vitare". Glödlamporna var ju alla runt 2700K, möjligen vitare i de högre effekterna.

Om du nöjer dig med motsvarande 40W (407 lumen), så har t.ex Jula 2-pack för 19.90 för 4 W filamentlampa med frostat glas. Även om de inte håller de utlovade "upp mot 15.000 timmar" så är energivinsten 10 gånger. Så jag tycker nog myndigheterna gjorde rätt här, även om lågenergi/ledlamporna då var bedrövliga och svindyra. Marknaden har verkligen svarat på behovet.

Nu är jag i normalfallet absolut inte för regleringar av den här typen, men skulle det ske här mot datorkomponenter som går mot orimliga effektbehov så kommer marknaden svara mot det också. Men jag hoppas verkligen vi inte hamnar där.

Permalänk
Medlem
Skrivet av mrwu:

Next-gen blir stort, men jag ser inte mycket behov utav detta utöver overclockers och företag som vill visa stora siffror på benchmarks.

Är helt nöjd med att fortfarande spela spel på 1080p, vilket inte kräver mer än en 2060. De nya premiumkorten krävs bara för att driva spel i 4k+ upplösning vilket jag ser som onödigt lyx.

Beror väl till stor del vad man har för spelskärm också.
Min 65" i 4k är så mycket skarpare än i 1080p.
Håller inte med att det är lyx att spela med skarp grafik 😁
Lyx med glasögon 😉

Permalänk
Datavetare
Skrivet av mrqaffe:

Datorer i allmänhet drar mindre ström för varje uppdatering men Nvidia verkar nu ha kört fast i sin teknikutveckling och vräker bara på med "muskler" utan att förbättra tekniken.

Fast nu verkar det som både Nvidia och AMD "vräker på". Det som läkt om Intels high-end GPGPU krets, "Ponte Vecchio", pekar ju också på något som kommer dra 400-500 W. Så det är tyvärr inte Nvidia-specifikt, det gäller alla som går efter high-end

Datorer har tyvärr gått allt annat mot att dra minder. Första generationens Pentium gick ju under öknamnet "brödrosten", den drog 16-17 W... När man "rättade" felet i generationen efter som körde 3,3 V i stället för 5 V minskade det till 10 W. Då pratar vi om en krets för stationära!

Idag har vi CPUer från Intel/AMD designade för ultratunna som har peakeffekt på 45-50 W (och dessa kan inte gå för full på batteri om man vill ha mer än 30 min batteritid, AMD har till och med börja klockad ned I/O-delen i bärbara under batteridrift, det rätt rejält).

Desktop drar >150 W (Intels PL2 är >200 W och även om AMDs "TDP" är 105 W är det bara för CPU-kärnorna, kretsen drar totalt 165 W från sockeln).

Från 2017 till 2020 mer än fördubblades omsättning för kyllösningar till servers, och det är inga småsiffror utan det handlar om ett affärsområde som idag omsätter ~14 miljarder USD!

Allt faller tillbaka på att "Dennard scaling" i praktiken upphörde för ~15 år sedan. Det går att pressa in allt fler transistorer per area-enhet, så länge "Dennard scaling" fungerade effekten per area-enhet ungefär konstant men idag har man valet att endera öka effekten eller så får man acceptera allt större andel "dark silicon" i kretsarna. D.v.s. för varje specifikt fall kan bara en delmängd av kretsen vara aktiv, ändå värdefullt då fler transistorer kan accelerera specifika fall.

I praktiken har vi en kombination: kretsar drar allt mer, vi får också allt mer mörkt kisel. Just GPUer har (än så länge) rätt lite mörk kisel, så där får man dra upp effekten om man vill få full utväxling. CPUer börjar får rätt mycket mörk kisel, rätt stora delar av ALUs i en modern CPU är inaktiv, i SIMD-optimerade fall får alla dagens x86 CPUer skruva ned frekvens för att inte smälta...

Permalänk

Jag ser inga problem med detta. Vill man ha bäst prestanda så får det dra en hel del

Permalänk
Medlem
Skrivet av Barsk66:

Nu hamnar vi lite OT, men kort svar. Priset på LED-lampor går bara neråt, och kvaliteten uppåt. Färgspektra/färgtemp nu fullt OK, och i princip identiskt med glödlampor. Fördelen här är ju att det finns flera olika färgtemperaturer att välja för högre temp om man vill ha "vitare". Glödlamporna var ju alla runt 2700K, möjligen vitare i de högre effekterna.

Om du nöjer dig med motsvarande 40W (407 lumen), så har t.ex Jula 2-pack för 19.90 för 4 W filamentlampa med frostat glas. Även om de inte håller de utlovade "upp mot 15.000 timmar" så är energivinsten 10 gånger. Så jag tycker nog myndigheterna gjorde rätt här, även om lågenergi/ledlamporna då var bedrövliga och svindyra. Marknaden har verkligen svarat på behovet.

Nu är jag i normalfallet absolut inte för regleringar av den här typen, men skulle det ske här mot datorkomponenter som går mot orimliga effektbehov så kommer marknaden svara mot det också. Men jag hoppas verkligen vi inte hamnar där.

Jo, hade inte reglerna kommit så hade vi nog inte haft några bra LED-lampor i dag.
För belysning så är ju LED numera helt OK, var ju värre med de s.k lågenergilamporna, där var färgspektra ganska dåligt. Kan fortfarande bli en del konstiga färg-effekter om man fotograferar i LED-ljus.

Permalänk
Medlem
Skrivet av Yoshman:

Allt faller tillbaka på att "Dennard scaling" i praktiken upphörde för ~15 år sedan. Det går att pressa in allt fler transistorer per area-enhet, så länge "Dennard scaling" fungerade effekten per area-enhet ungefär konstant men idag har man valet att endera öka effekten eller så får man acceptera allt större andel "dark silicon" i kretsarna. D.v.s. för varje specifikt fall kan bara en delmängd av kretsen vara aktiv, ändå värdefullt då fler transistorer kan accelerera specifika fall.

Det blir ju ett intressant optimeringsproblem. Kan man t.ex. lägga cache-minne eller annan logik som inte drar så mycket ström där det annars skulle varit "dark silocon" och göra adresseringen så man sprider ut accesserna över en större yta. Men det kanske redan görs i dag.

Permalänk
Medlem

Oj! Jag trodde att det skulle bli lägre krav på nästa GPUs istället eftersom 3000-serien var en så stor förbättring, samt att man ska ändra från 8nm till 5nm.

Hoppas att det inte blir en miningboom en gång till då om grafikkorten blir helt sjukt mycket bättre, så det blir samma skit med tillgången på 4000-serien också.

Permalänk
Medlem
Skrivet av ronz:

Det är klart. Det har väl aldrig gått åt andra hållet?

GTX 600 serien ringde och ville påpeka att sett var bättre.. vid vissa tidpunkter i det förflutna.