Geforce RTX 4060 påstås vara mer effekttörstigt än RTX 3070

Permalänk
Medlem
Skrivet av dagas:

Var inte länge sedan ett X60 kort drog 120W.

Men passande med 4000 serien att vara lika energitörstig som 400 serien var.

Lite Fermi vibbar kanske? 400-serien var nog ganska väl representerad i toppen av de här listorna.

Här tror tror jag ändå att det har mera att göra med antalet CUDA kärnor. Det vad Nvidia sen anser att de behöver få ut av korten är en annan sak. Helt klart föredrar de en höjd effektförbrukningen framom priskrig med AMD. Nvidia förutsätter dessutom att de ska inneha prestandakronan.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Beror väl på spel antar jag, jag används inte swec då 1070 inte är med i testlistan.
Sen har ju 2070 ganska stora problem i vissa spel i swec tester som kanske drar ner average? Som spelet control

Må hända. Sanningen ligger säkert nån stans i mitten. Tror dock 50% är vid väldigt handplockade titlar.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Thomas:

Vi är nog många som snarare efterfrågar högre prestanda vid samma effekt, snarare än samma prestanda vid lägre effekt.

Ding ding ding.

Permalänk
Medlem

Allt handlar om att AMD och Nvidia inte vill ha in en ny stark spelare på grafikkorts fronten där av att det kommer komma extra starka kort denna gen mot förra generationen.
Gäller för AMD och Nvidia att göra allt de kan så Intel inte kommer in och förstör den lukrativa marknaden som grafikkort blivit. Nvidia har ett större värde än Intel vilket visar vilka pengar det finns i grafik/AI marknaden idag.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk

Det är ganska klart att Nvidia, AMD, Intel kommer göra riktigt strömtörstiga kort om detta ger en märkbar extra prestanda. Den tillverkaren som bara gör lättdrivna kort kommer ej bli attraktiv hos många konsumenter. För de miljömedvetna så finns det iGPU i de flesta processorer idag.

Men sedan får vi se. Jag ser miljöproblemet med bilar, där det stora problemet är onödig körning. Jag misstänker en stor andel v de som köper dessa grafikkort har de till annat än skol och vanligt arbete. De kommer också för detta nöje belasta dem så mycket som de kan.

Permalänk
Medlem
Skrivet av källarinvånare:

Säg att miljöfascister år 1996 hade bestämt att grafikkorten i en dator aldrig får dra mer ström än ett Woodookort, spel som Guardians of the Galaxy i 4K ultra settings hade troligtvis varit minst tusentals år bort. Handen på hjärtat, är det en värld som någon hade velat leva i? Vill man ha ett tyst och svalt kort så köper man ett 3050, vill man ha en maxad spelupplevelse så köper man ett 3090 Ti. Man kan inte både ha kakan och äta den.

Definitivt. Miljön är ju det viktigaste men samtidigt kanske vi hade fått fram riktigt häftiga kretsar för handhållna enheter och laptops.

Permalänk

Precis som med CPU. 30w mellan varje serie. 9900K drog 254w och 12900K ligger på 340.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS

Permalänk
Medlem

Struntar lite i effekten faktiskt. Håller sig priserna kring rekommenderade riktpriser så blir det ett köp. Men det blir max ett RTX4070.

Högt över riktpriser? Då är jag inte intresserad (igen).

Hoppas på det bästa, behöver byta nu för att datorn ska hänga med.

Visa signatur

If nobody hates you, you’re doing something wrong.

Permalänk
Medlem
Skrivet av Dunde:

50W extra effekt vid 100% last och så tror man att man kommit till Miljöpartiets forum. Vi kan döpa om en del av forumet till Sweputtefnaskclockers....

Mer så att lagar och riktlinjer lär komma om detta fortsätter. Rimmar väldigt illa med hur tänket ska fungera om vunnen-prestanda/watt är så lågt.

Visa signatur

LOL! Check this out! :)

Permalänk
Medlem
Skrivet av Elakekocken:

Struntar lite i effekten faktiskt. Håller sig priserna kring rekommenderade riktpriser så blir det ett köp. Men det blir max ett RTX4070.

Högt över riktpriser? Då är jag inte intresserad (igen).

Hoppas på det bästa, behöver byta nu för att datorn ska hänga med.

Är riktpriserna 15k för 4070 så är det alltså okej?

Målet för min del är bättre prestanda per krona, absoluta priset är inte lika viktigt. Riktpris är bara bluff och båg, det har vi sett i snart ett decennium från båda lagen

Permalänk

Får väl skaffa AC till datorn också då.

Permalänk
Medlem

Under voltning och underklockning med nära bibehållen prestanda kommer nog bli nya tävlingar i framtiden. Undervoltar mitt 3080 med nära bibehållen prestanda och sparar på en del watt.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Cerd Moyen:

Kan också ha att göra med att AMD kommer med något riktigt häftigt.

Om något är tydligt, Nvidia höll endast tillbaka releasen av 1080Ti var det? När AMD fumblade runt med Vega i ett år. Nvidia kör ett eget race, de gör inte misstaget att överskatta AMD igen.

Permalänk
Medlem

Captains Workspace provkörde ju en RTX 4090 för över ett år sedan, tycker det stämmer över ens med det vi hör nu /S

Visa signatur

Rota3: Ryzen 5600 - 32GB - Radeon RX 7600 - Kingston NV200 2TB - Fractal Design R3 - EVGA Supernova 750W

Permalänk
Medlem
Skrivet av källarinvånare:

Nej det gör de inte. De må själva tro att de gör det men sen går de och köper det senaste mid-/high-end kortet i alla fall. Ta Starric t.ex som klagar på att denne vill ha "mer speed till samma eller lägre värmeutveckling", utan att förstå att det är precis det vi får med varje ny generation.

Jag är själv del i det.
Jag reagerade negativt på de ökade effektkraven från spelGPUer redan när ATI sprängde PCI gränsen på 25W med sina R9700 kort som introducerades för idag 20 år sedan. Sitter ändå med ett AMD Vega kort (med Morpheus monsterkylare och -40% power limit).

För mig känns detta som en utveckling som idag är helt driven av tillverkare (och handel) snarare än att spelen blir roligare eller bättre. Vi sitter fortfarande på baken och jagar pixlar på en skärm, pixlarna är numera så små att de närmar sig synbarhetsgränsen, teknologin vi betalar för ger resultat vi måste plira på stillbilder i flera gångers förstoring för att alls kunna uppfatta, helt oaktat att om man faktiskt spelade ett spel skulle uppmärksamheten vara någon helt annanstans. Den här grenen av PC marknaden är upplärd att värdera prestanda, men sedan Dennard scaling upphörde har prestandastegen i hög utsträckning behövt köpas med höjd energibudget - till, i mina ögon, mycket måttlig faktisk nytta. Från mitt perspektiv har spelgrafiken evolverat till irrelevans - utvecklingen nu handlar om tröghet hos tillverkare och marknad. Prylar måste säljas, aktieägare blidkas, the show goes on.

Det ena som skär i ögonen är att teknologiutvecklingen runtomkring trendar mot effektivisering och mindre slöseri - desktop PC är uppenbart ur fas med sin samtid. Det andra är att allt eftersom hålet blir djupare blir det allt svårare att ta sig ur. Jag hade gladeligen köpt, säg, en uppiffad XBox sx på 5nm och 140W för hela systemet, i kompakt format och i princip knäpptyst - om den hade sålts. (Jag köpte i princip den datorn fast mindre och energisnålare, en Mac Studio, för ett par månader sedan.)

Men som någon med ett stort spelbibliotek på PC verkar det som om jag helt hänvisas till energikrävande och dyra g4m3r-produkter framöver, och som konsument är jag inte alls nöjd med det. Jag vet att mitt användningsområde kan täckas in mycket väl med en liten sub 100W burk på TSMC 5nm, men ingen PC tillverkare kommer att erbjuda något sådant. Redan grafikkorten i sig själva kommer att dra mer än det dubbla redan från den lägre delen av skalan, och sedan kommer CPU, minne, SSD, moderkort och PSU-förluster ovanpå det.

Desktop PC känns som dinosaurier - stora, kraftfulla, och evolverade in i en återvändsgränd.

Permalänk
Medlem
Skrivet av medbor:

Är riktpriserna 15k för 4070 så är det alltså okej?

Målet för min del är bättre prestanda per krona, absoluta priset är inte lika viktigt. Riktpris är bara bluff och båg, det har vi sett i snart ett decennium från båda lagen

Man kan ju vrida på en persons argument hur man vill. Jag tänker ju normala riktpriser som det var med t.ex. GTX 400-900-serien. Inte dessa banala priser som vart på RTX 3000-serien.

Precis som du skriver själv så är prestanda per krona viktigt även här.

När jag skrev inlägget till att börja med så trodde jag faktiskt att merparten av de som hänger på forumet skulle förstå innebörden utan vidare utveckling då det inte handlade på kärnfysik, men där hade jag fel.

Visa signatur

If nobody hates you, you’re doing something wrong.

Permalänk
Medlem
Skrivet av källarinvånare:

Nej det gör de inte. De må själva tro att de gör det men sen går de och köper det senaste mid-/high-end kortet i alla fall. Ta Starric t.ex som klagar på att denne vill ha "mer speed till samma eller lägre värmeutveckling", utan att förstå att det är precis det vi får med varje ny generation.

Du missförstår mig. Jag säger inte att vi inte får mer prestanda per watt per generation, men jag vill ha ännu mer, för det är vad man kan förvänta sig med flera års utveckling och nya produktionsnoder. Jag tycker det känns som att Nvidia "fuskar "genom att höja effektförbrukningen ner i produktstegen, och inte bara på halo-produkterna. Precis som många andra sagt i tråden känns det här väldigt mycket som Fermi 2.0

P.s. du får gärna citera så man ser att du skriver om mig

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Medlem
Skrivet av Swedishchef_90:

Beror väl på spel antar jag, jag används inte swec då 1070 inte är med i testlistan.
Sen har ju 2070 ganska stora problem i vissa spel i swec tester som kanske drar ner average? Som spelet control

Techpowerup.com har 24 spel och det är samma där, 3060 är bara marginellt snabbare än 2070. Samtidigt som effektminskningen är rätt måttlig.

3060Ti imponerar mer i så fall. Måttligt mer effekt än 2070 men klart snabbare.

Iaf, utifrån TPUs data så innebär 1070->3060 i väldigt runda slängar 40% mer prestanda till 30% mer effekt. En förbättring javisst, men inte tokimponerande.

RT och DLSS ska ju dock inte glömmas bort i sammanhanget.

Permalänk
Medlem
Skrivet av ipac:

Techpowerup.com har 24 spel och det är samma där, 3060 är bara marginellt snabbare än 2070. Samtidigt som effektminskningen är rätt måttlig.

3060Ti imponerar mer i så fall. Måttligt mer effekt än 2070 men klart snabbare.

Iaf, utifrån TPUs data så innebär 1070->3060 i väldigt runda slängar 40% mer prestanda till 30% mer effekt. En förbättring javisst, men inte tokimponerande.

RT och DLSS ska ju dock inte glömmas bort i sammanhanget.

Jag måste ha sett fel på 3060ti i 3060 för det är som du säger, angående effekt så gogglade jag det efteråt dock drar 3060ti 200W ändå 😊

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Skrivet av Starric:

Du missförstår mig. Jag säger inte att vi inte får mer prestanda per watt per generation, men jag vill ha ännu mer, för det är vad man kan förvänta sig med flera års utveckling och nya produktionsnoder. Jag tycker det känns som att Nvidia "fuskar "genom att höja effektförbrukningen ner i produktstegen, och inte bara på halo-produkterna. Precis som många andra sagt i tråden känns det här väldigt mycket som Fermi 2.0

P.s. du får gärna citera så man ser att du skriver om mig

Och de fuskar även genom att höja priserna på produktstegen. Så vi som förr köpte Nvidia 1060 för runt 3000kr får idag köpa Nvidia RTX 3050 för över 4000kr.

Jag tycker inte man ska hänga upp sig för mycket på dessa rykten utan man får se vad som händer. Jag tycker det är självklart att när en stor del av marknaden vill ha grafikkort som presterar bättre och tillåter dem dra mer ström för detta så kommer tillverkarna också göra såna kort, om det inte bara blir så att strömförbrukningen rusar iväg i slutet utan märkbar prestanda. Ett hinder är såklart nätdel och kylning som klarar av det, där dessa har blivit bättre för varje år.

De som klagar på miljön eller elräkningar, borde istället försöka hålla nere på deras datakraft beräkningar. Måste man köra spelet i maxgrafik, högsta fps. Kan man acceptera lite lägre grafik för att spara på ström? Hur har grafikkortstillverkan gjort för att grafikkortet ska dra betydligt mindre ström vid ej fulla laster etc.

Permalänk
Medlem
Skrivet av Elakekocken:

Man kan ju vrida på en persons argument hur man vill. Jag tänker ju normala riktpriser som det var med t.ex. GTX 400-900-serien. Inte dessa banala priser som vart på RTX 3000-serien.

Precis som du skriver själv så är prestanda per krona viktigt även här.

När jag skrev inlägget till att börja med så trodde jag faktiskt att merparten av de som hänger på forumet skulle förstå innebörden utan vidare utveckling då det inte handlade på kärnfysik, men där hade jag fel.

Inte meningen att låta så sur, men senaste korten som släppts (från båda lagen) ligger ju extremt högt sett till riktpriser, till exempel 3080ti på 1200$. Om de skulle kunna hålla det priset skulle inte jag bli överdrivet förvånad eller glad. 3080 10GB hade ju riktpris på 700$, det är en helt annan nivå sett till prestanda per krona, men också en nivå som inte synts i butik

Det enda jag menade ovan är att de kan lägga kortens msrp extra högt för att inte sälja korten dyrare än msrp om de vill. Tror tyvärr det kommer hända till viss del också. 4070/7700 kommer möjligen smyga upp mot 8000kr eller så, och då tycker jag nog inte ens att försäljning till msrp kan rädda dem

Permalänk
Medlem

Det är upp till konsumenterna att styra priserna.

Köper ni får vi dessa priser.

Svårare är det inte.

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem
Skrivet av Swedishchef_90:

Jag måste ha sett fel på 3060ti i 3060 för det är som du säger, angående effekt så gogglade jag det efteråt dock drar 3060ti 200W ändå 😊

Inte tänkt på det föränn nu. Vilket hopp.
3060 = 2070
3070 = 2080Ti

4060 = 3070 och 4070 = 3090? Med tanke på nyheten hoppas man nog på mer av 4060 iofs...

Permalänk
Medlem
Skrivet av str8forthakill:

Om något är tydligt, Nvidia höll endast tillbaka releasen av 1080Ti var det? När AMD fumblade runt med Vega i ett år. Nvidia kör ett eget race, de gör inte misstaget att överskatta AMD igen.

Jag tror att du tänker på 980 Ti, som Nvidia lanserade som en counter till Fury. Det var i allt väsentligt en prissänkning av dåvarande Titan, trimmad för att precis slå Fury.

1080 Ti släpptes ett halvår innan Vega, och spelar i en helt annan division. Nvidia släppte iofs 1070 Ti för att kontra Vega 56, men det var väl mest att se som en facelift mitt i cykeln.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av anon201296:

Men du får ju mer prestanda varje år så ditt argument håller ju inte? Ett kort som drar 200W idag presterar ju betydligt bättre än ett kort som drog 200W för 5 år sedan

Pinsamt vore det ju annars. Jag förväntar mig mer

Om man tittar på den typiska mellanklassen så har ett 3070 ett TDP på 220W, och nu lär det bli ännu mer igen. Ca 5 år tidigare så hade 970 och 1070 TDP på 150W. Det i sig var utveckling åt rätt håll från 5 år äldre 470 och 570, med mycket mer prestanda trots att TDP minskade från 215-225W. På 5 år SKA prestandan öka mycket, utan att man ska behöva öka effektuttaget, 5 år är lång tid i den här världen

Visa signatur

Ryzen 7600X - Geforce RTX 4080 - Custom Loop - Samsung 34" Ultra Wide
Intel i7 9700K - Radeon VII

Permalänk
Inaktiv
Skrivet av Starric:

Pinsamt vore det ju annars. Jag förväntar mig mer

Om man tittar på den typiska mellanklassen så har ett 3070 ett TDP på 220W, och nu lär det bli ännu mer igen. Ca 5 år tidigare så hade 970 och 1070 TDP på 150W. Det i sig var utveckling åt rätt håll från 5 år äldre 470 och 570, med mycket mer prestanda trots att TDP minskade från 215-225W. På 5 år SKA prestandan öka mycket, utan att man ska behöva öka effektuttaget, 5 år är lång tid i den här världen

Ska och ska, vill du ha samma effektförbrukning så får du väl acceptera mindre ökningar i prestanda.

Med det sagt, prestandan finns där i toppkorten för de som är intresserade, vilket är bra. Fy fan ifall vi hade begränsat prestanda med att strypa korten på effekt.

Permalänk
Medlem
Skrivet av Starric:

Pinsamt vore det ju annars. Jag förväntar mig mer

Om man tittar på den typiska mellanklassen så har ett 3070 ett TDP på 220W, och nu lär det bli ännu mer igen. Ca 5 år tidigare så hade 970 och 1070 TDP på 150W. Det i sig var utveckling åt rätt håll från 5 år äldre 470 och 570, med mycket mer prestanda trots att TDP minskade från 215-225W. På 5 år SKA prestandan öka mycket, utan att man ska behöva öka effektuttaget, 5 år är lång tid i den här världen

Det är inte riktigt jämförbart dock. 570->1070 är 40->16 nm TSMC . Senaste steget med 1070->3070, ned till Samsung 8 nm, är ett blygsammare hopp.

Permalänk
Medlem
Skrivet av Thomas:

Det kan (och lär) vara mer energieffektivt ändå, dvs prestanda per watt ökar. Jag tycker dock fortfarande det är negativt att även effekten ökar och ökar för ge större prestandahopp mellan generationerna.

Håller med, gäller ju även processorer där man trycker effekten upp på desktop sidan lite per gen nu känns det som.

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9

Permalänk
Medlem

Om RTX3060 170W x 1,3 = 220W RTX 4060
borde RTX 3080 320W x 1,3 = 415W RTX4080

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Skrivet av Elakekocken:

Man kan ju vrida på en persons argument hur man vill. Jag tänker ju normala riktpriser som det var med t.ex. GTX 400-900-serien. Inte dessa banala priser som vart på RTX 3000-serien.

Precis som du skriver själv så är prestanda per krona viktigt även här.

När jag skrev inlägget till att börja med så trodde jag faktiskt att merparten av de som hänger på forumet skulle förstå innebörden utan vidare utveckling då det inte handlade på kärnfysik, men där hade jag fel.

Var väl även så med 2000-serien. Gav 5500 för mitt GTX 1080 och 10500 för mitt RTX 2080, sen bara 13500 för mitt 3080.

Visa signatur

Intel Core i9-12900KF 5.2GHz+ HT Custom loop
MSI RTX 4080 Gaming X Trio 3030MHz
Asus ROG Maximus Apex Z690 (WI-FI)
Corsair Dominator Platinum 6200mhz 32GB CL36
Asus 34" TUF VG34VQL1B, NZXT H9 Flow, Corsair HX1200i, 970 Evo Plus, Asus ROG Strix Flare MX, Logitech G502 PS