Intel Core i9-13900K når 350 watt med upplåst effektbudget

Permalänk
Medlem

Jag tycker mitt rum blir varmt med en 12700k och ett 3080ti undervoltat till 260w. Hade inte velat sitta inne i en bastu så det blir skönt att kunna hoppa ett par generationer och se om de lyckas fixa effektivitetsproblemet i x86 eller om rykten om riktiga ARM-chip kommer dyka upp.

Visa signatur

I7 12700K, Asus RTX 3080 TI, Alienware AW3423DW och annat smått o gott.

Permalänk
Datavetare
Skrivet av hACmAn:

Runt 300 watt var mer eller mindre standard på 980 Ti. Jag satte mitt lite högre runt 330 watt. Titan korten drog mer med upplåst strömbudget. Men CPUerna har dragit iväg. Men så har inte en Apple M1 ARM en chans då jag börjar rendera trots bättre energi enefiktivitet. Någon skrev att om det kommer fortsätta i denna takt behöber vi ett kärnkraftverk till varje serverhall.
Känns inte så smart det häller. Jag förstår att prestanda kriget går upp. Men de stora pengarna liger i mid och low end. Där är de bättre. (hoppas det inte har ändrats)

Antar att du renderar med Nvidia GPU då? För tar vi den välkända BMW-scenen som SweClockers använder i sina tester får vi detta för 12900K och 5950X

Ett RTX3090 fixar samma sak på under 10 sekunder, så den är klart snabbare än i princip alla CPU-lösningar

En 14" MBP med M1 Pro 8+2 (så näst enklaste Pro modellen, finns en 6+2 också samt en med någon snabbare GPU, 16 GPU-kärnor mot 14 st i den jag har) klarar av samma sak på 85 sekunder (testade med Blender 3.2.2), d.v.s. marginellt snabbare än 12900K/5950X. En orsak är att Blender numera använder både CPU + iGPU på M1, vilket är möjligt då de delar RAM (är möjligt att köra dGPU+CPU, men det är än så länge poänglöst då det drar mer ström och blir långsammare än att enbart köra GPU).

Så här såg effekten ut under rendering, "package power" peak:ar på 40 W.

Klicka för mer information
Visa mer

I 12000-serien såg vi något som jag inte tror hänt tidigare: 12600K är mer energieffektiv än 12900K i fall som effektivt kan utnyttja alla kärnor. Om man fixerar energibudget kommer en CPU med fler kärnor alltid bli mer energieffektiv då perf/W ökar minskar snabbare än linjärt med ökande frekvens och med många kärnor kommer varje kärna köra med lägre frekvens om effektbudget är fixerad.

"Kungen" i all-core perf/W för Alder Lake är 12700K för den är inte i närheten lika pressad som 12900K.

13900K är inte "vettig". Likt 12900K är en av dess huvudsyften att "vinna" benchmarks till varje pris. Intel vet att "alla" kommer jämföra med toppmodellen, är ju även den som kommer testas dag #1.

AMD har också tänkt till när det kommer till benchmarks för bärbara.

Hur testas nästan alltid bärbar? Jo man kör dem på nätkraft. Hur testar man sedan batteritid? Rimligen kopplar man ur nätsladden. Idé: låt oss dra ned prestanda 20-50 % när man kör på batteri, då "vinner" vi ju båda fallen

Det är extremt få som faktiskt testar prestanda på batteri, jag använder då min bärbara primärt på batteri och ofta för programutveckling där hela poängen med att ha en "snabb" laptop är att den är snabb även på resande fot!

Nu är Intel inte ensamma att vara lite rövhattar på denna punkt...

Ibland leder konkurrens till kanske mindre optimala val för slutkunderna...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av teanox:

Hm... Har man den logiken att man kör en powerspike för att få klart ett arbete och sen lägger det på alla delar så skulle det vara kul att se hur länge säkringar och elen hemma klarar sig, vet att om min system skulle spika över 900watt över ett par sekunder ryker mina proppar åt helvete direkt.

Du har tydligen ingen hemma som kör hårtork eller dammsugare?

Nej men håller med, enbart powerspikes är ju inte rimligt. Men man får tänka på att det är många fler kärnor i CPU:erna nu. Det finns många aspekter av detta. Men faktum kvarstår, att man inte bara kan titta på effekt och säga att något är hungrigare än något annat. En CPU är inte som en glödlampa man bara skruvar i och som har en konstant last.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av HenrikM:

Lugnt i Sverige, jobbigare i USA och deras 110 volt system och 15 ampere säkringar.

Har de inte normalt 100A-200A huvudsäkring? så borde finnas utrymme att uttöka till både 20A och 30A till datorrummet. Även om det kan krävas en hel del pyssel.

Men tvivlar på att även en 15A med 110V kommer vara ett problem med 13900K.

Permalänk
Medlem
Skrivet av anon201296:

Men de blir ju mer effektiva per watt varje år

Det är ju det som inte är sant i praktiken.
De utför samma uppgift - spelar dataspel.
Men drar långt mer energi.
Kul/Watt kvoten, (liksom kul/krona) blir allt sämre.

Permalänk
Medlem
Skrivet av EntropyQ3:

Det är ju det som inte är sant i praktiken.
De utför samma uppgift - spelar dataspel.
Men drar långt mer energi.
Kul/Watt kvoten, (liksom kul/krona) blir allt sämre.

Om du begränsar datorspelet till en fixerad nivå i form av FPS och grafiska inställningar, så kommer den nya CPU:n förmodligen dra mindre. Men om du låter den jobba, och spelar i dubbelt så höga FPS jämfört med tidigare, så utför du inte längre samma uppgift/jobb. Den nya uppgiften är då att spela spel i den nya högre uppdateringsfrekvensen.

Om du t.ex. spelar med 60hz vsync så kommer förmodligen den nya CPU:n dra mindre än den gamla pga att den är mer effektiv.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem
Skrivet av Yoshman:

Vore faktiskt väldigt märkligt att Apple själva skulle välja att pusha Geekbench siffror. För tillskillnad vad många tror är GB lite av ett "worst-case" om man vill visa styrkorna hos M1-serien.

GB5 är en riktigt bra benchmark för vad den gör. Till skillnad från CPU-Z, Passmark och liknande är GB5 inte en "syntetisk" benchmark utan man testar "riktiga" program och bibliotek.

Men till skilland från CineBench, SPECint, SPECfp, Blender ml.fl. testar GB5 interaktiv prestanda och inte "throughput".

GB5 testarna kör cykeln "race-to-sleep", vilket är absolut best-case för Intels/AMDs bärbara då dessa numera har riktigt högre peak-frekvens men de är bara kapabla att hålla den frekvensen i någon sekund. M1 håller samma frekvens oavsett om 1 eller alla kärnor är lastade, oavsett om man kör på batteri eller sladd och håller den över tid.

Fördelen för Apple är därför större i t.ex. SPEC som är en "serverbenchmark" som lastar datorn under längre tid. Och tar man ett "riktigt" fall som t.ex kompilering så har ju M1 sådan stor fördel att många initialt antag att det måste vara något fel på mätningarna (Hardware Unboxed plockade bort kompilering ur deras laptop-tester, blev kanske "fel" resultat...)

Klicka för mer information
Visa mer

Att man gör det Intel gör med 13900K och tillåter upp till 350 W är specifikt för att kunna hålla i stort sätt samma frekvens "all-core" som man har som peak-frekvens. Just 13900K ryktas ju kunna hålla 5,5 GHz all-core när den får dra 350 W, det är ju mindre än 10 % minskning från den ryktade peak-frekvensen på 5,8 GHz.

Ville minnas att M1 har högre MT vs 12900k i GB kontra M1 vs 12900k i t.ex blender, men jag kan ha fel.

Permalänk
Medlem

Att folk börjar prata om elräkningar är ju bara komiskt
Sitter ni o kör benchmarks 24/7 så kanske jag kan se en liten poäng, men annars? nej verkligen inte

Bara trevligt med upplåst effektbudget, mer potential ser jag det som.

Permalänk
Medlem
Skrivet av Nivity:

Att folk börjar prata om elräkningar är ju bara komiskt
Sitter ni o kör benchmarks 24/7 så kanske jag kan se en liten poäng, men annars? nej verkligen inte

Bara trevligt med upplåst effektbudget, mer potential ser jag det som.

Jag tycker det är många som skriver att de kör sin dator på autobahn rätt ofta.
Sweclockers är inte heller precis känt för att ha användare som är söndagsbilister. Tvärt om.
Vi klockar och kör på autobahn.
Underskatta inte 200km i timmen 😅

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem

Alltså, jag fattar vad folk menar med att perf/watt blir bättre, men det är ju ändå lite av en teoretisk diskussion. I slutändan kommer det ju ändå vara en person som sitter i ett rum och använder en typisk dator liksom.

Om trenden då är att en typisk dator drar allt mer ström och genererar mer jobbig värme/ljudnivå/elkostnad under en spelsession t.ex. så kan man ju gott se det som ett problem.

På ett forum där folk överklockar för att få bättre prestanda är det ju inte så konstigt om rätt få känner för att underklocka och få sämre prestanda ur sina grejer, eller köpa "sämre" grejer från början, även om man teoretiskt kan göra så.

Permalänk
Inaktiv
Skrivet av EntropyQ3:

Det är ju det som inte är sant i praktiken.
De utför samma uppgift - spelar dataspel.
Men drar långt mer energi.
Kul/Watt kvoten, (liksom kul/krona) blir allt sämre.

Eftersom du (vi) ställer så höga krav idag

Permalänk
Medlem
Skrivet av Frux:

Alltså, jag fattar vad folk menar med att perf/watt blir bättre, men det är ju ändå lite av en teoretisk diskussion. I slutändan kommer det ju ändå vara en person som sitter i ett rum och använder en typisk dator liksom.

Om trenden då är att en typisk dator drar mer ström och genererar mer värme/ljudnivå/elkostnad under en spelsession t.ex. så kan man ju gott se det som ett problem.

På ett forum där folk överklockar för att få bättre prestanda är det ju inte så konstigt om rätt få känner för att underklocka och få sämre prestanda ur sina grejer, eller köpa "sämre" grejer från början, även om man teoretiskt kan göra så.

Men trenden är INTE att den drar mer ström, den KAN dra mer ström. Om du gör exakt samma saker som du gjorde med din gamla dator så kommer du kunna genomföra dem på kortare tid eller med en annan upplevelse.

Om du spelar spel, så kommer du då få högre prestanda jämfört med tidigare = du gör inte samma sak du gjorde tidigare och kan då inte jämföra hur mycket ström din nya dator drar jämfört med din gamla.

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Datavetare
Skrivet av JDM:

Ville minnas att M1 har högre MT vs 12900k i GB kontra M1 vs 12900k i t.ex blender, men jag kan ha fel.

Så kan det mycket väl vara (om man jämför CPU-only rendering, men varför göra det på M1, se nedan), men det har en väldigt naturlig förklaring!

En sak Intel varit väldigt duktiga på är att få in SIMD (SSE/AVX) stöd i program för videoredigering, rendering och matrisberäkningar (Matlab, NumPy etc). Här har därför Intel och Apple valt väldigt olika väg: Intel pushar SIMD på CPU, Apple pushar "acceleratorer" (vilket även Intel verkar göra från 14000-serien enligt rykten).

Blender är ett väldigt bra exempel där delar använder Intel Embree. För att få acceptans för Embree har Intel ändå lagt till helt OK ARM64 stöd, men man har inte fokuserat alls lika mycket på SIMD där som för x86.

Istället ser vi vad vi även ser i videoredigering, bildredigering etc på MacOS: man accelererar genom att använda mer än bara CPU-delen! I Blender utnyttjar man att CPU+iGPU delar RAM och därför effektivt kan jobba parallellt på samma scen och det ger större utdelning än SIMD på CPU då redan M1 Pro matchar 12900K/5950X i absolut prestanda (fast med heltalsfaktorer bättre perf/W).

Ställer man GB5 mot SPECint/SPECfp, som har relativt stort överlapp i vad man testar, ser man att M1 har större fördel i SPEC än i GB5. SPEC är en "serverbenchmark" som testar fall som körs under lång tid, där kan Intel/AMD inte utnyttja sin höga "turbo-boost", medan GB5 (by design) testar "race-to-sleep" där Intel/AMD får full effekt av "turbo-boost".

Så GB5 "överskattar" prestanda rätt ordentligt hos bärbara x86_64 CPUer om man använder den benchmark:en för att avgöra prestanda i laster som körs under mer än någon sekund. Däremot har GB5 och SPEC rätt samma relativa resultat mellan CPU-modeller om man jämför M1 mot desktop x86_64 då de senare inte "throttlar" i närheten lika mycket som bärbara x86_64 CPUer p.g.a. långt högre effektbudget.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Ibland leder konkurrens till kanske mindre optimala val för slutkunderna...

Håller helt med.
Mycket positivt med konkurrens, men ibland känns det larvigt att skryta med en halo produkt för att säljer de mindre modellerna där den lukrativa marknaden är. AMD hade en klocka som tickade då de var snabbare än nVidia då de var snabbast på GPU marknaden som visade titta så länge vi vart snabbast i värden. Nvidia hade något liknande då de ett tag hade det. (multi GPU korten) Intel och AMD har ju hålt på lite liknande.
Pajkastning på konkurrenterna kanske man skulle kalla det.

Off:
Jag renderar oftast på CPUn och det inte alltid är möjligt att testa de inställningar jag vill via gratisprogram på mitt 1080 Ti.
Då jag leker med interpolering av filmer så testar jag mej lite runt nu och då används CUDA.
Tycker jag får mycket bättre bild med CPUn i båda Handbreak och Adobe Premiere. (använder GPU för förhandsgranskning,om det går.)
Fast brukar hålla mig till h.264 då jag har problem med att vissa Sony spelare inte fattar h.265.
Så mina laboreringar är nog lite udda.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av BrottOchStraff:

Men trenden är INTE att den drar mer ström, den KAN dra mer ström. Om du gör exakt samma saker som du gjorde med din gamla dator så kommer du kunna genomföra dem på kortare tid eller med en annan upplevelse.

Det är ju inte heller som att gamla CPUer inte kunde dra mycket ström, man kan nästan tro när man läser tråden att folk har glömt bort överklockning? Visst gamla CPUer kanske hade en TDP på runt 100W, men det var väl knappast ovanligt att i entusiastkretsar att man överklockade dessa ganska rejält då det fanns mycket headroom. Det är en toppmodell som kommer fullt pressad ur lådan, och den drar väl inte mycket mer än tidigare överklockade topmodeller. Det var liksom inte speciellt ovanligt med kraftigt klockade sandy bridge-e system osv, dessa drog väl ungefär i den här ligan.

Och precis som nämts, så det ju ett val, vill du inte ha en 300W CPU? Nä, ta en annan modell eller släng på powerlimit. Jag har själv lämnat min 12700k på 125W PL2 av den anledningen, på samma sätt som att jag inte sysslat mycket med överklockning på tidigare system utan mer att försöka få ut så höga frekvenser som möjligt vid vanlig spänning istället.

Permalänk
Medlem
Skrivet av Chibariku:

Har de inte normalt 100A-200A huvudsäkring? så borde finnas utrymme att uttöka till både 20A och 30A till datorrummet. Även om det kan krävas en hel del pyssel.

Men tvivlar på att även en 15A med 110V kommer vara ett problem med 13900K.

Om du äger ditt eget hus kanske. Men extremt många hyr sitt hus/lägenhet.

Permalänk
Medlem
Skrivet av BrottOchStraff:

Du har tydligen ingen hemma som kör hårtork eller dammsugare?

Nej men håller med, enbart powerspikes är ju inte rimligt. Men man får tänka på att det är många fler kärnor i CPU:erna nu. Det finns många aspekter av detta. Men faktum kvarstår, att man inte bara kan titta på effekt och säga att något är hungrigare än något annat. En CPU är inte som en glödlampa man bara skruvar i och som har en konstant last.

Haha dammsuger en del ja, men går ju att koppla till olika uttag, helt rätt men tycker endå att ska man få en bra jämförelse så borde man köra samma watt i tester, inte bara "maxa på" sen se vad som blir bäst i siffrorna. I dagens läge spelar ju förbrukning roll ifall elen blir rationaliserad

Visa signatur

Ryzen 9 5900x 4.8ghz. 32GB DDR4 3600Mhz. Radeon 6800 XT. MSI Gaming Plus B550. 1000GB SN850 M.2. Noctua Nh-U14S. 1x 1024GB M.2 Kingston A2000. Seasonic Focus PX 850 Platinum. Fractal Design Define R6 USB-C. Predator XB273UGX.

Permalänk
Medlem

Hade varit intressant att veta tempsen om dom körde deliddat också!

Permalänk
Skrivet av Querth:

Många som kör med det här argumentet men det är fungerar inte hur långt som helst.

Om tex Intel skulle skapa en CPU som drar runt 10000 watt och den är mer energieffektiv än vad som finns idag är det ju inte miljömässigt hållbart överhuvudtaget ändå?

Ska alla hushåll ha spelmaskiner som drar mer än resten av hushållet så länge det pressar mer fps per watt?

Har de råd så varför inte? På vintern blir det nollsummespel då man kan stänga av motsvarande effekt uppvärmning.

Permalänk
Skrivet av Querth:

Många som kör med det här argumentet men det är fungerar inte hur långt som helst.

Om tex Intel skulle skapa en CPU som drar runt 10000 watt och den är mer energieffektiv än vad som finns idag är det ju inte miljömässigt hållbart överhuvudtaget ändå?

Jo absolut är det miljömässigt positivt.

Skrivet av Querth:

Ska alla hushåll ha spelmaskiner som drar mer än resten av hushållet så länge det pressar mer fps per watt?

Där har du en annan sak. Vi har en stor del jordens befolkning som använder allt mer energi för sitt nöje, det spelar egentligen inte roll om det är speldatorer, elscooter, storbildstv etc.
Och det är just dem man borde argumentera emot. Så börja klaga i trådar där de visar upp nya spel att tillverkaren har lagt till onödigt bra grafik etc.

Men så väljer folk att gnälla på datorhårdvara som kan användas till nyttiga saker och troligen under spel inte ens kommer belastas märkbart. Jag tror att i de flesta spel så kan man inte ens se skillnad Core i9-13900K och en 7700K i 4K med ray tracing etc. Utan man fiktivt får ställa in idiotiska upplösningar för att se en skillnad. Och sedan under dessa fiktiva inställningar whina om att då drar cpun mycket ström, att sedan GPUn under samma inställningar är extremt strömsnålt skiter man i. För när man pratar om GPUn strömförbrukning så kör man istället fiktiva laster då cpun inte drar någon ström att tala på.

Dagens ungdom.
Kör en fiktiv last där CPUn drar skitmycket ström och GPUn är extrem strömsnål.
Kör sedan en annan fiktiv last där CPUn drar väldigt lite ström och GPUn är extrem strömtörstig.

Från dessa 2st fiktiva laster, välj cpu och gpu strömförbrukning från där de är högt, slå dessa ihop och få en imaginär fiktiv last som är otroligt strömtörstig. Argumentera sedan emot denna imaginära fiktiva last hur skadlig den är emot miljön.

Mer normalt anser jag hade varit.
Kolla på strömförbrukningen för de laster man i verkligen kör. Då ska man kolla på idle, enklare last och sedan de tyngsta man kör. Rimligt är att se på genomsnittlig strömförbrukning per dag.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Jo absolut är det miljömässigt positivt.

Där har du en annan sak. Vi har en stor del jordens befolkning som använder allt mer energi för sitt nöje, det spelar egentligen inte roll om det är speldatorer, elscooter, storbildstv etc.
Och det är just dem man borde argumentera emot. Så börja klaga i trådar där de visar upp nya spel att tillverkaren har lagt till onödigt bra grafik etc.

Men så väljer folk att gnälla på datorhårdvara som kan användas till nyttiga saker och troligen under spel inte ens kommer belastas märkbart. Jag tror att i de flesta spel så kan man inte ens se skillnad Core i9-13900K och en 7700K i 4K med ray tracing etc. Utan man fiktivt får ställa in idiotiska upplösningar för att se en skillnad. Och sedan under dessa fiktiva inställningar whina om att då drar cpun mycket ström, att sedan GPUn under samma inställningar är extremt strömsnålt skiter man i. För när man pratar om GPUn strömförbrukning så kör man istället fiktiva laster då cpun inte drar någon ström att tala på.

Dagens ungdom.
Kör en fiktiv last där CPUn drar skitmycket ström och GPUn är extrem strömsnål.
Kör sedan en annan fiktiv last där CPUn drar väldigt lite ström och GPUn är extrem strömtörstig.

Från dessa 2st fiktiva laster, välj cpu och gpu strömförbrukning från där de är högt, slå dessa ihop och få en imaginär fiktiv last som är otroligt strömtörstig. Argumentera sedan emot denna imaginära fiktiva last hur skadlig den är emot miljön.

Mer normalt anser jag hade varit.
Kolla på strömförbrukningen för de laster man i verkligen kör. Då ska man kolla på idle, enklare last och sedan de tyngsta man kör. Rimligt är att se på genomsnittlig strömförbrukning per dag.

Då är vi överens :). Jag menar bara att det inte är en hållbar utveckling att varje hushåll ska dra mer och mer ström innan vi har mer hållbar strömförsörjning. Vi pratar ju om en risk för elransonering idag T_T

Permalänk
Medlem
Skrivet av BrottOchStraff:

Om du begränsar datorspelet till en fixerad nivå i form av FPS och grafiska inställningar, så kommer den nya CPU:n förmodligen dra mindre. Men om du låter den jobba, och spelar i dubbelt så höga FPS jämfört med tidigare, så utför du inte längre samma uppgift/jobb. Den nya uppgiften är då att spela spel i den nya högre uppdateringsfrekvensen.

Om du t.ex. spelar med 60hz vsync så kommer förmodligen den nya CPU:n dra mindre än den gamla pga att den är mer effektiv.

Tja, när jag spelade i Quake3 ligorna för över 20 år sedan var min frame rate 125Hz.
Men min poäng kvarstår, eftersom jag inte använder min PC-burk hemma till proffesionellt 3D-rendrerande är datorspel det enda som faktiskt kräver prestanda. Och vitsen med att spela datorspel är underhållning. Jag kan inte säga att jag är mer underhållen av datorspelande idag än vid andra tidpunkter de senaste 40 åren, så kul/W är naturligtvis mycket, mycket lägre idag än någonsin förr.

Permalänk
Hedersmedlem
Skrivet av SuperDuperKillen:

Har de råd så varför inte? På vintern blir det nollsummespel då man kan stänga av motsvarande effekt uppvärmning.

Om man har eluppvärmning, så. Har man t ex värmepump så kan man få samma mängd värme som en 800 W-dator för under 200 W el, och därmed blir det klart dyrare att värma rummet med datorn.

(Nej, det är definitivt inte omöjligt, även om det kanske låter så om man inte hört talas om värmepumpar tidigare.)

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Skrivet av SuperDuperKillen:

På vintern blir det nollsummespel då man kan stänga av motsvarande effekt uppvärmning.

Även med direktverkande el så funkar det inte riktigt sådär, om du har 500 watt extra i ett rum där datorn står så blir det ju inte direkt så att temperaturen blir 500 watt behagligare i resten av lägenheten/huset.

Permalänk
Medlem
Skrivet av zpirato:

https://i.imgur.com/aZG6ls3.jpg

Är väl >2024 man "borde" förvänta sig "Ulta Low Power Performance" från intel 😊

Blir spännande med "Power per watt leadership" - 2024+ Är då RibbonFet och PowerVIA är tänkt att komma om jag minns rätt https://www.youtube.com/watch?v=Rt-7c9Wgnds

Visa signatur

Chassi : BitFenix Prodigy Svart mITX Moderkort : Asus P8Z77-I DELUXE mITX CPU : Intel Core i7 3770K RAM : Crucial 16GB (2x8192MB) CL9 1600Mhz Ballistix Sport

Permalänk
Medlem
Skrivet av shogun-r:

Blir spännande med "Power per watt leadership" - 2024+ Är då RibbonFet och PowerVIA är tänkt att komma om jag minns rätt https://www.youtube.com/watch?v=Rt-7c9Wgnds

Aa PowerVIA borde bli stort för att förminska förlusterna i klockrouting, vet att TSMC egentligen skulle komma med GAAFET (RibbonFET) nu med N3 fast det har blivit framskjutet till någon senare nod.

Permalänk
Medlem
Skrivet av zpirato:

Aa PowerVIA borde bli stort för att förminska förlusterna i klockrouting, vet att TSMC egentligen skulle komma med GAAFET (RibbonFET) nu med N3 fast det har blivit framskjutet till någon senare nod.

Skönt att höra att det inte bara är jag som uppmärksammat det

Visa signatur

Chassi : BitFenix Prodigy Svart mITX Moderkort : Asus P8Z77-I DELUXE mITX CPU : Intel Core i7 3770K RAM : Crucial 16GB (2x8192MB) CL9 1600Mhz Ballistix Sport

Permalänk
Medlem
Skrivet av Kilroy:

Även med direktverkande el så funkar det inte riktigt sådär, om du har 500 watt extra i ett rum där datorn står så blir det ju inte direkt så att temperaturen blir 500 watt behagligare i resten av lägenheten/huset.

Man kan sprida ut datorerna lite.

Permalänk
Medlem
Skrivet av HenrikM:

Om du äger ditt eget hus kanske. Men extremt många hyr sitt hus/lägenhet.

Vad är extremt många? Typ som Sverige?
https://en.m.wikipedia.org/wiki/List_of_countries_by_home_own...

Men som sagt, tror ändå säkringen kommer vara det minsta bekymret med en upplåst 13900K

Permalänk
Medlem

Tur att jag har mikro så jag inte drar så mycket som de som värmer all mat i Ugn.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.