Intel Core i9-10900K "Comet Lake" – upp till 30 procent snabbare än Core i9-9900K

Permalänk
Medlem
Skrivet av Ryzer:

Behövs det? Vi vet vad vi kan vänta oss, två extra kärnor. Lite högre boost. Kommer placera sig i ''top'' på de flesta speltesten.
Inget nytt direkt, men välbeprövat.

- För strömförbrukning, ev pris, ev halkar efter Amd i flertrådigt.

? 9600k är redan väldigt jämn i spel, bara tillägget av hyperthreading borde vara en enorm boost, men du räknar med att den kommer vara efter huh.

Permalänk
Medlem

så jäkla härligt att dom blåser på med 30% ökning. Varför inte? Jag kommer lätt köpa den. 9900k är det inget fel på idagens läge, spöar ju amd så det skriker om det när det kommer till spel.

Peace!

Permalänk
Medlem
Skrivet av Flygplanet:

? 9600k är redan väldigt jämn i spel, bara tillägget av hyperthreading borde vara en enorm boost, men du räknar med att den kommer vara efter huh.

Wat? Skrev att den med all sannolikhet kommer ta över tronen som den bästa ''spelprocessorn''
Var du får efter ifrån har jag ingen aning om.

Permalänk
Medlem
Skrivet av Ryzer:

Så är det, sen spelar det ingen roll vad du säger. Alla är unika, finns bättre och sämre. Men tror mer på offentliga test än dig.
Sen ska man inte glömma bort att det är 14(x+) vs 7nm.

https://cdn.sweclockers.com/artikel/diagram/17669?key=45684aea76b1d55234b87c47922a6ed7

Men om 9900K drar 200W (drar av 30W från idle) och den nya har 25% fler kärnor så kanske man kan gissa att den drar 200 * 1,25 = 250W upplåst. Ungefär 25W per kärna.

Är nog inte helt otroligt att den drar 250W om man vill ha 10900 i fullt blås (fullt blås på fläktarna också, så klart).

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Ryzer:

Wat? Skrev att den med all sannolikhet kommer ta över tronen som den bästa ''spelprocessorn''
Var du får efter ifrån har jag ingen aning om.

Skrivet av kelthar:

Men om 9900K drar 200W (drar av 30W från idle) och den nya har 25% fler kärnor så kanske man kan gissa att den drar 200 * 1,25 = 250W med upplåst volt. Ungefär 25W per kärna.

Är nog inte helt otroligt om man vill ha 10900 i fullt blås.

Nej, fullt rimligt. Men uttalade mig med låst strömbudget.
Det jag vill visa är att det inte skiljer jättemycket mellan AMD och Intel när det kommer till effekt/ värme.
Amd är före här såklart, delvis pga av 7nm.

Permalänk
Datavetare
Skrivet av Implor:

100mhz extra base clock och du får dina 30%

100 MHz extra base clock kan inte ens teoretisk ge 30 % högre prestanda.

Enligt diagrammet som finns med i artikeln

detta diagram

ökar SPECint_rate 30 %.

Den enda rimliga förklaringen är att vid heltalsberäkningar kan CPUn hålla sin maximala frekvens för alla kärnor, vilken för 9900K är 4,7 GHz och 10900K är 4,9 GHz.

10 (kärnor i 10900K) / 8 (kärnor i 9900K) * 4,9 (all-core max 10900K) / 4.7 (all-core max 9900K) = 30 %.

SPECfp_rate skalar enbart med antalet kärnor, d.v.s 25 %, vilket gissningsvis kommer av att flera av dessa använder AVX och frekvensen blir därmed strömbegränsad.

Skrivet av tBiorrith:

Men oj, var tog energieffektiviteten vägen? För några år sedan låg Intel vanligtvis runt 65w TDP och AMD en bit över 100, nu är det tvärtom.

Sista gången Intel desktop-highend höll sig på ~65 W verkar ju (ironisk nog) varit på Pentium 4 tiden (Northwood). Efter det har toppnivån pendlat mellan 85-130 W genom åren. Toppmodellerna av Core 2 Duo låg i.o.f.s. också på 65 W, men då fanns även Core 2 Quad som pendlade mellan

Att man nu lägger sig på 125 W är historisk i det högre spannet och förhoppningsvis är Comet Lake den definitiva svanesången för Skylake!

Nu är det bara ett rykte än så länge, men anta att ryktet om att Rocket Lake stannar på 8C/16T stämmer. Om inte Rocket Lake ska bli totalt meningslös borde det antyda att Intel förutsätter att IPC-förbättringarna (som om Rocket Lake nu är Willow Cove på 14 nm är >20 % då redan Sunny Cove ger ~20 % IPC-ökning, ännu mer i fall som använder AVX-512).

Comet Lake lär nog räcka för att behålla ledartröjan i gaming, men tycker personligen det säger en del om hur sakta utvecklingen gått för x86 rätt länge nu. En mikroarkitektur från 2015 kan trots allt hävda sig rätt bra 2020

En riktigt spännande duellen är dock på väg: Zen3 mot Rocket Lake. AnandTech intervjuade Mark Papermaster precis innan nyår, även om inget releasedatum sades för Zen3 så nämndes "vi siktar på en 12-18 månaders kadens" vilket lägger Zen3 releasen mot slutet av året (vilket också stämmer med det SweC skrev tidigare om ett sent 2020/tidig 2021 släpp).

Ryktena kring Rocket Lake pekar ju på sen Q4 eller (nog troligare) Q1 2021 release. Det kan bli en riktigt spännande duell att följa!

Skrivet av Implor:

Du får nog ut 30% i blender.

Om man bryr sig det minsta om prestanda i Blender 2020, köp ett Nvidia RTX kort.

Stödet för CUDA, speciellt Turing-korten, trimmades en hel del i Blender 2.80. I just lanserade 2.81 lade man även in stöd för att använda RT-kärnorna, som exempel renderas den BMW-scen som SweClockers använder i sina CPU-tester på strax under 40 s på ett RTX 2060.

Som jämförelse tar den scenen 249 s på en i9-9900K, det är ju totalt meningslöst att rendera på en CPU numera! 40 s är snabbare än ThreadRipper 3970X, där avklaras scenen på 68 s. det långsammaste RTX kortet är 70 % snabbare än snabbare HEDT CPUn...

Att använda GPGPU är idag trivialt, i många program behöver man inte göra något alls (verkar gälla de flesta videoredigeringsprogram). I Blender behöver man bara aktivera GPU-rendering, sedan optimeringarna i 2.80 krävs inget fipplande med att ändra "tile-size" för att få till effektiv GPU-rendering utan man kör med samma som för CPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ryzer:

Nej, fullt rimligt. Men uttalade mig med låst strömbudget.
Det jag vill visa är att det inte skiljer jättemycket mellan AMD och Intel när det kommer till effekt/ värme.
Amd är före här såklart, delvis pga av 7nm.

Jag diskutterar inte vem som är bäst här. Bara hur många W som 10900 drar. Jag misstänker att man måste vara väldigt nogrann vilken luftkylare man väljer om man skall ha en sådan, vilket är lite synd. Och andra sidan så har det varit ganska kallt hemma hitintills, så några extra W ut genom datorn är positivt.

Visa signatur

Hur många datorer är för många?

Permalänk
Avstängd

Intels 10 core cpu kommer dra 250w och vara omöjlig att kyla utan vatten.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av ts1337:

så jäkla härligt att dom blåser på med 30% ökning. Varför inte? Jag kommer lätt köpa den. 9900k är det inget fel på idagens läge, spöar ju amd så det skriker om det när det kommer till spel.

Peace!

Kallar du 10-15 FPS mer för skriker? 3950x ligger hack i häl.

Precis som AMD Navi 21 sägs ha dubbla prestandan vilket Buildzoid debunkade rätt fort pga strömbudget måste hållas så ska de bli spännande å se om dessa 30% är sanna också. Det kommer tillföra värme som kommer kräva en större kylning eller hålla strömbudget och därav inte få ut så mycket mer prestanda än 2 kärnor mer och få MHz.

Priset blir också intressant då Intel anser de kan ta hutlösa priser för att de lagt på 2 cores medans AMD har 12/16 redan på marknaden.

Skickades från m.sweclockers.com

Visa signatur

"Nobody smart would play fair"

Permalänk
Medlem
Skrivet av Ryzer:

Wat? Skrev att den med all sannolikhet kommer ta över tronen som den bästa ''spelprocessorn''
Var du får efter ifrån har jag ingen aning om.

Min hjärna måste ha ignorerat den delen, för idén att 10600 kommer vara "den bästa spelprocessorn" över 10700 och 10900 verkade så udda.

Permalänk
Medlem
Skrivet av Flygplanet:

Min hjärna måste ha ignorerat den delen, för idén att 10600 kommer vara "den bästa spelprocessorn" över 10700 och 10900 verkade så udda.

Ska jag va ärlig så missade jag ''10600'' men faktum kvarstår, ganska lätt att gissa sig till vad dessa slutar.

Skrivet av kelthar:

Jag diskutterar inte vem som är bäst här. Bara hur många W som 10900 drar. Jag misstänker att man måste vara väldigt nogrann vilken luftkylare man väljer om man skall ha en sådan, vilket är lite synd. Och andra sidan så har det varit ganska kallt hemma hitintills, så några extra W ut genom datorn är positivt.

Ja så är det, det finns väl en handfull alternativ att välja på. Alla processorer blir svårkylda vid hög effekt.
Med det sagt så ligger man sällan på dessa extrema temperaturer. Vid normalt spelande så kanske man ligger på 60-70 grader om den inte är högt överklockad.

Permalänk
Medlem
Skrivet av NaaR:

Intressanta tider framöver med tanke på att PS5 och XboX SX kommer att använda Zen 2. Nästa generations spel kanske optimeras i högre utsträckning efter AMD:s hårdvara? Eller så förblir det som du säger :).

Det gör man redan. PS4 och Xbox One är båda baserade på AMD-arkitektur.

Permalänk
Medlem

Vad Intel behöver är en processor som slår 3600 i dess prissegment. 9600KF är bra, men har inte HT. Som tidigare har sagt så är det kanske 10600 som kommer vara deras viktigaste processor i denna generationen.

Edit: Lite lägre boost än 9600KF dock...

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Yoshman:

100 MHz extra base clock kan inte ens teoretisk ge 30 % högre prestanda.

Enligt diagrammet som finns med i artikeln

ökar SPECint_rate 30 %.

Den enda rimliga förklaringen är att vid heltalsberäkningar kan CPUn hålla sin maximala frekvens för alla kärnor, vilken för 9900K är 4,7 GHz och 10900K är 4,9 GHz.

10 (kärnor i 10900K) / 8 (kärnor i 9900K) * 4,9 (all-core max 10900K) / 4.7 (all-core max 9900K) = 30 %.

SPECfp_rate skalar enbart med antalet kärnor, d.v.s 25 %, vilket gissningsvis kommer av att flera av dessa använder AVX och frekvensen blir därmed strömbegränsad.

Sista gången Intel desktop-highend höll sig på ~65 W verkar ju (ironisk nog) varit på Pentium 4 tiden (Northwood). Efter det har toppnivån pendlat mellan 85-130 W genom åren. Toppmodellerna av Core 2 Duo låg i.o.f.s. också på 65 W, men då fanns även Core 2 Quad som pendlade mellan

Att man nu lägger sig på 125 W är historisk i det högre spannet och förhoppningsvis är Comet Lake den definitiva svanesången för Skylake!

Nu är det bara ett rykte än så länge, men anta att ryktet om att Rocket Lake stannar på 8C/16T stämmer. Om inte Rocket Lake ska bli totalt meningslös borde det antyda att Intel förutsätter att IPC-förbättringarna (som om Rocket Lake nu är Willow Cove på 14 nm är >20 % då redan Sunny Cove ger ~20 % IPC-ökning, ännu mer i fall som använder AVX-512).

Comet Lake lär nog räcka för att behålla ledartröjan i gaming, men tycker personligen det säger en del om hur sakta utvecklingen gått för x86 rätt länge nu. En mikroarkitektur från 2015 kan trots allt hävda sig rätt bra 2020

En riktigt spännande duellen är dock på väg: Zen3 mot Rocket Lake. AnandTech intervjuade Mark Papermaster precis innan nyår, även om inget releasedatum sades för Zen3 så nämndes "vi siktar på en 12-18 månaders kadens" vilket lägger Zen3 releasen mot slutet av året (vilket också stämmer med det SweC skrev tidigare om ett sent 2020/tidig 2021 släpp).

Ryktena kring Rocket Lake pekar ju på sen Q4 eller (nog troligare) Q1 2021 release. Det kan bli en riktigt spännande duell att följa!
Om man bryr sig det minsta om prestanda i Blender 2020, köp ett Nvidia RTX kort.

Stödet för CUDA, speciellt Turing-korten, trimmades en hel del i Blender 2.80. I just lanserade 2.81 lade man även in stöd för att använda RT-kärnorna, som exempel renderas den BMW-scen som SweClockers använder i sina CPU-tester på strax under 40 s på ett RTX 2060.

Som jämförelse tar den scenen 249 s på en i9-9900K, det är ju totalt meningslöst att rendera på en CPU numera! 40 s är snabbare än ThreadRipper 3970X, där avklaras scenen på 68 s. det långsammaste RTX kortet är 70 % snabbare än snabbare HEDT CPUn...

Att använda GPGPU är idag trivialt, i många program behöver man inte göra något alls (verkar gälla de flesta videoredigeringsprogram). I Blender behöver man bara aktivera GPU-rendering, sedan optimeringarna i 2.80 krävs inget fipplande med att ändra "tile-size" för att få till effektiv GPU-rendering utan man kör med samma som för CPU.

Bryr mig 0 om blender men det är programmet alla och dess katt benchmarkar med. Så säger man att det är 30% prestanda ökning i vissa applikationer så är chansen stor det är blender eller liknande applikationer de syftar på.

Skickades från m.sweclockers.com

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Skrivet av Yoshman:

Att använda GPGPU är idag trivialt, i många program behöver man inte göra något alls (verkar gälla de flesta videoredigeringsprogram). I Blender behöver man bara aktivera GPU-rendering, sedan optimeringarna i 2.80 krävs inget fipplande med att ändra "tile-size" för att få till effektiv GPU-rendering utan man kör med samma som för CPU.

I väldigt nischade områden. Ens powershell, excel och annan script är det mindre än trivialt.
Jag ser påståendet att GPGPU är enkelt, som att använda hybridlösningar i molnet idag är enkelt. Det enda man behöver göra i vissa program är att gå upp i en meny välja att skicka datan till ett datacenter och de bearbetar datan. Detta leder till att man kan göra väldigt fina 3D renderingar med ljuseffekter snabbt på en dator som har ett grafikkort som motsvarar ett S3 Virge.
Problemet med argumentet är att visst det är enkelt på ens program som kanske kostar 5000kr/mån att hyra, men när man sitter där och gör sin egen lösning så är hydridlösningar i molnet inte lika enkelt i praktiken. Och man i praktiken får använda sin egen grafikkort till det den är till för.

GPGPU har och kommit länge vara supernitchat. Det som behövs till är att mer färdiga ramverk kommer till det. Lite som att Parallel.ForEach som kommer i typ alla språk som powershell, leder till att folk i praktiken parallellserar det lilla arbete som deras små script gör.

*edit*
Saker som Parallel.ForEach är skitbra. Man kan argumentera för hur mycket olika språks tillämpningar suger. Men i praktiken så innebär dessa att folk på 5 sekunder kan parallellisera en uppgift och få en lösning som dynamisk anpassar sig efter systemet. Så den både fungerar bra om det är 2 eller 10 kärnor. Detta leder till att folk i praktiken använder detta överallt, visst är inte resultatet det bästa men tid är pengar.
Ska man bygga något liknande själv, säg det tar 10h a 1500kr/h, ja det är 15000kr i kostnad för ens lilla script.

Permalänk
Medlem

När det då nu har blivit klart att det fortfarande baseras på Skylake 14nm, betyder det här att i praktiken skulle ha Intel kunnat släppa en 10 core Skylake första generationen?

Visa signatur

There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved.

Permalänk
Medlem

Så två extra kärnor och lite högre boost ger "upp till 30%" vilket är helt i linje med vad två extra kärnor och lite högre boost skulle ge. Detta gäller ju du självklart applikationer som drar nytta av både de extra kärnorna och den extra boosten och endast under tiden boosten hålls. Men 30% låter ju coolt, ungefär som när de gick ut med "50% högre prestanda!!!" och släppte samma CPU med 6 istället för 4 kärnor.

Intels problem idag är att de marknadsför sig på två olika fronter och fokuserar på den ena eller den andra beroende på vad de pratar om. Deras trumf, även om det nästan är helt borta, har varit enkeltrådad/fåtrådad prestanda. De hade IPC, men där leder AMD nu. Men tack vare deras högre klockfrekvens så kan de ändå få lite mer fps i spel. Oftast handlar det om siffror som är i placeboområdet och man får betala en del för dessa extra fps. Men de kan iaf säga att de kan leverera dem.

Men sedan vill de kunna visa på att något faktiskt händer med dess prestanda för varje generation. Men där kan de göra väldigt lite med sin IPC och sin klockfrekvens just nu. Så då fokuserar man på multitrådade prestandan för att kunna säga siffror som ser höga och fina ut.

Problemet med detta är att AMD erbjuder CPU:er för multitrådade laster som täcker både de som vill ha mer ekonomiska produkter och de som vill ha mer faktisk prestanda. Och sett till fåtrådade laster (till vilka man primärt inte köper en 10 eller 16-kärnig CPU) så är de idag så nära att pengarna man sparar och kan lägga på någon annan komponent gör det svårare än tidigare för Intel att hävda dominans.

Om man faktiskt tillhör de som behöver många kärnor och köper en CPU med 10+ kärnor så kommer förmodligen 3950X erbjuda bäst prestanda för pengarna och man får 16 kärnor utan att behöva gå till en HEDT-platform. Skall man sedan spela också utöver det man behöver alla kärnor till så skulle jag gissa att många i dessa priskategiorier spelar i iaf 1440p. Där finns det i princip ingen skillnad mellan CPU:erna. Även i 1080p så får man så höga fps att man utan en fps-räknare nog hade haft väldigt svårt att se skillnad.

Så Intel befinner sig i ett lite speciellt läge där de försöker slå sig på bröstet över enkeltrådad prestanda men känner sig tvingade att peka på den multitrådade för att ha något att marknadsföra och om man sedan faktiskt jämför den multitrådade med konkurenterna så ser det inte så bra ut som Intel vill få det att låta. Sanningen är förmodligen att för de allra flesta som sitter på en Intel CPU idag så erbjuder dessa väldigt lite nytt som skulle få dem att köpa en ny.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem

Här klarar inte Noctua D15 att kyla 250w för att få ut max prestanda.

Visa signatur

13900K - NH D15 - Maximus Z790 Hero - 32gb G-Skill 7200Mhz - Intel 900P 480Gb -Kingston Renegade 2Tb -Samsung 980 PRO 2TB - Samsung 980 PRO 1TB - Gigabyte RTX 4090 GAMING OC - AX 1600i - Phanteks P600s -Alienware AW3423DW - Beyerdynamic T5 MK III - Creative Sound Blaster GC7 - ROG Strix SCAR 16 (2023) - G634JZ-NM015W.

Permalänk
Medlem

Vore nog roligare för folk om TVB pressade varje unik CPU till sitt max inom strömbudget. Att sätta 5.3Ghz över hela brädet är ett bra minimum, men självklart finns det kretsar därute som klarar korta bursts till 5.5-5-6Ghz någonstans, så den borde vara opportunistisk på riktigt och inte bara på låtsas.

I övrigt går det ju som sagt räkna ut prestandan mer eller mindre när man visste frekvenser och antalet kärnor. Det var många år sedan Skylake slutade vara spännande. För mig spelar det ingen roll om man försöker piffa till namnet med kaffe och kanoner Skylake är Skylake är Skylake.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av _Merc_:

Intels 10 core cpu kommer dra 250w och vara omöjlig att kyla utan vatten.

Haha du igen!

Kan man använda luftkylare på en Ryzen 1800x eller 3900x vid överklockning?

Skrivet av jorgen69:

Här klarar inte Noctua D15 att kyla 250w för att få ut max prestanda.

Nej, då behövs flytande kväve.

Permalänk
Medlem
Skrivet av _Merc_:

Intels 10 core cpu kommer dra 250w och vara omöjlig att kyla utan vatten.

Varför skulle det vara omöjligt? Jag kör med en Noctua luftkylare till en 3960X och det verkar fungera.

Permalänk
Medlem

För 3 år sen inför och efter CES 2017 så var 4/8 absolut standard och vi väntade med spänning på AMD's Zen.

Mycket har skett på 3 år.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Ja du har rätt. Men det är intressant och se om inte interna saker flaskar med så många kärnor så att man inte får ut en linjär prestanda ökning. Fler kärnor sätter ju press på mycket, 2st kanaler till ramminnet är ingen höjdare.
Så frågan är hur skräddarsydd lasten som gav upp till 30 % bättre prestanda är?

Sedan ska man ta dessa rykten med en nypa salt. Om Intel faktiskt haft en produkt som klockat i närheten av Skylake och med den IPC som det ryktas om så hade Intel redan slagit på den stora trumman för att hålla hypen vid liv och inte varit så tysta som de varit.

Skrivet av Ryzer:

Jag utgick efter SweC egna test.
Då 9900k drar 150w, så har jag mycket svårt att se att två extra kärnor skulle ge 100watt till. Men vi får väl se.

Enligt SweC maxar din 3900x 210watt. Inte i CB dock.

9900K har en TDP på 95W och drar ändå en bra bit över 150W vid full load samt har två kärnor mindre. Att 10900K "bara" skulle dra 20W mer trots att den verkar vara klockad högre och har två mer kärnor är önsketänkande.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Avstängd
Skrivet av joakim99:

Varför skulle det vara omöjligt? Jag kör med en Noctua luftkylare till en 3960X och det verkar fungera.

är den överklockad? Om intel skall ha en all core clock på 4.9 ghz så krävs det rejäl kylning på 10 kärnor.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Ryzer:

Nej, då behövs flytande kväve.

Precis.Vid vanlig användning funkar vilken kylare som helst.

Visa signatur

13900K - NH D15 - Maximus Z790 Hero - 32gb G-Skill 7200Mhz - Intel 900P 480Gb -Kingston Renegade 2Tb -Samsung 980 PRO 2TB - Samsung 980 PRO 1TB - Gigabyte RTX 4090 GAMING OC - AX 1600i - Phanteks P600s -Alienware AW3423DW - Beyerdynamic T5 MK III - Creative Sound Blaster GC7 - ROG Strix SCAR 16 (2023) - G634JZ-NM015W.

Permalänk

Har svårt att bli upphettsad av nått som känns lika frächt som en trimmad Volvo 240 ungefär. Intel är inte inressant för mig igen förrän dom kommer med något nytt, inte en arkitektur som funnits sen Hedenhös tid och dinosaurierna fortfarande gick runt på jorden.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | Lian-Li O11 | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Inaktiv
Skrivet av _Merc_:

Intels 10 core cpu kommer dra 250w och vara omöjlig att kyla utan vatten.

@_Merc_

Amds 3900x som drar över 200w är ju inte speciellt svårt att kyla med luft.

Permalänk
Skrivet av ts1337:

så jäkla härligt att dom blåser på med 30% ökning. Varför inte? Jag kommer lätt köpa den. 9900k är det inget fel på idagens läge, spöar ju amd så det skriker om det när det kommer till spel.

Peace!

Vet inte om jag blandar ihop det nu men va inte du en av alla 9900K-användare som skulle ha processorn i minst 5 år?

Permalänk
Medlem
Skrivet av anon298854:

@_Merc_

Amds 3900x som drar över 200w är ju inte speciellt svårt att kyla med luft.

https://cdn.sweclockers.com/artikel/diagram/17669?key=45684aea76b1d55234b87c47922a6ed7

Läste du inte "för hela systemet"? Selektivt läsande. Intels nya är 250W för BARA processorn(vid boost, enligt Intels egna siffror) .

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Datavetare
Skrivet av lillaankan_i_dammen:

I väldigt nischade områden. Ens powershell, excel och annan script är det mindre än trivialt.
Jag ser påståendet att GPGPU är enkelt, som att använda hybridlösningar i molnet idag är enkelt. Det enda man behöver göra i vissa program är att gå upp i en meny välja att skicka datan till ett datacenter och de bearbetar datan. Detta leder till att man kan göra väldigt fina 3D renderingar med ljuseffekter snabbt på en dator som har ett grafikkort som motsvarar ett S3 Virge.
Problemet med argumentet är att visst det är enkelt på ens program som kanske kostar 5000kr/mån att hyra, men när man sitter där och gör sin egen lösning så är hydridlösningar i molnet inte lika enkelt i praktiken. Och man i praktiken får använda sin egen grafikkort till det den är till för.

GPGPU har och kommit länge vara supernitchat. Det som behövs till är att mer färdiga ramverk kommer till det. Lite som att Parallel.ForEach som kommer i typ alla språk som powershell, leder till att folk i praktiken parallellserar det lilla arbete som deras små script gör.

*edit*
Saker som Parallel.ForEach är skitbra. Man kan argumentera för hur mycket olika språks tillämpningar suger. Men i praktiken så innebär dessa att folk på 5 sekunder kan parallellisera en uppgift och få en lösning som dynamisk anpassar sig efter systemet. Så den både fungerar bra om det är 2 eller 10 kärnor. Detta leder till att folk i praktiken använder detta överallt, visst är inte resultatet det bästa men tid är pengar.
Ska man bygga något liknande själv, säg det tar 10h a 1500kr/h, ja det är 15000kr i kostnad för ens lilla script.

Att utveckla för GPGPU kräver självklar mer, även om det finns vissa specifika fall där det är nästa automatiskt. Du nämner t.ex. "Parallel.ForEach" (finess i dotnet-ramverket). För C, C++ och Fortan finns liknande stöd i form av OpenMP, ett exempel på hur man kan göra ett i grunden helt enkeltrådat program till att använda alla tillgängliga CPU-kärnor kan du se i detta inlägg (ingen magi, kräver att problemet har massor med inneboende parallellism, så inte en allmänt gångbar lösning för t.ex. spel men väl för "rätt" typ av problem som t.ex. rendering).

Enda som skiljer det strikt enkeltrådade programmet från det som, givet tillräckligt stor problem att jobba på, utan problem maxar alla CPU-trådar på min 3900X är detta

#pragma omp parallel for for (int i = 0; i < combs.size(); i++)

samt en omkompilering. För att sedan utnyttja GPGPU krävs egentligen ingenting mer än stöd från GPU-tillverkaren (som tyvärr bara finns från Nvidia via CUDA just nu, Intel har relativt nyligen släppt en beta för deras GPUer) samt en omkompilering där man säger att OpenMP ska avlasta till GPU i stället.

För en slutanvändare krävs absolut ingenting mer än att ha "rätt" GPU samt tillgång till programmet kompilerat för GPU. Idag finns ett GPGPU-stöd i t.ex. Adobes Photoshop, After Effects, Premiere Pro, i matematikprogram/språk som Matlab, R och Octave och i praktiken alla 3D-renderingsprogram.

I vissa av dessa problem måste man också ha en snabb CPU med hyfsat med CPU-kärnor, medan t.ex. 3D-renderingsprogrammen faktiskt klarar sig med några få CPU-kärnor, men dessa ska ha så hög enkeltrådprestanda om möjligt då det fortfarande finns flertalet moment som skalar illa med kärnor och därmed inte alls lämpar sig för GPGPU.

GPGPU är en av flera heliga graal:er som i teorin haft potential men i praktiken varit rätt hopplöst att använda. Att Intel känner sig tvingade att ge sig in i GPU-marknaden tror jag är en direkt effekt av att GPGPU nu fått sitt genombrott och framförallt Nvidia har börjat äta upp viktiga marknadsandelar till det som tidigare gick till Intels datacentergrupp. Så för just GPGPU tog det ca 15 år från man började snacka om dess potential till att vi som slutkonsumenter faktiskt börjar se lite relevant verkstad.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer