Intel "Cascade Lake-X" Core i9-10900X hittar ut i prestandatest

Trädvy Permalänk
Medlem
Plats
Cyberspace
Registrerad
Aug 2004
Skrivet av Sveklockarn:

I Anandtechs tester av Ryzen 3000-serien så framgick det med all önskvärd tydlighet att fler än fyra kärnor spelar extremt liten roll för spelande (~5 FPS mellan bästa-sämsta) vilket utan konkurrens lär vara den tyngsta belastning det stora flertalet utsätter sina datorer för.

4 kärnor räcker inte i dagsläget i flera olika spela, men 6 gör det. Flera videos och tester som har visat på det.

MOS8500 > 68000 > 8088 > 286 > 386 > 486 > PMMX > ???? > 3570K > 2700X > 3900X. Fan vad jag älskar datorer!

Hoppas att ARM/RISC kommer med nån sexig skit supersnart!

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av Paddanx:

30% mer för 200% av priset är inte vettig utveckling, det är att betala för mindre än tidigare.

Tittar man på MSRP för i7-3770 respektive i7-6700K så hade priset ökat 34 USD över tre år. De 1400 SEK som dessa 34 USD i prisskillnad blev i Sverige går som du själv förstår knappast till Intel utan till en svensk distributör som chockhöjt priset baserat på efterfrågan.

Prisökningen från 6700K till 8700K är 31 USD, så Intel har ökat priset väldigt lite, särskilt om man tar med inflationsuppskrivningen av dollarvärdet.

Skrivet av Paddanx:

6000kr var överdrift, vilket jag också sa, men priserna gick totalt bonkers fram till 2015-ish. Vi betalade mer för väldigt lite. Yorkfield är trots allt 2009 och tidigare, så att få ynka 30% mer på 6 år är snigelfart jämfört med vad som skett på senaste 3 åren.

Det var Ivy Bridge till Skylake som åsyftades, så tre års tid. Med tanke på att prestandan procentuellt ökat mer än priset så får det nog ses som acceptabelt d.v.s. man får mer för pengarna nu trots högre pris.

Sen kommer den svenska prissättningen, men det är knappast Intels fel.

Skrivet av Paddanx:

lol... den dåliga ursäkten igen.
4 kärnor är för lite för tom de spel jag spelar ffs, och du behöver bara titta på valfri CPU test från Sweclockers för att se 6-core och över springa om alla 4-core.

Vi får nog försöka etablera vad som menas med "springa om". När en fyrkärnig CPU är med i toppen ihop med CPUer som har fler kärnor, eller slår dem i vissa fall, så är det inte svårt att konstatera att det inte är några som helst problem att köra 4C idag. Tvåkärniga är uppenbarligen rejält slagna idag däremot.

Kärnhysterin är framförallt ett säljargument. Med det sagt har jag gärna fler kärnor, sålänge det inte sker på bekostnad av enkeltrådad prestanda.

Skrivet av Paddanx:

Dock håller jag med att mer inte per automatik är bättre, men moderna spelmotorer idag kan använda 6-8 cores väldigt effektivt.

Det har jag inte ifrågasatt överhuvudtaget. Jag påtalar bara att t.ex. en i7-6700K är en fullt gångbar CPU idag också, trots att den "bara är fyrkärnig".

Skrivet av Paddanx:

Du har webbläsare, discord, VoIP, spel-lauchers, och en hel del program i taskbar och ev tom YT för att titta på hur andra spelar... Så fler kärnor om priset är rätt, är faktiskt bättre ur verklig användningssynpunkt för jämn prestanda till spelet. Det är bara inte testat så för det är variabler som påverkar ojämnt, och svåra att mäta. Men du känner när du får slut på kraft, så du vill aldrig ligga på 90-100% på CPU i spel, för det är när du får stutters.

Dock viktigt att tillägga att allokeringen av CPU-tiden inte innebär att kärnor låses ner till enskilda program, samt att dagens CPUer är så snabba att CPU-tiden som går åt är så liten att enstaka kärnor utan problem hanterar merparten av bakgrundsprogrammen. Även om t.ex. en webbläsare kan mumsa i sin massor med CPU & minne så är de väldig resursmässigt timida i bakgrunden.

Skrivet av Paddanx:

Så nej... försök inte med det tramset.

Du vet att jag alltid kommer att försöka.

Jag bjuder på öl och käbbel när vi ses i november. <3

http://xkcd.com/386/
http://readthefuckingmanual.com/
http://en.wikipedia.org/wiki/Megahertz_myth

”Alltså vad är det med grafikkortsmakare och bokstaven X? Det är precis som med dansbandsmusiker och bokstaven Z.”

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Sveklockarn:

Tittar man på MSRP för i7-3770 respektive i7-6700K så hade priset ökat 34 USD över tre år. De 1400 SEK som dessa 34 USD i prisskillnad blev i Sverige går som du själv förstår knappast till Intel utan till en svensk distributör som chockhöjt priset baserat på efterfrågan.

Prisökningen från 6700K till 8700K är 31 USD, så Intel har ökat priset väldigt lite, särskilt om man tar med inflationsuppskrivningen av dollarvärdet.
Det var Ivy Bridge till Skylake som åsyftades, så tre års tid. Med tanke på att prestandan procentuellt ökat mer än priset så får det nog ses som acceptabelt d.v.s. man får mer för pengarna nu trots högre pris.

Sa inget med 8700k. Sa ca 2015... för du fick mer eller mindre betala samma pris för samma prestanda då. När 8700k kom var det största vettiga "hoppet" på väldigt länge, och den lanserades tidigare än planerat, med enorma säkerhetshål Intel visste om och med en lappad styrkrets utan någon egentlig funktion utöver att ha andra energi-lägen.

Skrivet av Sveklockarn:

Sen kommer den svenska prissättningen, men det är knappast Intels fel.
Vi får nog försöka etablera vad som menas med "springa om". När en fyrkärnig CPU är med i toppen ihop med CPUer som har fler kärnor, eller slår dem i vissa fall, så är det inte svårt att konstatera att det inte är några som helst problem att köra 4C idag. Tvåkärniga är uppenbarligen rejält slagna idag däremot.

Föreslår du titta på minimum eller 1%/.1% tester, för många spel är verkligen inte kul att spela på 4-core. Skulle tom våga påstå att det är närmast ospelbart, även om "average fps" säger annat, då hack och frysningar är sällan kul. Frame-times hoppar runt betydligt mer, och det märks. Självklart finns det äldre spel som fungerar helt utmärkt, men att köpa 4-core idag är lite som att snål och dumköpa när det verkligen är minimum kraven.

Lägg till att de flesta spel faktiskt verkar tjäna bra på att stänga av HT, så att köpa 6C/8C och stänga av HT är ofta bättre prestanda vs 4/8 oavsett.

Skrivet av Sveklockarn:

Kärnhysterin är framförallt ett säljargument. Med det sagt har jag gärna fler kärnor, sålänge det inte sker på bekostnad av enkeltrådad prestanda.

Kommer alltid vara en balans. Intel kommer tvingas sänka frekvenserna från 5Ghz med nya noder också, och mer cache kommer inte gynna alla program. Många gånger dock får du bättre prestanda med optimering av ditt system, RAM och inställningar, vs att stirra dig blind på ett benchmark som bara mäter ren IPC. Så att offra lite enkeltrådprestanda för bra allmän prestanda är fullt okej imho. 5% för 50% är helt klart värt det.

Spel äter RAM bandbredd idag, och varje cykel CPUn står och väntar, är IPC som finns, men inte används. Detta är ju tex varför AMDs Ryzen kan fungera bra nog att slå Intel i tex CS-GO, pga den stora mängden cache. Och samma var ju med 5775c vs Skylake och Kaby. Det behövdes nästan 1Ghz högre frekvens, och typ 2x effekten för att få snarlik prestanda i många spel.

Skrivet av Sveklockarn:

Det har jag inte ifrågasatt överhuvudtaget. Jag påtalar bara att t.ex. en i7-6700K är en fullt gångbar CPU idag också, trots att den "bara är fyrkärnig".

Håller inte med.
CPUn har bara officiellt stöd för 2133Mhz RAM (och sämre latens i de lägena än DDR3 i 2133), har lägre boost klocks än Haswell och klockar typ samma, sämre effektivitet än 5775c pga ingen L4 och når inte frekvenserna 7700k gör, och har inte speed-step fördelarna heller.

Lägg till buggarna, 10+ BIOS patchar för att få dem stabila på z170, säkerhetshålen de fortfarande har, så är det nog en av de sämsta CPUerna Intel lanserat på ca 5 år. De har förbättrat den grunden, men mer eller mindre är de få % teoretiska IPC fördelarna inte värt ett skit idag vs många CPUer. Om du körde Excel 1 trådskript, ja... annars, ta något bättre.

Skrivet av Sveklockarn:

Dock viktigt att tillägga att allokeringen av CPU-tiden inte innebär att kärnor låses ner till enskilda program, samt att dagens CPUer är så snabba att CPU-tiden som går åt är så liten att enstaka kärnor utan problem hanterar merparten av bakgrundsprogrammen. Även om t.ex. en webbläsare kan mumsa i sin massor med CPU & minne så är de väldig resursmässigt timida i bakgrunden.

Fram till alla säkerhetsbuggar, ja, då stämde detta bra. Men nu när cachen måste rensas varje gång den hoppar CPU, och många andra prestanda fördelar de hade när de kom är många Intel CPUer långsammare än många tror, när de väl "hoppar". Detta är varför det idag är bättre utan HT "igen", som på nehalem tiden i många spel. Innan patcherna så hade ju Skylake en bra HT... men lika tät som en sil tydligen.

Jag har gjort en hel del testande genom att låsa mjukvaror till specifika trådar och detta är lite också varför Max prestanda i power settings ens påverkar, för detta konstanta hoppande av trådar och frekvens ger sina problem i jämn prestanda. Många 1-2 trådade spel fungerar märkbart bättre om man låser dem till 2 trådar som inte är HT med varandra, och försöker hålla bort allt annat tungt från dem.

Skrivet av Sveklockarn:

Du vet att jag alltid kommer att försöka.

Du kan försöka, men det är dags att lägga 4-trådar på samma pall som 2-core CPUer... dvs botten pallen till budget. 6-core är så prisvärda idag att det är rent av bara dumt att ens tänka på lägre.

Skrivet av Sveklockarn:

Jag bjuder på öl och käbbel när vi ses i november. <3

Låter bra, tror jag är skyldig 1-2 andra en sådan också, så cirkeln sluts väl till slut

Trädvy Permalänk
Medlem
Plats
Jönköping
Registrerad
Aug 2011
Skrivet av Paddanx:

Sa inget med 8700k.

Nej, jag tog med det för att visa på att Intels prisökningar är några få procent uttryckt i ej inflationsjusterade dollar, och att de svenska priserna inte står i paritet p.g.a. att exempelvis att distributörskartellerna... förlåt -kanalerna, bestämmer sig för att öka vinstmarginalerna i osäkra ekonomiska tider.

Skrivet av Paddanx:

med enorma säkerhetshål

Som i praktiken inte drabbar någon ur den tilltänkta kundkretsen, men ok.

Skrivet av Paddanx:

Föreslår du titta på minimum eller 1%/.1% tester,

Det är precis den sortens siffror jag refererar till eftersom det är den siffra som säger något meningsfullt om hur ett system presterar. 95:e percentilen räcker iaf med G-Sync aktiverat för en ryckfri upplevelse.

Skrivet av Paddanx:

att köpa 4-core idag är lite som att snål och dumköpa när det verkligen är minimum kraven.

Åter något jag inte förespråkat. Nu går det ju dessutom att rekommendera AMD igen, för första gången på decennier, så jag känner att marknaden nog tagit hand om kärnproblematiken vid det här laget.

Skrivet av Paddanx:

Lägg till att de flesta spel faktiskt verkar tjäna bra på att stänga av HT, så att köpa 6C/8C och stänga av HT är ofta bättre prestanda vs 4/8 oavsett.

Att kärnor slår trådar är väl å andra sidan inte något speciellt kontroversiellt påstående? Att de flesta spel skulle tjäna på att deaktivera HT (och vad AMD nu kallar det) känner jag kanske inte är fullt så etablerat dock.

Skrivet av Paddanx:

Kommer alltid vara en balans. Intel kommer tvingas sänka frekvenserna från 5Ghz med nya noder också, och mer cache kommer inte gynna alla program. Många gånger dock får du bättre prestanda med optimering av ditt system, RAM och inställningar, vs att stirra dig blind på ett benchmark som bara mäter ren IPC. Så att offra lite enkeltrådprestanda för bra allmän prestanda är fullt okej imho. 5% för 50% är helt klart värt det.

Otroligt mycket är fortfarande, och kommer vara, enkeltrådat av rent matematiska anledningar. Jag är inte motståndare till multicore på något sätt, men det är inte den universella frälsning som det ofta framställs som i entusiastkretsar.

Skrivet av Paddanx:

Håller inte med.
CPUn har bara officiellt stöd för 2133Mhz RAM (och sämre latens i de lägena än DDR3 i 2133), har lägre boost klocks än Haswell och klockar typ samma, sämre effektivitet än 5775c pga ingen L4 och når inte frekvenserna 7700k gör, och har inte speed-step fördelarna heller.

Det gapet är bokstavligt talat en minimal överklockning med en minimal arbetsinsats för att överbrygga. Kolla gärna siffrorna i din DDR3-jämförelse med en av alla fritt tillgängliga RAM Latency Calculators som finns där ute, så kanske du får se att till synes högre CL-latens inte är det i verkligheten eftersom den tidsrymden baseras på klockcyklerna.

Skrivet av Paddanx:

10+ BIOS patchar för att få dem stabila på z170, säkerhetshålen de fortfarande har, så är det nog en av de sämsta CPUerna Intel lanserat på ca 5 år.

Z170 är onekligen ett sorgligt kapitel, men det var också plattformen som gjorde ett flertal viktiga förändringar och ett avstamp från hur en lång rad grejer fungerat och varit konfigurerade tidigare -- inte minst I/O-kapaciteten som möjliggjorde meningsfull användning av ofantligt mycket snabbare lagringslösningar.

Likväl får jag nästan aldrig medhåll från någon på forumet när jag kritiserar Intels historiskt dåliga jobb med sina chipset, som påfallande ofta är en lam revision av något föregående skräp som redan konstaterats vara föråldrat åratal innan.

Det är svårt att vara ikonoklast, helt enkelt.

Skrivet av Paddanx:

Om du körde Excel 1 trådskript, ja... annars, ta något bättre.

Nu håller ju AMD snudd på jämna steg enkeltrådat med Intel, så det finns uppenbarligen fog för att hålla den prestandan uppe. Av alla som köper en produkt från respektive företag så är det nog antagligen en mindre andel går utanför kontorssysslornas enkeltrådade belastningar också för den delen...

Skrivet av Paddanx:

Jag har gjort en hel del testande genom att låsa mjukvaror till specifika trådar och detta är lite också varför Max prestanda i power settings ens påverkar, för detta konstanta hoppande av trådar och frekvens ger sina problem i jämn prestanda. Många 1-2 trådade spel fungerar märkbart bättre om man låser dem till 2 trådar som inte är HT med varandra, och försöker hålla bort allt annat tungt från dem.

Man kan nog misstänka att det helt enkelt handlar om att det finns en abstraktion i hur det fungerar på hårdvarunivå så att viss programvara inte kan göra skillnad mellan logiska och fysiska processorer, vilket förklarar den prestandaförbättringen då HT (iirc) inte ger mer än maximalt ca 80% av vad en kärna till gör i något slags best-case-scenario.

Skrivet av Paddanx:

Låter bra, tror jag är skyldig 1-2 andra en sådan också, så cirkeln sluts väl till slut

Kjamizz!

http://xkcd.com/386/
http://readthefuckingmanual.com/
http://en.wikipedia.org/wiki/Megahertz_myth

”Alltså vad är det med grafikkortsmakare och bokstaven X? Det är precis som med dansbandsmusiker och bokstaven Z.”

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Paddanx:

Föreslår du titta på minimum eller 1%/.1% tester, för många spel är verkligen inte kul att spela på 4-core. Skulle tom våga påstå att det är närmast ospelbart, även om "average fps" säger annat, då hack och frysningar är sällan kul. Frame-times hoppar runt betydligt mer, och det märks. Självklart finns det äldre spel som fungerar helt utmärkt, men att köpa 4-core idag är lite som att snål och dumköpa när det verkligen är minimum kraven.

Antar du refererar till 4C/4T? För kikar man på SweClockers senaste CPU-tester där 7700K fortfarande är med så ligger den ju klart bättre i lägsta FPS än t.ex. 1800X "trots" att den senare har 8C/16T.

Visst ser vissa spel nytta av fler CPU-trådar än 4 st idag, men är fortfarande så att högre prestanda per CPU-kärna är långt viktigare än fler kärnor.

Skrivet av Paddanx:

Lägg till att de flesta spel faktiskt verkar tjäna bra på att stänga av HT, så att köpa 6C/8C och stänga av HT är ofta bättre prestanda vs 4/8 oavsett.

Det är rätt uppenbart att detta inte stämmer för 4C. Är först vid 8C som det verkar svänga (i dagens titlar), i alla fall om man håller sig till SweClockers senaste CPU-test där 9700K har marginellt bättre lägsta FPS jämfört med 9900K.

Skrivet av Paddanx:

Kommer alltid vara en balans. Intel kommer tvingas sänka frekvenserna från 5Ghz med nya noder också, och mer cache kommer inte gynna alla program. Många gånger dock får du bättre prestanda med optimering av ditt system, RAM och inställningar, vs att stirra dig blind på ett benchmark som bara mäter ren IPC. Så att offra lite enkeltrådprestanda för bra allmän prestanda är fullt okej imho. 5% för 50% är helt klart värt det.

Självklart handlar det om balans, allt handlar om rätt balans! Men för det som diskuteras här är balansen extremt förskjuten mot prestanda per kärna.

Intels HEDT är en extremnischprodukt just då man får offra viss enkeltrådprestanda för fler kärnor. 3900X är inte AMDs bästa produkt på över ett decennium för att den råkar ha 50 % fler kärnor jämfört med 9900K, utan det är långt mer en effekt av att AMD är närmare Intels enkeltrådprestanda än de varit sedan Athlon-tiden.

Hade 3000-seriens 8C modeller varit högre klockade, om så bara 10 % högre, hade 12C modellen direkt blivit en extremt nischad produkt. Både AMD och Intel har lärt sig att hålla ner frekvenserna på de "lägre" modellerna så att deras dyraste toppmodell för konsumenter konsekvent presterar bäst. Att toppmodellen då klockar högst är superkritiskt!

Skrivet av Paddanx:

Spel äter RAM bandbredd idag, och varje cykel CPUn står och väntar, är IPC som finns, men inte används. Detta är ju tex varför AMDs Ryzen kan fungera bra nog att slå Intel i tex CS-GO, pga den stora mängden cache. Och samma var ju med 5775c vs Skylake och Kaby. Det behövdes nästan 1Ghz högre frekvens, och typ 2x effekten för att få snarlik prestanda i många spel.

Är det verkligen bandbredd som spel behöver? Om så vore fallet, hur kommer sig det då att både Intels och AMDs HEDT CPUer, som har långt högre RAM-bandbredd jämfört med konsumentmodellerna, presterar sämre i spel?

Det mesta pekar på att spel i allt större utsträckning har ett "working-set" allt oftare inte får plats i CPU-cache, vilket då gör RAM-hastigheten allt viktigare. Men den aspekt som är mest kritiskt är latens, inte bandbredd.

Skrivet av Paddanx:

Håller inte med.
CPUn har bara officiellt stöd för 2133Mhz RAM (och sämre latens i de lägena än DDR3 i 2133), har lägre boost klocks än Haswell och klockar typ samma, sämre effektivitet än 5775c pga ingen L4 och når inte frekvenserna 7700k gör, och har inte speed-step fördelarna heller.

Du nämner för att 6700K bara har officiellt stöd för 2133 MT/s DDR4. Helt sant, men hur är då eventuellt lägre latens för DDR3 i 2133 MT/s relevant när ingen Intel desktop CPU stödjer snabbare än DDR3 1666 MT/s?

Ska man hårdra "officiellt stöd" toppar ju DDR4 2666 på CL17 och DDR4 3200 på CL20. Det är rätt nära den officiella latensen för DDR4 2166 som lägst går till CL14. Det som verkar begränsa latensen är spänning till RAM, släpper man på kravet att officiell spänning för DDR4 är 1,2 V går det att få ner latens.

Om man, som av något anledning rätt många tycker är OK, bara bryr sig om officiell frekvens och inte officiell latens verkar det finna DDR4-2133 CL10. Det är rätt snarlik faktiskt latens som DDR4-3200 CL15. Med DDR4-2166 CL10 lär 6700K kliva förbi 5775C i spel. Enligt SweClockers tester med RAM-hastighet skalar ju spelprestanda nästan perfekt från DDR4-2133 CL16 till DDR4-2400 CL16, medan det allt mer faller av sedan. Så 6700K är rätt rejält begränsad av sin officiella minneshastighet (givet att Intel verkar skala väldigt snarlikt som AMD med RAM)

Vet inte heller vilka siffror du lutar dig på när du säger att 5775C är mer effekt jämfört med Skylake. Enligt SweClockers mätning är effektiviteten 6700K > 8400 > 7700K/5755C (ja, 5775C drar jämnt med 7700K på denna punkt). Observera att 8400 också är en 65 W TDP CPU.

TechPowerUp får samma inbördes ordning när de testar i spel, tyvärr saknas 5775C men poängen är att 6700K även där slår 8400 sett till strömsippande!

TechReports test visar att 8400 är klart bättre än 5775C, där kör man i.o.f.s. med DDR4-3200 på Skylake men det är DDR3-2133 för 5775C. Så L4$ hjälper i äldre spel och i fall där man kör med väldigt långsamt RAM, men utanför spel har det aldrig hjälpt och idag är snabbare RAM mer värt.

Givet att vi kommenterar en artikel om X-serien. Är också värt att notera att Intel är medveten om att de mer krävande fallen går inte att hantera med allt mer cache. Skylake SP / S-serien har ju mindre L3$ än föregångarna, ändå är denna serie ett klart steg upp i de riktigt krävande scenario (spel ingår inte i gruppen "krävande" fall).

Skrivet av Paddanx:

Lägg till buggarna, 10+ BIOS patchar för att få dem stabila på z170, säkerhetshålen de fortfarande har, så är det nog en av de sämsta CPUerna Intel lanserat på ca 5 år. De har förbättrat den grunden, men mer eller mindre är de få % teoretiska IPC fördelarna inte värt ett skit idag vs många CPUer. Om du körde Excel 1 trådskript, ja... annars, ta något bättre.

Fram till alla säkerhetsbuggar, ja, då stämde detta bra. Men nu när cachen måste rensas varje gång den hoppar CPU, och många andra prestanda fördelar de hade när de kom är många Intel CPUer långsammare än många tror, när de väl "hoppar". Detta är varför det idag är bättre utan HT "igen", som på nehalem tiden i många spel. Innan patcherna så hade ju Skylake en bra HT... men lika tät som en sil tydligen.

Du refererar väl ändå inte till Spectre/Meltdown här va?
För om så är fallet: Spectre/Meltdown är extremt svåra att utnyttja, p.g.a. detta har de endast en CVSSv3 poäng på 5,4 ("Exploitability Score" är extremt låga 1,1).

Endast 2-5 % av alla CVEer kommer någonsin att utnyttjas. Majoritet av de som faktiskt utnyttjas har en CVSSv3 poäng på 7 eller högre, i praktiken räcker det väldigt långt att enbart oroa sig för de med en poäng över 9.

Undantaget Spectre variant 1 är det ju inte ens teoretiskt möjligt (givet vad vi vet idag) att utnyttja dessa svagheter på en typisk desktop-dator. Det samtidigt som mer än 10 st CVE med en CVSSv3 poäng på >9 har publicerats för Windows 10 under denna månad. Antar att du fortfarande våga använda Windows, och är det inte lite svårt att förstå om du samtidigt ser Spectre/Meltdown som ett på något sätt relevant problem?

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Yoshman:

Antar du refererar till 4C/4T? För kikar man på SweClockers senaste CPU-tester där 7700K fortfarande är med så ligger den ju klart bättre i lägsta FPS än t.ex. 1800X "trots" att den senare har 8C/16T.

Visst ser vissa spel nytta av fler CPU-trådar än 4 st idag, men är fortfarande så att högre prestanda per CPU-kärna är långt viktigare än fler kärnor.

Ursäkten med prestanda per kärna är rätt dålig när det är fåtal % i skillnad mellan flesta CPUer idag. Du kan säkert hitta extremheter, men per automatik är inte 6-core "sämre" än 4-core i den aspekten.

Så nej, om du gör något annat än stänger av allt för en enkel benchmark, tar 4-core slut mer fort än du vill tro. Även en 4/8 känner av det idag...

Skrivet av Yoshman:

Det är rätt uppenbart att detta inte stämmer för 4C. Är först vid 8C som det verkar svänga (i dagens titlar), i alla fall om man håller sig till SweClockers senaste CPU-test där 9700K har marginellt bättre lägsta FPS jämfört med 9900K.

Och det första han refererar till är ett benchmark utan något annat...
Föreslår du läser igenom inläggen ovan, för du har aningen missat min poäng, eller valt att ignorera den.

Skrivet av Yoshman:

Självklart handlar det om balans, allt handlar om rätt balans! Men för det som diskuteras här är balansen extremt förskjuten mot prestanda per kärna.

Intels HEDT är en extremnischprodukt just då man får offra viss enkeltrådprestanda för fler kärnor. 3900X är inte AMDs bästa produkt på över ett decennium för att den råkar ha 50 % fler kärnor jämfört med 9900K, utan det är långt mer en effekt av att AMD är närmare Intels enkeltrådprestanda än de varit sedan Athlon-tiden.

8/16 vs 12/24 har jag inte ens diskuterat här. Självklart är du då "över kullen" och balansen för prestanda per kärna kommer in i bilden igen.

3600 dock är betydligt mer balanserad än någon 4/8 är, även om du har mer enkeltrådig prestanda, för sekunden du ska använda den i ett verkligt system, utan för dessa benchmarks, märker du hur prestandan dippar lite varstans när CPUn slår 100%.

Mao, slår du 100% på CPUn, spelar prestanda per kärna noll roll... du har problem.

Skrivet av Yoshman:

Är det verkligen bandbredd som spel behöver? Om så vore fallet, hur kommer sig det då att både Intels och AMDs HEDT CPUer, som har långt högre RAM-bandbredd jämfört med konsumentmodellerna, presterar sämre i spel?

Det mesta pekar på att spel i allt större utsträckning har ett "working-set" allt oftare inte får plats i CPU-cache, vilket då gör RAM-hastigheten allt viktigare. Men den aspekt som är mest kritiskt är latens, inte bandbredd.

Okej, fel val av ord. Den behöver nog med bandbredd, till så låg latens som möjligt. Kravet på bandbredd har dock ökar enormt från tex Sandy tiden, där 1333 vs 1600 gjorde nada. Även C2Q och DDR2 räckte långt där, så Intels massiva 3x 1333Mhz gjorde ingen nytta. Idag dock är det ironiskt nog denna 3x 1333/1600 bandbredd som klarar sig bättre än en hel del efterföljare, om de också kör 1333/1600 RAM utan några andra fördelar.

Mao, du kan ha DDR2 låg latens eller DDR3 1600 CL7, och det räcker ändå inte. Så låg latens är inte allt pga det är också en hel del texturer mm som ska skyfflas och ofta läsas in successivt under spel-tiden numera. Detta kräver extra CPU och RAM resurser, annars ser du dippar i FPS.

Skrivet av Yoshman:

Du nämner för att 6700K bara har officiellt stöd för 2133 MT/s DDR4. Helt sant, men hur är då eventuellt lägre latens för DDR3 i 2133 MT/s relevant när ingen Intel desktop CPU stödjer snabbare än DDR3 1666 MT/s?

För Skylake hade problem nog med 2133MT i tidigt skede, och 2133MT var ganska enkelt att klocka även Sandy bridge till. Du kan köra Ivy och senare till 2400, men interna timeings blir sämre. Tror Haswell Refresh klarar 2666MT i sällsynta fall.

Skillnaden är att du kunde få 1600 låg latens moduler (har haft dessa sedan C2D tiden), medan samtliga 2133 DDR4 hade hemsk latens. Låt oss titta lite på vad som är vanligt:
https://en.wikipedia.org/wiki/CAS_latency

2133 CL 16/15/14. Låt oss ta bästa fall... 2133 CL14 ca 13.13ns
Jämför detta med helt vanliga 1600 för tiden... CL 8-10. CL11 finns på laptop moduler.
Så sämsta DDR3 1600Mhz CL11 13.75 vs bästa DDR4 2133Mhz CL14 13.13... Du kan tom klocka upp nästan samtliga DDR3 1333/1600Mhz moduler till 2133 CL11 nivå (och få prestanda boost btw)

Skylakes interna latens grund är inte riktigt optimerad för "låg latens" moduler när tom minnena de är specificerade till ligger efter.

Så när du försöker klocka Skylakes minneskontroller stöter man ofta på att den inte klarar låg latens, men den klarar mer bandbredd. Valfri Sandy till Haswell klarar av 1600 Cl7 minnen 8.75ns i kontrollern så att gå till 2133Mhz CL8-9 är fullt möjligt i de flesta.

Så praktiken är svaret. För att DDR4 ska nå ens 10ns latens behöver du 2666Mhz som är väldigt tajt satta. Normalt når du det först med 3000Mhz moduler och CL15. Och även då är du ca 15-20% efter var DDR3 låg i sin motsvarande nivå.

DDR4 behöver mao en cache på CPUn stor nog att rymma "working-set" som du utryckte det, annars faller prestandan. Och 5775c fördel är att även om de kör 1600 CL7 så är L4 cachen snabbare. AMD insåg det, och deras L3 cache är ju varför de får så bra spelprestanda, trots lägre frekvens.

Vill också minnas vi pratat om detta, och du sa att Cachen är "för dyr", därför gjorde man Skylake. Ändå lyckas AMD göra den, och sälja den så billigt att Intel fick kapa priserna. Antar att man kanske behöver specifiera, dyr för vem?

Skrivet av Yoshman:

Ska man hårdra "officiellt stöd" toppar ju DDR4 2666 på CL17 och DDR4 3200 på CL20. Det är rätt nära den officiella latensen för DDR4 2166 som lägst går till CL14. Det som verkar begränsa latensen är spänning till RAM, släpper man på kravet att officiell spänning för DDR4 är 1,2 V går det att få ner latens.

Jo... DDR4 är betydligt segare än det borde vara. 3200 har jag för mig JEDEC har blivit CL22.
Tur att det finns saker som Turbo (CPU), XMP och andra standarder man kan använda som referens då, så vi slipper köra 9900k i 3.6Ghz... hårddraget
Om så vore fallet hade ju AMDs 3900X med 3,8Ghz verkligen spöat skiten ur den...

Skrivet av Yoshman:

Om man, som av något anledning rätt många tycker är OK, bara bryr sig om officiell frekvens och inte officiell latens verkar det finna DDR4-2133 CL10. Det är rätt snarlik faktiskt latens som DDR4-3200 CL15. Med DDR4-2166 CL10 lär 6700K kliva förbi 5775C i spel. Enligt SweClockers tester med RAM-hastighet skalar ju spelprestanda nästan perfekt från DDR4-2133 CL16 till DDR4-2400 CL16, medan det allt mer faller av sedan. Så 6700K är rätt rejält begränsad av sin officiella minneshastighet (givet att Intel verkar skala väldigt snarlikt som AMD med RAM)

Lycka till att köra den med dem
Tro mig, du får svårt även med 1.35+ vid CL12. Så åter vi är i en värld du inte kan jämföra teori vs praktik. Och notera detta är efter 50-11 BIOS uppdateringar. Innan dessa ska du vara glad om JEDEC 2133 fungerar.

PS. 5775c kan köra 1600 CL7... 8,75ns, så jobba på ditt projekt. DS

Skrivet av Yoshman:

Vet inte heller vilka siffror du lutar dig på när du säger att 5775C är mer effekt jämfört med Skylake. Enligt SweClockers mätning är effektiviteten 6700K > 8400 > 7700K/5755C (ja, 5775C drar jämnt med 7700K på denna punkt). Observera att 8400 också är en 65 W TDP CPU.

För även i det läget, får du högre spelprestanda med 5775c. Du kan väl slå en titt i samma test du länkade?
https://www.sweclockers.com/test/24482-intel-core-i7-8700k-i5...
https://www.sweclockers.com/test/24482-intel-core-i7-8700k-i5...

Om de drar samma vid väggen, och 5775c ger högre FPS, är det mer effektivt för just den typ av prestanda, vilket ju var hela diskussionen... du vet spel... RAM, bandbredd/latens osv. Inte excel bladen här nu

Så du kan jämföra det med FPS/Watt om du så önskar med 6700k. Även 7700k springer på rätt bra där, och klarar även bättre RAM (både i frekvens och inre latens).

8400 har dock nackdelen att den är 65W oavsett, samtliga andra går att överklocka och trimma RAM.

Skrivet av Yoshman:

TechPowerUp får samma inbördes ordning när de testar i spel, tyvärr saknas 5775C men poängen är att 6700K även där slår 8400 sett till strömsippande!

TechReports test visar att 8400 är klart bättre än 5775C, där kör man i.o.f.s. med DDR4-3200 på Skylake men det är DDR3-2133 för 5775C. Så L4$ hjälper i äldre spel och i fall där man kör med väldigt långsamt RAM, men utanför spel har det aldrig hjälpt och idag är snabbare RAM mer värt.

Så vad du säger är att 3 generationers nyare CPU är bättre... wow... vilket framsteg. Minns inte jag agumenterat ovan om att den skulle vara bättre än 8400?
Minns jag argumentera mot 6700k, och det står jag för, och har sedan 2015. Skylake 6000 serie.. suger. För många nackdelar.

PS... där är inga 6700k i det chartet, utan i pris/dollar, vilket den ironiskt nog ligger "samma linje" som 5775c. Du vet... det priset som ovan diskuterades och "halverades" med AMD. Mao 5775c borde inte ha kostat det... om AMD prissatt det, när man tittar på 3000 seriens komplexitet.

Skrivet av Yoshman:

Givet att vi kommenterar en artikel om X-serien. Är också värt att notera att Intel är medveten om att de mer krävande fallen går inte att hantera med allt mer cache. Skylake SP / S-serien har ju mindre L3$ än föregångarna, ändå är denna serie ett klart steg upp i de riktigt krävande scenario (spel ingår inte i gruppen "krävande" fall).

Lösningen för hur framtiden ser ut är ovis. Lite fördelar man ser är ju att OSet är på väg att bli medveten om "bästa kärnorna", så era kära enkel-tråd-prestanda lär få en boost. Sen efter det är det nog mer nere till hur man kan effektivisera det. Vi kommer inte se 6Ghz CPUn närmaste tiden, så vill vi ha någon form av avancering får det ske på andra sätt, även i mjukvara.

En sak jag dock säger är... monolitisk design är döende (vill minnas jag sa det tidigare också). Tom Intel har insett det nu verkar det som. Inte för den är sämre, utan för AMD har ändå lyckats lösa en rätt bra prisvärd konkurrent, trots dyrt L3, och utan 5Ghz. Finns mao sätt att lösa problemen, även om det kräver nytt sätt att tänka.

Tror dock att dagen där en CPU är bäst på allt, är på utgående, och det kommer finnas fördelar och nackdelar med olika val, beroende på design och alla bör inte göras lika. En sak är säker dock... 8400 är inte 4 trådar, 3600 är inte 4 trådar. Så den tiden är borta... lägg ner ert 2015 "crysis 3 fungerar bra än".

Skrivet av Yoshman:

Du refererar väl ändå inte till Spectre/Meltdown här va?
För om så är fallet: Spectre/Meltdown är extremt svåra att utnyttja, p.g.a. detta har de endast en CVSSv3 poäng på 5,4 ("Exploitability Score" är extremt låga 1,1).

Endast 2-5 % av alla CVEer kommer någonsin att utnyttjas. Majoritet av de som faktiskt utnyttjas har en CVSSv3 poäng på 7 eller högre, i praktiken räcker det väldigt långt att enbart oroa sig för de med en poäng över 9.

Undantaget Spectre variant 1 är det ju inte ens teoretiskt möjligt (givet vad vi vet idag) att utnyttja dessa svagheter på en typisk desktop-dator. Det samtidigt som mer än 10 st CVE med en CVSSv3 poäng på >9 har publicerats för Windows 10 under denna månad. Antar att du fortfarande våga använda Windows, och är det inte lite svårt att förstå om du samtidigt ser Spectre/Meltdown som ett på något sätt relevant problem?

Vet ärligt inte. Jag har fått slut på fingrar att räkna antalet säkerhetsbuggar i Skylake arkitekturen ... och varenda patch verkar ta lite mer prestanda. Känns som det är lite koka groda här, där om allt kommit 2015, hade ingen köpt dem. Men pga vi fått lite skit hela tiden, har folk accepterat att sitta med Intel Ost är okej. Känns som varenda prestanda funktion de har snart är sårbar. Egentligen borde hela skiten återkallats som på Pentium 1 tiden.

När de valde att medvetet lansera 8000 serien, och visste om dessa fel, tappade jag all respekt. Istället för att laga, valde man att skjuta fram lanseringen och mjölka kunderna. Finns ingen anledning att tänka så nu när alternativ som är bra nog finns. Och lovar dig... Intel kommer sopa dessa under mattan så fort de bara kan när de själva släpper sin egen nya med fix.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011
Skrivet av Paddanx:

Ursäkten med prestanda per kärna är rätt dålig när det är fåtal % i skillnad mellan flesta CPUer idag. Du kan säkert hitta extremheter, men per automatik är inte 6-core "sämre" än 4-core i den aspekten.

Hur är det en "ursäkt"? Det är tvärtom högst relevant.
Jag har varit och är väldigt avigt inställd till att offra ens små mängder prestanda per kärna för fler kärnor, har därför aldrig riktigt känt speciellt mycket för Intels HEDT serie då man just gör denna avvägning.

Däremot är utvecklingen på mainstream väldigt välkommen. Fler kärnor är väldigt välkommet när man får detta utan att offra enkeltrådprestanda, vi har ju faktiskt fått en svag höjning (mer än svag höjning på AMD-sidan) på toppmodellerna och fler kärnor!

Skrivet av Paddanx:

Så nej, om du gör något annat än stänger av allt för en enkel benchmark, tar 4-core slut mer fort än du vill tro. Även en 4/8 känner av det idag...

Grabbens dator med tre skärmar, RTX 2070 och i7-5775C håller inte med. Han kör YouTube i princip permanent på en skärm, har massa launchers, discord etc på en och spelet på den sista. YouTube tar ju i praktiken noll CPU då det kan hanteras av GPU-HW, övriga tar i praktiken noll CPU för, ja de gör inte speciellt mycket i normalfallet.

Däremot hänger inte enkeltrådprestanda i i7-5775C med längre, i hög-FPS spel blir man helt CPU-bunden. Fast vill vänta in Comet Lake innan det blir uppgradering där...

Skrivet av Paddanx:

3600 dock är betydligt mer balanserad än någon 4/8 är, även om du har mer enkeltrådig prestanda, för sekunden du ska använda den i ett verkligt system, utan för dessa benchmarks, märker du hur prestandan dippar lite varstans när CPUn slår 100%.

3600 ligger ~12 % efter 9600K i lägsta FPS om man går efter SweClockers mätningar. Så helt optimal verkar ändå inte balansen vara. 3600 och 7700K drar helt jämt i lägsta FPS (7700K ligger däremot efter i genomsnittlig FPS). Dessa är tagna från 1920x1080.

Skrivet av Paddanx:

Mao, slår du 100% på CPUn, spelar prestanda per kärna noll roll... du har problem.

Absolut, det p.g.a. att det alltid finns småsaker som ska köras i bakgrunden samt hur Windows schemaläggare misslyckas att hantera just detta när alla CPU-trådar är permanent lastade till 100%.

Men finns en väldigt enkel lösning: sätt en FPS-limiter på ungefär den FPS systemet fixar i genomsnitt. Då kommer det uppstå "luckor" tillräckligt ofta för att Windows schemaläggare inte ska få spel. Har fått börja göra detta i vissa spel på grabbens dator, eliminerar helt stutter som annars uppstår i vissa väldigt nya titlar.

Skrivet av Paddanx:

För Skylake hade problem nog med 2133MT i tidigt skede, och 2133MT var ganska enkelt att klocka även Sandy bridge till. Du kan köra Ivy och senare till 2400, men interna timeings blir sämre. Tror Haswell Refresh klarar 2666MT i sällsynta fall.

Säker på det? Googlade lite på QVL listor för Z170 moderkort, alla jag hittade hade minst med DDR4-2400 MT/s minnen och de flesta hade med varianter upp till 3000 MT/s. Har själv första generationen Skylake som NUC/bärbar, där har det då inte strulat (bara NUC:arna som kör DDR4-2133, bärbara körde DDR3L-1866).

Att det gnälls på forum är inte samma sak som att det vara generella problem.

Skrivet av Paddanx:

Vill också minnas vi pratat om detta, och du sa att Cachen är "för dyr", därför gjorde man Skylake. Ändå lyckas AMD göra den, och sälja den så billigt att Intel fick kapa priserna. Antar att man kanske behöver specifiera, dyr för vem?

L4$ var/är en dyr lösning. Tekniken används ju även i Skylake, om än i ett tekniskt bättre format som inte påverkar L3$ negativt på det sätt som var fallet för Haswell/Broadwell. Men det finns bara på det dyraste modellerna för bärbara, detta då det utanför spel egentligen bara ger en vettig boost för iGPU.

Gissar dock att man droppar det i Ice Lake p.g.a. övergång till LPDDR4 som kan klockas väsentligt högre.

Skrivet av Paddanx:

PS. 5775c kan köra 1600 CL7... 8,75ns, så jobba på ditt projekt. DS

Problemet är bara att det är ovanpå den extra latens som L4$ lägger på. Just den nackdelen är den stora orsaken till varför vi inte ser L4$ i någon relevant utsträckning. Extra lager cache har både för och nackdelar, för varje lager tippar balansen mot fler nackdelar.
5775C blir därför i praktiken chanslös mot Skylake när den senare utrustas med DDR4-3200 med OK CAS (som t.ex. Techreport använde).

Skrivet av Paddanx:

För även i det läget, får du högre spelprestanda med 5775c. Du kan väl slå en titt i samma test du länkade?
https://www.sweclockers.com/test/24482-intel-core-i7-8700k-i5...
https://www.sweclockers.com/test/24482-intel-core-i7-8700k-i5...

Om de drar samma vid väggen, och 5775c ger högre FPS, är det mer effektivt för just den typ av prestanda, vilket ju var hela diskussionen... du vet spel... RAM, bandbredd/latens osv. Inte excel bladen här nu

Fast vi vet ju inte vad systemet drar där. Effektivitet är ju prestanda per W. Vad vi däremot redan vet är att effekten kommer påverkas väldigt lite av snabbare RAM.

Men absolut, para en Skylake med tillräckligt långsamt RAM och du lär få bättre effektivitet ur 5775C (som tack vare L4$ är långt mindre påverkad av RAM-hastighet).

Poängen var att du nog inte har mätdata att backa upp ditt påstående. För det mätdata som finns i de "vanliga" CPU-testerna visar tyvärr på rätt kass effektivitet för 5775C. Men det är absolut en effekt av att dessa mätningar i praktiken alltid görs på icke-spelprogram och där har L4$ aldrig fungerat väl.

Skrivet av Paddanx:

När de valde att medvetet lansera 8000 serien, och visste om dessa fel, tappade jag all respekt. Istället för att laga, valde man att skjuta fram lanseringen och mjölka kunderna. Finns ingen anledning att tänka så nu när alternativ som är bra nog finns. Och lovar dig... Intel kommer sopa dessa under mattan så fort de bara kan när de själva släpper sin egen nya med fix.

Men vänta här nu. AMD har ju "vetat om" att Zen2 är mottaglig för Spectre variant 1 och 2 samt "speculation store bypass" och ändå lanserade de 3000-serien. Hur hemskt är inte det (har en 3900X och ser noll problem med vad AMD gjort här)?

Kan ge dem pass på Spectre variant 1, den vet ingen hur man ska fixa. Men Intel har faktiskt fixat spectre variant 2 i HW i sina senaste server-modeller (de har även fixat Meltdown och L1 Terminal Fault både för server, mobilt och desktop).

Största felet just nu är att Windows inte har något vettigt sätt att slå av fixarna. För som "vanlig" användare är allt förutom spectre variant 1 i praktiken ett icke-problem. Fast å andra sidan är nog prestandaförlusten också ett icke-problem för "vanliga" användare, så kanske är bra ändå...

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Lund
Registrerad
Mar 2017
Skrivet av Sveklockarn:

I Anandtechs tester av Ryzen 3000-serien så framgick det med all önskvärd tydlighet att fler än fyra kärnor spelar extremt liten roll för spelande (~5 FPS mellan bästa-sämsta) vilket utan konkurrens lär vara den tyngsta belastning det stora flertalet utsätter sina datorer för.

Well, att fler än 4 kärnor "spelar extremt liten roll" är rätt enkelt att motbevisa:

Battlefield V - 47 fps ner till 7700k från 9700k (20%)

Total War: Three Kingdoms - 46 fps mellan 9700k och 7700k (22%) (9900k snabbare)

Assassin's Creed: Odyssey – 29 fps mellan 9700k och 7700k (24%) (9900k snabbare)

CPU: R7 1700 @3.8GHz | GPU: EVGA 1080 Ti SC Black Hybrid(2x Corsair ML120)(core: 1627 MHz, Mem: 11208 MHz) | MB: MSI X370 Gaming Pro Carbon| RAM: 2x8 GB G.Skill Ripjaws V @3200MHz CL14|Cooling: Fractal Design Celsius S24 (Corsair ML120)|PSU: EVGA Supernova G3 750W|SSD: Samsung 960 EVO 500GB + Samsung 950 pro 512GB + Samsung 850 EVO 500GB + Intel DC S3510 480 GB + 850 EVO 2TB|HDD: WD Black 1TB|FANS: Corsair ML140 x2|CASE: Fractal Design Meshify C|RGB: 4x Phanteks Halo + LED-slinga + GPU-holder

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Yoshman:

Hur är det en "ursäkt"? Det är tvärtom högst relevant.
Jag har varit och är väldigt avigt inställd till att offra ens små mängder prestanda per kärna för fler kärnor, har därför aldrig riktigt känt speciellt mycket för Intels HEDT serie då man just gör denna avvägning.

Däremot är utvecklingen på mainstream väldigt välkommen. Fler kärnor är väldigt välkommet när man får detta utan att offra enkeltrådprestanda, vi har ju faktiskt fått en svag höjning (mer än svag höjning på AMD-sidan) på toppmodellerna och fler kärnor!

Nej det är en dålig ursäkt, för som jag sa, det är väldigt lite skillnad idag. Om det är skillnad är det frekvensmässigt "sämsta vs bästa"... vilket är löjlig jämförelse när priset kommer in i bilden.

Och just det... att man får fler kärnor och bra enkeltråd är vad som skett i rätt många år nu. Självklart finns det undantag, men ena måste inte utesluta andra.

Skrivet av Yoshman:

Grabbens dator med tre skärmar, RTX 2070 och i7-5775C håller inte med. Han kör YouTube i princip permanent på en skärm, har massa launchers, discord etc på en och spelet på den sista. YouTube tar ju i praktiken noll CPU då det kan hanteras av GPU-HW, övriga tar i praktiken noll CPU för, ja de gör inte speciellt mycket i normalfallet.

Däremot hänger inte enkeltrådprestanda i i7-5775C med längre, i hög-FPS spel blir man helt CPU-bunden. Fast vill vänta in Comet Lake innan det blir uppgradering där...

Min 5775c hänger med fint @ 4.4Ghz dock. Så vill du ha mer prestanda, gör som alla andra gjort på varenda 14nm CPU... klocka. Enda den lackar är ju just frekvensen, så när den får Skylakes frekvenser, har den helt okej prestanda där med.

Men oavsett 4790k eller 5775c så märker man att de slår i 90%+ i tyngre spel, inte pga en kärna maxar, utan pga hela CPUn maxar. Och när du påstår att en webbläsare inte drar CPU kraft... lägger jag ner, för det är bara skitsnack.

[quote postid="18090269" userid="171719" name="Yoshman"]
3600 ligger ~12 % efter 9600K i lägsta FPS om man går efter SweClockers mätningar. Så helt optimal verkar ändå inte balansen vara. 3600 och 7700K drar helt jämt i lägsta FPS (7700K ligger däremot efter i genomsnittlig FPS). Dessa är tagna från 1920x1080.

Beror på vilket spel också:
https://cdn.sweclockers.com/artikel/diagram/17920?key=68f65c5...
https://cdn.sweclockers.com/artikel/diagram/17844?key=99298b4...

Det är inte svart på vitt längre. Som jag sa i förra inlägget, där finns inte en CPU som är bättre än en annan längre, utan de kommer ha olika styrkor och svagheter. 9600Ks styrka är ingen HT... så vissa spel älskar den. Men testa detta på en 7600k, och du kommer se den dyka.

https://cdn.sweclockers.com/artikel/diagram/17864?key=95e1e96...
Där finns tillfällen denna CPUn är markant snabbare, men det är inte alltid man använder den typ av last.

Skrivet av Yoshman:

Absolut, det p.g.a. att det alltid finns småsaker som ska köras i bakgrunden samt hur Windows schemaläggare misslyckas att hantera just detta när alla CPU-trådar är permanent lastade till 100%.

Men finns en väldigt enkel lösning: sätt en FPS-limiter på ungefär den FPS systemet fixar i genomsnitt. Då kommer det uppstå "luckor" tillräckligt ofta för att Windows schemaläggare inte ska få spel. Har fått börja göra detta i vissa spel på grabbens dator, eliminerar helt stutter som annars uppstår i vissa väldigt nya titlar.

Eller så ser man bara till att GPUn är svagare än CPUn last genom att inte överköpa den... mer prisvärt om du ändå inte ska använda det

Skrivet av Yoshman:

Säker på det? Googlade lite på QVL listor för Z170 moderkort, alla jag hittade hade minst med DDR4-2400 MT/s minnen och de flesta hade med varianter upp till 3000 MT/s. Har själv första generationen Skylake som NUC/bärbar, där har det då inte strulat (bara NUC:arna som kör DDR4-2133, bärbara körde DDR3L-1866).

Att det gnälls på forum är inte samma sak som att det vara generella problem.

När erfarna Sweclockers byggare får problem, jag själv hade 2 vänner med dessa maskiner som hade problem och nästan alla moderkort hade tonvis med BIOS fix... jo, jag är väldigt säker. QVL listor uppdateras med nya moduler, ursprungliga problemen finns där ändå.

Skrivet av Yoshman:

L4$ var/är en dyr lösning. Tekniken används ju även i Skylake, om än i ett tekniskt bättre format som inte påverkar L3$ negativt på det sätt som var fallet för Haswell/Broadwell. Men det finns bara på det dyraste modellerna för bärbara, detta då det utanför spel egentligen bara ger en vettig boost för iGPU.

Men om du vill ha en spel CPU då?

Folk är villiga att betala hutlöst för något som ger "upp till %" mer... och du argumenterar om upp till 12% ovan i ditt val av jämförelse, varför blev priset nu ett problem?

Som sagt, några vill ha CPUn för ett spel, andra vill ha den för beräkning, tredje vill ha den för programmera kod
Att det finns alternativ gör att det inte är så självklart som det en gång varit.

Skrivet av Yoshman:

Gissar dock att man droppar det i Ice Lake p.g.a. övergång till LPDDR4 som kan klockas väsentligt högre.

Problemet är bara att det är ovanpå den extra latens som L4$ lägger på. Just den nackdelen är den stora orsaken till varför vi inte ser L4$ i någon relevant utsträckning. Extra lager cache har både för och nackdelar, för varje lager tippar balansen mot fler nackdelar.
5775C blir därför i praktiken chanslös mot Skylake när den senare utrustas med DDR4-3200 med OK CAS (som t.ex. Techreport använde).

Jo förstår mig rätt här, jag säger inte vi behöver ha en gigantisk L4, utan jag säger att vi behöver mer cache för att avlasta DDR4s halvdana latens. 3200 CL14 är B-die lägre "fina" nivå, går att klocka mer, men utan massiv överklock iaf. Andra alt är 3600 CL17. Dessa är nere på DDR3s vanliga nivå på 2133 CL9, men dessa moduler är bästa av det bästa (och har nu slutat tillverkas också).

Så DDR4 kommer nog hamna runt 10ns, vilket gör behovet av en bra cache rätt viktigt.

Att vi sitter och diskuterar hur du med extremt snabba minnen kan slå en 4 år gammal CPU är lite konstigt imho. 5775c har varit ett kanonbra alternativ fram tills nu, och Skylake först nyligen är ens ett alternativ. Du kunde 2015 förlänga livet med Sandy bridge med snabbt RAM då också... så det är inget nytt.

Skrivet av Yoshman:

Fast vi vet ju inte vad systemet drar där. Effektivitet är ju prestanda per W. Vad vi däremot redan vet är att effekten kommer påverkas väldigt lite av snabbare RAM.

Men absolut, para en Skylake med tillräckligt långsamt RAM och du lär få bättre effektivitet ur 5775C (som tack vare L4$ är långt mindre påverkad av RAM-hastighet).

Poängen var att du nog inte har mätdata att backa upp ditt påstående. För det mätdata som finns i de "vanliga" CPU-testerna visar tyvärr på rätt kass effektivitet för 5775C. Men det är absolut en effekt av att dessa mätningar i praktiken alltid görs på icke-spelprogram och där har L4$ aldrig fungerat väl.

Jag har nog med mätdata i att jag har kört detta sedan 2015... inte att jag behövde sälja mitt DDR4 2133 för struntsumma nu (jämför vad dessa kosta i ren förlust när de köptes vs nu), för att lägga in snabbare RAM. Inte lönt... istället så köper du nytt system och får mer nytta, samt kan sälja det gamla "komplett".

Och jag har under dessa 4 år fått betydligt bättre prestanda, tills... du fick snabbare RAM (om ditt fall skulle stämma). Du kan inte jämföra dagens vs 4 år sedan och tro det var så under 4 år... lol. Och det finns gott om ström tester på 5775c vs 6700k.

Skrivet av Yoshman:

Men vänta här nu. AMD har ju "vetat om" att Zen2 är mottaglig för Spectre variant 1 och 2 samt "speculation store bypass" och ändå lanserade de 3000-serien. Hur hemskt är inte det (har en 3900X och ser noll problem med vad AMD gjort här)?

Kan ge dem pass på Spectre variant 1, den vet ingen hur man ska fixa. Men Intel har faktiskt fixat spectre variant 2 i HW i sina senaste server-modeller (de har även fixat Meltdown och L1 Terminal Fault både för server, mobilt och desktop).

https://en.wikipedia.org/wiki/Zen_2
Zen 2 includes hardware mitigations to the Spectre security vulnerability.
AMD har fixat sin också, så långt det går. De rullade ut fix för detta redan med vissa X470 moderkort och Ryzen 2000.

Och Intel har fixat dem i 9000 serien, inte i 8000 serien, eller alla tidigare CPUer. Du kan via microkod fixa, ja, men det är lite som att sätta tejp över lampan som varnar. Det döljer bara felet, när fixet är aktivt.

Och vad jag var sur på var att DE visste om att 8000 var defekt, och lanserade den tidigt innan det blev publikt. Samtliga CPUer efter testas ju mot dessa defekter, så du själv vet vad som gäller... du behöver inte några månader senare få reda på "att det du köpt är trasigt".

Intel CPUerna spottar nya fel mer eller mindre varannan månad känns det som.
https://www.techpowerup.com/259096/new-netcat-vulnerability-e...
Och ja, dessa är server CPUer, men det är ändå ett säkerhetshål till i arkitekturen.

Skrivet av Yoshman:

Största felet just nu är att Windows inte har något vettigt sätt att slå av fixarna. För som "vanlig" användare är allt förutom spectre variant 1 i praktiken ett icke-problem. Fast å andra sidan är nog prestandaförlusten också ett icke-problem för "vanliga" användare, så kanske är bra ändå...

Detta är ju också kontentan av att Windows idag "göra allt åt dig", en sak jag kritiserade med Windows 10 redan i tidigt stadie. Men jag håller med att okunniga ska ha fixen på plats, för vem ska du skylla på om de inte är och något sker?

Och jag lovar dig... de påverkar. AMD CPUer tappade ju ett tag prestanda för de patchade ALLT, oavsett CPU, även om de inte påverkas av den buggen. Och Intel 3000 serien och tidigare är märkbart sämre med Windows patcharna, trots att de saknar BIOS patchar. Märkte detta mellan 2600kn och 4790kn. De var snarlika innan, nu är det natt o dag, trots att hårdvaran inte ändrats. SSDer har också sämre prestanda i 4k med alla patchar, inkl BIOS.

Intel behöver börja om, och det låter som att de gör det med deras senaste lösning. Så jag hade inte köpt en enda Intel CPU öht idag om jag kunnat välja... för den kommer vara utdaterad av både Intel själva och AMD snart nog. Väntar bara på Intel PR grafen som säger att deras nya är xx% snabbare än alla tidigare Intel CPUer

... antar det är fördelen med frisk konkurrens, vi får något nytt istället för fler Skylake kopior.

Trädvy Permalänk
Datavetare
Plats
Stockholm
Registrerad
Jun 2011

Vi får, som vanligt, komma överens om att vi inte är överens

Just Windows scheduler är lite trist då det är ett uppenbart lösbart problem. Lasta en Windows-maskin till 100 % på alla trådar, den blir oanvändbar till ens basala interaktiva saker och spel får "stutter". Lasta en Linux-maskin, även en 2C/4T, till 100 % och du kan fortsätta surfa, köra webbmöten och man känner knappt något skillnad då Linux lyckas göra en vettig klassificering av trådar i "interaktiva" och "batch".

Skrivet av Paddanx:

https://en.wikipedia.org/wiki/Zen_2
Zen 2 includes hardware mitigations to the Spectre security vulnerability.
AMD har fixat sin också, så långt det går. De rullade ut fix för detta redan med vissa X470 moderkort och Ryzen 2000.

AMD verkar inte hålla med, detta är vad som rapporteras som existerande problem hos Zen2 (3900X) under Linux

spectre_v2 Mitigation: Full AMD retpoline, IBPB: conditional, STIBP: always-on, RSB filling mds Not affected l1tf Not affected spec_store_bypass Mitigation: Speculative Store Bypass disabled via prctl and seccomp spectre_v1 Mitigation: usercopy/swapgs barriers and __user pointer sanitization meltdown Not affected

Vad AMD specifikt sade om Spectre variant 2 är "hardening", inte att man fixat det (vilket alltså Intel har gjort för senaste Xeon-serien). Buggen är fortfarande kvar, men enligt AMD ännu lite svårare att utnyttja.

Jag är inte det minsta orolig för Spectre variant 2. Testade PoC för denna på min första gen Skylake NUC. Då den har eDRAM är timing lite annorlunda, så var stört omöjligt att få PoC att fungera. Och även utan eDRAM problemet fungerar bara PoC om man

  • slår av turbo, annars varierar timing för mycket

  • låser alla ingående program på specifika trådar, hoppar de runt fungerar det inte...

  • ser till att inget annat körs i bakgrunden, för det ändrar timing

Spectre variant 2 är en rent teoretisk attack, i praktiken är den totalt oanvändbar. Framförallt när det typiskt dyker upp en handfull CVE med en CVSSv3 poäng på över 9 varje månad i både Windows och Linux!!

Skrivet av Paddanx:

Intel behöver börja om, och det låter som att de gör det med deras senaste lösning. Så jag hade inte köpt en enda Intel CPU öht idag om jag kunnat välja... för den kommer vara utdaterad av både Intel själva och AMD snart nog. Väntar bara på Intel PR grafen som säger att deras nya är xx% snabbare än alla tidigare Intel CPUer

Du är långt ifrån ensam att skriva detta. För mig är det verkligen "make no sense". Intel har fortfarande den mest effektiva x86-designen, varför ska man då börja om?

Med mest effektiva menar jag: jämför Skylake och Zen2. Den senare har långt fler transistorer per CPU-kärna, det för att nå samma ungefär IPC.

Eller är det ens samma IPC (ja, den har högre IPC för flyttal men är lika svag fördel Skylake för heltal)? Zen2 vinner över Skylake när SMT plockas in i bilden, utan SMT är Skylake mer effektiv.

Vissa ser det som att Zens SMT "är mer effektiv", jag brukar då alltid peka på första Atom där SMT gav ~50 %... Man kan få SMT att ge mer genom att ha sämre effektivtet när bara en CPU-tråd används. Det är svårare att ha hög IPC utan SMT då all ILP måste komma ur en enda instruktionsström.

Så varför ska Intel ändra sig här? Sunny Cove är en bredare och djupare (~60 % fler instruktioner "in-flight") än Skylake, men det är i grunden Core-designen. Mycket lite pekar på att Willow Cove ändrar något relevant. Vad man gör är att utnyttja 10 nm till plocka in mer cache, mer L1/L2 i Sunny Cove och mer L3 i Willow Cove. Men det är Core-designen man bygger vidare på.

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Trädvy Permalänk
Medlem
Plats
Malmö
Registrerad
Maj 2014
Skrivet av Yoshman:

Vi får, som vanligt, komma överens om att vi inte är överens

Tror detta var den bästa kommentaren du skrivit på hela året

Skrivet av Yoshman:

Just Windows scheduler är lite trist då det är ett uppenbart lösbart problem. Lasta en Windows-maskin till 100 % på alla trådar, den blir oanvändbar till ens basala interaktiva saker och spel får "stutter". Lasta en Linux-maskin, även en 2C/4T, till 100 % och du kan fortsätta surfa, köra webbmöten och man känner knappt något skillnad då Linux lyckas göra en vettig klassificering av trådar i "interaktiva" och "batch".

Så se mao till att du har mer CPU trådar än Windows kan fylla, problemet löst, tills MS får sitt fixat

Skrivet av Yoshman:

AMD verkar inte hålla med, detta är vad som rapporteras som existerande problem hos Zen2 (3900X) under Linux

spectre_v2 Mitigation: Full AMD retpoline, IBPB: conditional, STIBP: always-on, RSB filling mds Not affected l1tf Not affected spec_store_bypass Mitigation: Speculative Store Bypass disabled via prctl and seccomp spectre_v1 Mitigation: usercopy/swapgs barriers and __user pointer sanitization meltdown Not affected

Vad AMD specifikt sade om Spectre variant 2 är "hardening", inte att man fixat det (vilket alltså Intel har gjort för senaste Xeon-serien). Buggen är fortfarande kvar, men enligt AMD ännu lite svårare att utnyttja.

Då får vi hoppas de fixas i nästa version. 9000 serien hade ju också "fix" för sitt, som sen visade sig har fler hål, så då är de väl båda kålsupare. Men det ändrar inte faktumet Intel gjorde med 8000 serien.

Man medvetet släppte fullt sårbara CPUer månader tidigare än planerat, utan någon fix öht. Och Xeon kan ju ta DDIO i nästa, en bugg du inte ens behöver fysisk access till maskinen för att använda.

Skrivet av Yoshman:

Jag är inte det minsta orolig för Spectre variant 2. Testade PoC för denna på min första gen Skylake NUC. Då den har eDRAM är timing lite annorlunda, så var stört omöjligt att få PoC att fungera. Och även utan eDRAM problemet fungerar bara PoC om man

  • slår av turbo, annars varierar timing för mycket

  • låser alla ingående program på specifika trådar, hoppar de runt fungerar det inte...

  • ser till att inget annat körs i bakgrunden, för det ändrar timing

Spectre variant 2 är en rent teoretisk attack, i praktiken är den totalt oanvändbar. Framförallt när det typiskt dyker upp en handfull CVE med en CVSSv3 poäng på över 9 varje månad i både Windows och Linux!!

Omöjlig tror jag inte på, men extremt svår, ja.
Men det gör en fördel för en CPU som 9700k tex... du har 8-cores ingen HT och en hel del färre risker. Så fler kärnor kan mao vara en fördel. Ta en 6-16 core och stäng av HT så slipper du mycket av dessa problem. Det gör dock 9700k > 9900k och 3900X blir en intressant 12-core processor dock.

PS. vill du kontrollera frekvensen och timeing? Maxa temp. Tvinga den in i max throttle och håll den där, så har du lägsta frekvensen och mer tid, samt det är enkelt att göra externt.

Skrivet av Yoshman:

Du är långt ifrån ensam att skriva detta. För mig är det verkligen "make no sense". Intel har fortfarande den mest effektiva x86-designen, varför ska man då börja om?

Med mest effektiva menar jag: jämför Skylake och Zen2. Den senare har långt fler transistorer per CPU-kärna, det för att nå samma ungefär IPC.

Eller är det ens samma IPC (ja, den har högre IPC för flyttal men är lika svag fördel Skylake för heltal)? Zen2 vinner över Skylake när SMT plockas in i bilden, utan SMT är Skylake mer effektiv.

Vissa ser det som att Zens SMT "är mer effektiv", jag brukar då alltid peka på första Atom där SMT gav ~50 %... Man kan få SMT att ge mer genom att ha sämre effektivtet när bara en CPU-tråd används. Det är svårare att ha hög IPC utan SMT då all ILP måste komma ur en enda instruktionsström.

Så varför ska Intel ändra sig här? Sunny Cove är en bredare och djupare (~60 % fler instruktioner "in-flight") än Skylake, men det är i grunden Core-designen. Mycket lite pekar på att Willow Cove ändrar något relevant. Vad man gör är att utnyttja 10 nm till plocka in mer cache, mer L1/L2 i Sunny Cove och mer L3 i Willow Cove. Men det är Core-designen man bygger vidare på.

För deras befintliga lägg på 2 cores till på samma skräp, behövs ändras. Och du är så besatt av prestanda och IPC att du gjort samma fel som Intel gjort, vilket är varför de spottar säkerhetshål överallt. Sluta tänk så 2020. Säkerhet >>>> IPC och allt annat. Det är dags att offra prestanda för att få bättre design.

Om de inte börjar tänka så här kommer x86 ha nått sin ände för dem, för ARM mfl kan byggas om och rättas till. Du kan även effektivisera den och få ut IPC som Apple gör. AMD har precis gjort den första storskaliga multi-core, multi-chip med separat I/O som faktiskt är fullt skalbar. De har mycket kvar att lära sig, och tittar du på TSMC så ser du intressanta utvecklingar som nästan verkar skräddarsydda för det, dvs både HBM lösning och bättre cache transistorer.

Du är glad för att påpeka Intels breda häck, men du kanske ska tänka lite längre än så. Jag sa till dig att AMDs design här både skulle vara prisvärt mot Intel och erbjuda bättre möjligheter. Intel fick som sagt dumpa priserna, och AMD har inte ens släppt sin värsting CPU än... för första gången på länge, verkar de vänta på Intel.

Så jo, Intel behöver börja om. De kan säkert använda en hel del av grunden från Core, men där är mycket som behöver ses över om du inte räknar med att de ska göra 5Ghz 10nm, sen 7nm som deras enda trick.