Skrivet av Yoshman:
Det är högt, men vet inte det är extremt högt då min dator får 57 ns med något bättre teoretisk latens. Som med mycket annat verkar Passmark ha problem i hur den får fram sitt resultat. I fallet minneslatens verkar resultatet man uppmäter vara väldigt icke-linjärt då folk som har CL8/9 DDR3 1600MT får uppmätt resultat som är mindre än hälften vad min laptop får, det borde vara 65-70 % av min latens.
Bandbredden ser ut att vara rätt vettig, ungefär så mycket bättre man kan förvänta sig av en CPU med dubbelt så många kärnor och DDR4 2400MT i stället för DDR3 1600MT.
Det är extremt högt i jämförelse med befintliga resultat från snarlika eller äldre system, därav min reaktion och också varför det diskuteras flitigt på olika håll att någon inte stämmer.
Citat:
Det är knappast en felaktig generalisering, de som har problem som drar nytta av så många kärnor tenderar att vara väldigt medveten om hur deras arbetslast är befattat.
Det här resonemanget känner jag igen så starkt från användare tillbaka i tiden som satt eller hade behov med/av SMP plattformar. Vi är i en helt annan tid nu där flertrådat det sista decenniet exploderat för konsumentdatorer och fått många fler användningsområden. Fler och fler applikationer skalar bättre och bättre med kärnor och många spel ökar massivt med MT, och nu har vi Vulkan/DX12 också som verkligen ger ett enormt argument för att gå bredare. Som jag skrev i ett tidigare inlägg, vem av dom som köpte 2600K framför 2500K hade tron att dom någonsin skulle få se såpass nytta av SMT i spel som man kan se flera fall av idag? Man såg tom en försämring många gånger tidigare med SMT. Schemaläggare i Windows för fysiska och logiska enheter har gjorts om, drivrutiner kodas frenetiskt om för att nyttja MT och konsolspel designas för MT.
Citat:
Och här har jag åtskilliga gånger påpekat att antal kärnor är för majoriteten helt irrelevant efter två stycken, efter fyra stycken för gamers. Prio#1 är att ha så hög prestanda per kärna som möjligt, vid samma prestanda per kärna (inom 10-15 %) så är det absolut ingen nackdel att ha så många kärnor som möjligt.
Eller hävdar folk i denna tråd att de verkligen sitter och renderar (som går betydligt snabbare med en GPU) samt kodar film (som kan göras med QuickSync med utvalda modeller) hela dagarna? Vad ska man annars använda så mycket kärnor till?
Och just därför har du fått negativ respons för det också. Vart ett jäkla liv i andra trådar som jag sett att du diskuterar samma sak. Du kan inte bestämma vad som är tillräckligt för olika användare baserat på din egna syn eller tolkning från ditt användande eller hur dina programvaror skalar med fler kärnor. Jag kommer till en mer konkret reflektion av detta längre ner. Du har rätt i att kapacitet per kärna är en prioritet, men samtidigt har du inte märkt att ST prestanda stannat upp och att antal kärnor/trådar ökat nästan exponentiellt i förhållande till ST-prestanda. Det är svårt att öka ST. Man behöver bl.a ännu bättre branch predictors, ännu bättre cachearkitekturer/hierarkier för undvika alla stalls som existerar och ännu högre frekvenser vilket ingenjörerna är väl medvetna om. Det handlar också mycket om mjukvarusidan där många applikationer idag håller mycket låg kvalitet och inte använder kapaciteten på ett optimalt sätt i dagens såpass kraftfulla arkitekturer.
Citat:
Har specifikt pekat på att för Ryzen är ju 1800X den högst klockade så den kommer vara den bästa Ryzen CPUn för desktop. För Intel så är 7700K snabbare än hela E-serien för väldigt nära 100 % av användarna, den har helt enkelt allt för stort försprång i enkeltrådprestanda för att de andra ska komma ikapp.
Största missuppfattningen här är att "multi-tasking" skulle behöva speciellt många kärnor. OK, anta att så är fallet. Hur kommer det sig då att i3-4130 är snabbare än FX-8350 när man kör 4 st CPU-slukande applikationer samtidigt? Tänk sedan att det mer normala är att i alla fall några applikationer istället är I/O-bundna och inte CPU-bundna, i det läget är högre enkeltrådprestanda en än större fördel.
Multitasking kan betyda responsivitet för en del användare när man lastar många trådar/kärnor, men också ren prestanda i MT fall.
I ditt exempel så tar du en processor som är nära hälften så snabb per klockcykel och sen refererar till ett test som inte ger något utslag överhuvudtaget på flerkärniga processorer. Enkelt svar, det testet är inte speciellt trådat utan verkar vara två ST tester som körs parallellt (åtminståne inte mer än 4 trådar totalt). Ironiskt nog mot dina tidigare påståenden är att på nästan sida i samma test du länkade till så är det en massiv skillnad dualcore och quadcore (2500K med mycket lägre IPC och 100MHz lägre klock matar enormt mycket mer fps och 4670K tar ett hästkliv ifrån med nästan dubbelt så hög min-fps):
https://www.bit-tech.net/hardware/2013/11/14/intel-core-i3-41...
Dock bara två speltest men jag länkar fler test längre ner..
Citat:
Här får nog folk bestämma sig. Å ena sidan hävdar vissa att i3 är allt för klen, trots att i3-6100 enligt Digital Foundrys klarar att driva moderna spel en bra bit över 60 FPS (många titlar når över 100 FPS).
Jag har vart bestämd länge och skulle aldrig låta min CPU bli en flaskhals i spel/fps. Vem är nöjd med 60fps idag? i3 är fruktansvärt klen och två speltester från ditt egna test du länka visar samma sak som jag ser överallt förutom några få spel som kan kallas moderna och inte kräver lika mycket CPU, vilket tenderar till att gå mot raka motsatsen idag. Du kanske också borde räkna in att om man köper ett vasst system idag så kanske man vill att det ska stå sig väl om 1-3år då den utvecklingen vi sett på MT skalning i spel, och att Vulkan/DX12 och portar från konsoler blomstrar mer och mer.
Citat:
Å andra sidan hävdar man att boosten man får med Skylake är irrelevant (vissa hävdar ju att det inte ens finns någon boost från IPC här), det är sant för oss som fortfarande sitter med 60 Hz skärmar (där duger rent krasst fortfarande Skylake i3) men sitter man på 144 Hz skärm och faktiskt kör GTX 1080 / Titan X i 1920x1080 så pekar alla resultat att 7700K > hela E-serien, även när man överklockar och kör SLI.
Jag är positivt inställd till Skylakes IPC ökning i spel, så tur att jag nämnde den innan. Trots denna ökning och flera generationer bakåt så kompenserar en 6'e gen i3 knappast för en quad. Många motorer skapas specifikt för 4 kärnor eller mer idag där man specifikt fördelar olika operationer på olika kärnor. När en i3 ska göra det med mindre kapacitet på 4 trådar så ser jag hur man kommer få fler stalls istället vilket kan förklaras av resultaten av höga frame times.
Vem är nöjd med 60fps? Ja dom som nöjer sig med 60fps kan gott köpa en i3, men jag och dom flesta andra tillhör inte den gruppen när quad finns för en obetydlig högre summa pengar i inköp. Även dom som sitter med 60Hz skärmar så missar du poängen att många kör utan vsync och vill ha hög fps på grund av att många spelmotorer är beroende av hög fps då det kan påverka tick-rates/input och upplevd prestanda. Jag sitter själv med 144Hz och skulle aldrig i mitt liv vilka spela på 60Hz eller 60fps. Jag skulle aldrig någonsin vilja att min CPU flaskar mitt grafikkort heller, därav jag väljer en CPU som har maximal ST men samtidigt mycket god MT. Det betyder minst 4 kärnor och 8 trådar idag och helst mer om man inser att morgondagen existerar när det redan finns spel som nyttjar fler trådar. Dock handlar det inte bara som spel utan för att folk kanske spelar ett CPU intensivt spel och kör nått tungt i bakgrunden. Man vill ha låga frame times och inga avbrott eller fryslag.
Citat:
D.v.s. även med 10 kärnor kan inte Intels modeller kompensera för den fördel deras snabbaste 4-kärninga har i prestanda per kärna. Vad är sannolikheten att Ryzen helt magiskt skulle skala mycket bättre med antal CPU-kärnor?
För att deras 4 kärniga är dom högst klockade, och du är så väl medveten om detta. Det är ingen raketforskning. Kör du spel som inte nyttjar fler kärnor än 4/8 trådar så kommer dom just därför att prestera bäst. Trenden går dock emot då mer och mer blir MT. Att Ryzen skulle skala bättre med fler kärnor vet jag inte hur det hamnade i denna mening, men den kommer förmodligen skala likvärdigt som Intel's motsvarigheter. Du kanske syftar på Linus och Infinity Fabric som skulle ge bättre "flyt" i spel+stream. Inget jag nämnt eller lagt större vikt på tills jag ser tester då varken en 8 kärnig AMD eller Intel CPU borde ha problem med den parallella uppgiften.
Nu till speltester där vi kan se skillnad på över 4 kärnor/trådar samt frame times med en dualcore mot en quadcore då snittfps knappast säger en del av upplevelsen:
https://www.youtube.com/watch?v=TtpSiYFFjbI
Såg denna gamle BF3 stapeln också där 4 extra trådar utöver en quad gör ganska stor skillnad, tom när man överklockar quad'en och jämför mot 3.5GHz med SMT.
Det finns en mängd fler exempel och jag borde i fortsättningen samla på mig tester jag ser som skalar väl med kärnor i spel som jag kan få användning av.
Citat:
Lyssna vad David Kanter i en PcPerspective video, som länkas någonstans i denna tråd, säger om för/nackdelar om de olika valen.
Intels har en fördel (hur stor den är vet vi inte än då det inte finns några vettiga läckta tester för detta) i applikationer där flera trådar måste läsa/skriva till cache-lines som även andra CPU-kärnor petat på. Det av flera skäl
vid en L2$ miss måste en victim-cache göra mer jobb än en inkluderande cache, så latens för en miss är högre (enda latensen som listas är lägsta möjliga load-to-use vid träff)
Zen har i tekniskt bemärkelse inte en L3$, den har en per CCX så det tillkommer latens för att hålla minnet koherent mellan CCX. Vi vet inte hur mycket detta kommer påverka, men det kommer vara högre latens än Intels L3$ då den är strikt inkluderande för alla kärnor och kan därför till 100 % användas som snoop-filter (noll snoop-trafik mot L1/L2)
Intel har dubbelt så hög bandbredd mot varje cache-nivå, i praktiken nog mest bara relevant för nischer som HPC och vetenskapliga beräkningar
Ingenstans påstår jag mig veta magnituden av Intels fördel här, den kan absolut visa sig vara tillräckligt liten så den inte spelar någon roll i praktiken. Men vi vet inte detta idag och inget av de läckta resultaten ger oss en hint.
Och vad alla var överens om var: för normal svensson-användning i 1 Gbit/s kvittar det vilken NIC man kör. Men precis som det finns folk som har nytta av CPUer med massor med CPU-kärnor så finns det även folk som lastar sitt nätverk lite mer än normalanvändaren.
Hörde på PCPer's video när den kom ut. Han går inte in speciellt djupt på något utav det vi redan konstaterat i tråden. Den enda han tyckte var att bägge hade för och nackdelar och att nackdelen var när man stänger av kärnor, hur cache-lines hanteras om den behövs senare när en kärna vaknar. Som jag nämnde tidigare, cachearkitekturen innefattar inte bara prestanda, utan andra faktorer som t.ex strömeffektivitet. Din summering ovanför så ser man som andra gånger bara vad Intel har för fördelar och vad Zen har för nackdelar baserat på en befintlig arkitektur. Det säger ju ingenting i praktiken ännu om Zen.
Citat:
Intels 21x-serie har bättre HW-stöd för att effektivt sprida över många CPU-kärnor än någon av de andra NIC:arna som diskuterades. Enklare modeller som Realtek kan överhuvudtaget inte sprida lasten utan allt hamnar på en enda CPU-kärna. För att surfa, spela och liknande är det totalt irrelevant men även i så långsamma länkar som 1 Gbit/s kan man nå 1,4 miljoner paket per sekund och då kommer det bli svettigt även för de starkaste CPUer om inte NIC sprider lasten på ett vettigt sätt.
I 10 Gbit/s är det extremt få tillverkare som har HW-stödet för att alltid kunna maxa länken, det är här upp till 14 miljoner paket per sekund som ska hanteras.
Nu råkar jag ha jobbat väldigt mycket med detta för ett par år sedan, vi hade något form av "världsrekord" på den tiden: Vårt system klarade 5 M HTTP-trasaktioner per Xeon E5 2690 kärna med i teorin perfekt skalning per CPU-kärna (vilket inte är allt för ovanligt på servers). Vi lånande in den värsta testutrustning som gick att köpa, den kostade ett gäng hundratusentals dollar men tyvärr maxade den vid 10 M HTTP-transaktioner per sekund, fanns ju 14 kärnor till att slänga på... Ett sådant resultat var en ren effekt av att helt utnyttja precis alla funktioner i Intels NIC, det hade inte varit möjligt med något annat då existerande NIC (i alla fall inget jag känner till, idag finns andra som skulle klarar det).
För att sätta det i relation, Microsoft var förra året lyriska över att nå 1,15 M HTTP-transaktioner med .NET! Vad MS gjort är ändå rejält imponerande, vi hade något som var rätt specifik, skrivit helt i C/C++ och i princip satte hela OS:et på läktaren.
Poängen med vårt proof-of-concept var främst: visa att man kan bygga utrustning för back-bone med standard PC-komponenter + Linux, det var ett par år sedan idag gör man precis det (bygger back-bone med standard Xeons som kör Linux). Microsoft har ju lyckats ta standard .NET till en helt ny nivå, så är absolut imponerande i den kontexten (även om deras jämförelsesiffror mot NodeJS är b-ll sh-t).
Så här får får man acceptera: pratar man om ~99 % av användarbasen så är både 8 kärnor och Intel NIC totalt egalt. Men givet vilket forum vi befinner oss i gissar jag att vi diskuterar datorer ungefär som bilentusiaster diskuterar supersportbilar, d.v.s. vi diskuterar ungefär som alla behöver det absolut värsta och om vi inte har den utgångspunkten blir det hela diskussion rätt beige då vilken CPU, vilket NIC, etc som helst är fullt tillräckligt.
Jag var mer imponerad över faktumet att det matchade Intel's 219v i bandbredd/CPU användning men erbjöd markant lägre latenser. Detta tillsammans med fungerande applikationsprioritet är något stort enligt mig där jag och alla jag är bekant med får problem när man ska tanka samtidigt som man kör ett spel. Jag hade mer än gärna kört ett Killer NIC i en skrivbords PC där det spelas. Latens är fruktansvärt viktigt för upplevelsen. Om det blir någon större latensskillnad mot en spelserver via UDP vet jag inte, men testet var ganska tydligt och en stor fördel till Killer NIC.