Permalänk
Medlem
Skrivet av Gambit_2K:

Kolla din överklockning. Är den inte stabil nog för Geek6 så händer precis detta.

Funkar om jag sätter den till kompatibilitet Windows Vista (har Win 11 Pro), samt kan köra alla tester i adminläge i com prompten

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem

5900X PBO + CO Låst till 126 watt TDP

Single-core: 2267

Multi-core: 13579

Rätt nöjd med min 5900X

https://browser.geekbench.com/v6/cpu/132161

Visa signatur

[FD R5]--- [B550-E Strix] ---[Ryzen 5900X]--- [Noctua NH-U14S]---[RTX 3080 TUF OC]---[Corsair RM850X V2]---[WD SN850x 1TB]---[TridentZ 2x8gb 3800mhz CL16]---[Predator XB271HU]---[HyperX Cloud Alpha]---[Steelseries Rival]---[Logitech G710 ]----> Win10

Permalänk

AMD Ryzen 7 5800H
Single-Core
1807
Multi-Core
8880

Samsung S23 Ultra
Single-Core
1946
Multi-Core
5100

Ipad Mini 6
Single-Core
2121
Multi-Core
5329

Permalänk
Medlem

Duger i krig! 12900KF

https://browser.geekbench.com/v6/cpu/134860

Permalänk
Medlem
Skrivet av Satariel:

Jag tolkade ditt inlägg (möjligtvis felaktigt) som att det finns en begränsning i min setup men så är inte fallet då som vi vet 3600MHz är optimalt för Zen 3. Fler kärnor ska ge bättre resultat annars så blir testet värdelöst, då testar multi-core delen minnesbandbredd och inte faktiska kärnor vilket blir totalt missvisande.

Din setup har ju en begränsning - minnesbandbredden är ju inte oändlig - men det är inte mycket man kan göra åt det. Beroende på begränsningar i hur högt man kan klocka IF så går det inte att få ut mycket mer prestanda ur Ryzen 5000-serien.

Om det nu är så att det flertrådade testet i GB6 begränsas helt av minnesbandbredd så är det inte direkt fel. Det är kanske inte representativt för något du gör, men det är inte alldeles orimligt heller. Nästa generation ökar ju minnesbandbredden markant (DDR5-6000MHz funkar bra) utan att öka antalet kärnor, så någonstans är Ryzen 5000-plattformen en punkt i utvecklingen där det gränssnittet är mest av en begränsning.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Din setup har ju en begränsning - minnesbandbredden är ju inte oändlig - men det är inte mycket man kan göra åt det. Beroende på begränsningar i hur högt man kan klocka IF så går det inte att få ut mycket mer prestanda ur Ryzen 5000-serien.

Om det nu är så att det flertrådade testet i GB6 begränsas helt av minnesbandbredd så är det inte direkt fel. Det är kanske inte representativt för något du gör, men det är inte alldeles orimligt heller. Nästa generation ökar ju minnesbandbredden markant (DDR5-6000MHz funkar bra) utan att öka antalet kärnor, så någonstans är Ryzen 5000-plattformen en punkt i utvecklingen där det gränssnittet är mest av en begränsning.

Absolut men om en 5900X och 5950X kör identisk setup när det gäller minnen då borde den senare ligga högre i multi-core testet, det gör den i typ alla andra benchmarkprogram och i faktiska reella flertrådade laster. Vad är annars poängen med ett benchmark program om det inte har någon som helst koppling till verkligheten? Då kan vi lika gärna börja benchmarka modellnummer om det ska vara så.

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem

Single-Core Score
2101
Multi-Core Score
8443

5600X stock.

https://browser.geekbench.com/v6/cpu/147456

Visa signatur

Shadows never sleep...
Specs: Ryzen 5600X, Powercolor Fighter RX 6700XT, ASUS B550-I ITX, 32GB 3600MHz DDR4, Bitfenix Phenom µ-ATX

Permalänk
Medlem
Skrivet av Satariel:

Absolut men om en 5900X och 5950X kör identisk setup när det gäller minnen då borde den senare ligga högre i multi-core testet, det gör den i typ alla andra benchmarkprogram och i faktiska reella flertrådade laster. Vad är annars poängen med ett benchmark program om det inte har någon som helst koppling till verkligheten? Då kan vi lika gärna börja benchmarka modellnummer om det ska vara så.

När man konstruerar ett benchmark-program så måste målet vara att man efterliknar något man verkligen gör på den datorn, inte att en viss dator skall se bra eller dålig ut. Det är inte i sig speciellt svårt att göra ett program som flaskar stenhårt på gränssnittet mot minnet - läs saker slumpmässigt ur minnet och gör en mycket lätt heltalsoperation på dem innan de skrivs tillbaka. Frågan är väl mer om det är ett rimligt resultat. I det här fallet så känns det väl konstigt om det inte är NÅGON skillnad mellan 5900X och 5950X, även om jag iofs inte blir förvånad om skillnaden inte blir så stor som 33%.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

När man konstruerar ett benchmark-program så måste målet vara att man efterliknar något man verkligen gör på den datorn, inte att en viss dator skall se bra eller dålig ut. Det är inte i sig speciellt svårt att göra ett program som flaskar stenhårt på gränssnittet mot minnet - läs saker slumpmässigt ur minnet och gör en mycket lätt heltalsoperation på dem innan de skrivs tillbaka. Frågan är väl mer om det är ett rimligt resultat. I det här fallet så känns det väl konstigt om det inte är NÅGON skillnad mellan 5900X och 5950X, även om jag iofs inte blir förvånad om skillnaden inte blir så stor som 33%.

Fast det är precis det som är min fråga varför verkar det inte skilja något i multi-core testet mellan 5900X och 5950X när det brukar göra det i andra test?

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem

Min Ryzen 3600:

Single: 1646
Multi: 7737

https://browser.geekbench.com/v6/cpu/130808

Visa signatur

AMD Ryzen 5 3600 | 4x8GiB 18-20-16-36-52-2T DDR4-3400 | MSI B450-A Pro Max AGESA 1.2.0.7 | Sapphire RX 480 Nitro+ OC 8GiB | Crucial MX500 500GB | PNY CS900 2TB | Samsung 850 EVO 500GB | Samsung PM961 512GB | Scythe Kamariki 4 450W

Permalänk
Medlem
Skrivet av Satariel:

Fast det är precis det som är min fråga varför verkar det inte skilja något i multi-core testet mellan 5900X och 5950X när det brukar göra det i andra test?

Det är en rimlig fråga hur testet ser ut (och jag vet inte svaret), men din utgångspunkt verkade vara att något måste vara fel med testet. Det är jag inte alls säker på. Det är inte alls orimligt att konstruera ett test så att en 16-kärnig processor alltid flaskar på minnesbandbredd bakom 3600MHz 128bit minnesbuss.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Bazisten:

Xiaomi 12T Pro

<Uppladdad bildlänk>

https://browser.geekbench.com/v6/cpu/86769

Skapa en egen tråd för Android mobiler?

Pixel 7 Pro gav 1451 singel/3716 multi - bytte nyligen från Xiaomi 11 inte för CPU-prestanda men positivt överraskad att Pixeln i GB6 verkar "hyggligt ahead" - eller om 12T är långsammare än 11? (autofokus i kameran ville inte lägre, annars var Mi 11 najs)

https://browser.geekbench.com/v6/cpu/153132

Länk också
Visa signatur

Dell XPS 17 - RTX 2060 - 4k touch - ersätter MSI GS73VR efter tre år
Byggen: Simply Red med 950 Pro - Liten Lian Li

Permalänk
Medlem
Skrivet av mpat:

Det är en rimlig fråga hur testet ser ut (och jag vet inte svaret), men din utgångspunkt verkade vara att något måste vara fel med testet. Det är jag inte alls säker på. Det är inte alls orimligt att konstruera ett test så att en 16-kärnig processor alltid flaskar på minnesbandbredd bakom 3600MHz 128bit minnesbuss.

Fast då finns det i så fall en begränsning i testet som man kanske bör upplysa om tänker jag då. Uppenbarligen så är det något som inte fungerar optimalt med testet det kan vi åtminstone slutleda oss till.

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem
Skrivet av Satariel:

Fast då finns det i så fall en begränsning i testet som man kanske bör upplysa om tänker jag då. Uppenbarligen så är det något som inte fungerar optimalt med testet det kan vi åtminstone slutleda oss till.

Jag tänker snarare som såhär att Geekbench 6 är ett sprillans nytt benchmark, som troligtvis är ämnat att pressa sprillans ny hårdvara, vilket betyder att testet med största sannolikhet är utformat med DDR5 i åtanke. Sen kan det diskuteras om det behövs någon form av "legacy test" eller inte, men i det fallet kan man lika gärna köra Geekbench 5.

Visa signatur

Ryzen 7 7800X3D | MSI MAG B650 Tomahawk WiFi | G.Skill Trident Z5 Neo 2x16GB 6000MHz CL30 | Arctic Liquid Freezer II 360 | Sapphire Nitro+ 7900 XTX | WD Black SN850 2TB + Samsung 860 EVO 2x2TB | Corsair AX1000

Permalänk
Medlem
Skrivet av Satariel:

Fast det är precis det som är min fråga varför verkar det inte skilja något i multi-core testet mellan 5900X och 5950X när det brukar göra det i andra test?

Kanske något tokigt med din setup? Verkar som din CPU inte throttlar alls, utan är låst till 5GHz? (på gott och ont)

Denna 5950X verkar tuffa på bra (satte din som baseline):
https://browser.geekbench.com/v6/cpu/compare/147711?baseline=...

Kan tycka det är lite synd att Geekbench inte specar Windows-version mer. Själv tycker att det kan vara en stor prestandaskillnad mellan exempelvis 1703, 1809 (innan Meltdown/Spectre) och 21H2. Sen kan även val av Power Plan påverka en hel del, vilket i sig är lite missvisande i Geekbench.

Skriv ".gb6" efter resultatet för att få mer detaljerad info:

https://browser.geekbench.com/v6/cpu/87178.gb6 (nära nog konstant 5GHz)
https://browser.geekbench.com/v6/cpu/147711.gb6 (~150Hz långsammare)

Detta är även enda sättet att se den faktiska klockfrekvensen som används vid testet. Siffran som Geekbench annars anger är bara frekvensen som läses från systemet vid uppstart av applikationen.

Permalänk
Medlem
Skrivet av David_87:

Intressant och se prestandan på i5 13600 vs min i7 13700KF
Jag var i valet och kvalet mellan dessa två, men tänkte att dyrare måste ju vara bättre Har ni överklockat?

https://browser.geekbench.com/v6/cpu/155436

Visa signatur

Gigabyte UD AX,
Intel i7 13700KF, Arctic Freezer III 280mm. Corsair Dominator Platinum 32GB,
XTX Radeon RX 7800 XT Speedster MERC 319 Black,
Samsung Odyssey G7 Neo "32
Phanteks XT Pro Ultra chassi. Garuda Linux/Windows 11.

Permalänk
Medlem
Skrivet av Hakinger:

Intressant och se prestandan på i5 13600 vs min i7 13700KF
Jag var i valet och kvalet mellan dessa två, men tänkte att dyrare måste ju vara bättre Har ni överklockat?
<Uppladdad bildlänk>
https://browser.geekbench.com/v6/cpu/155436

Japp, rätt rejält överklockat. Rent spontant tänker jag att din minneshastighet ser ut att ligga på 4800 MHz, har du glömt att slå på XMP-inställningar möjligen? Sedan kan andra program som körs i bakgrunden påverka resultatet.

Permalänk
Medlem
Skrivet av Satariel:

Fast då finns det i så fall en begränsning i testet som man kanske bör upplysa om tänker jag då. Uppenbarligen så är det något som inte fungerar optimalt med testet det kan vi åtminstone slutleda oss till.

Det visar sig att du inte är den ende med den frågan, och skaparen av testet har svarat:

https://support.primatelabs.com/discussions/geekbench/81877-b...

TL;DR: det är helt medvetet. Istället för att, som tidigare, låta de olika trådarna jobba på varsitt dataset (exempelvis varsin bild) jobbar de nu flera trådar på samma dataset. Det gör att kommunikationen mellan kärnorna, till och från cache samt till huvudminnet har större inflytande än tidigare.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Det visar sig att du inte är den ende med den frågan, och skaparen av testet har svarat:

https://support.primatelabs.com/discussions/geekbench/81877-b...

TL;DR: det är helt medvetet. Istället för att, som tidigare, låta de olika trådarna jobba på varsitt dataset (exempelvis varsin bild) jobbar de nu flera trådar på samma dataset. Det gör att kommunikationen mellan kärnorna, till och från cache samt till huvudminnet har större inflytande än tidigare.

Aha, så bra eller kanske inte så bra men intressant.

Edit: https://support.primatelabs.com/discussions/geekbench/81892-g...

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem

i7-13700K

https://browser.geekbench.com/v6/cpu/124957

Visa signatur

I've somehow been WASDing my whole life

13th Intel 8P@6GHz E-cores off Kraken X73 360mm DDR5 m.2@7000MB/sek Gigabyte Z690
Alltid över AMD 3D med överklocking i fakefikans (swefaker) grafer med intel :)

Permalänk
Medlem

Putsade resultatet lite till, 13900KS och 8000C32(-45-45-30-480-2T).

https://browser.geekbench.com/v6/cpu/162293

Visa signatur

GTX 260 SC | GTX 280 SLI | GTX 280 Tri SLi | GTX 590 Quad SLi | GTX 980 ti | RTX 2080 Ti Strix OC | RTX 3090 Strix OC | RTX 4090 Strix OC
The Way It's Meant to be Played|NVIDIA

ASUS MAXIMUS Z790 APEX Encore | i9-14900KS (delidded/direct-die) | 2x24GB G.Skill 8000 M-die | Corsair AX1600i | Samsung 990 PRO 4TB | Corsair 7000D Airflow | 15x Corsair ML Pros (8x ML120 Pro, 7x ML140 Pro) | Rads 360+360+420 | LG C3 48" 120Hz

Permalänk
Medlem

Här kommer uppdateringen från lågbudget träsket:

I5 8400
singel 1310 multi 5206

Ryzen 5500
Singel 1895 multi 8459

Jag hittade inte vart jag redigerar min gamla post och för trött för att leta...
Konstigt, jag kunde redigera detta men inte min gamla post.

Visa signatur

| Ryzen 5500 | RTX3060 | HTC Vive | Steam deck/Gabe gear |

Permalänk
Datavetare
Skrivet av Satariel:

Fast då finns det i så fall en begränsning i testet som man kanske bör upplysa om tänker jag då. Uppenbarligen så är det något som inte fungerar optimalt med testet det kan vi åtminstone slutleda oss till.

Beror på vad man menar med "optimalt".

Så länge CPUer hade 1-2 CPU-kärnor var det betydligt enklare att göra bra benchmarks i bemärkelsen: om man får höga poäng i benchmark:en kommer det systemet prestera bra i majoriteten av all CPU-krävande uppgifter.

Idag när till och med bärbara utrustas med mer än 8 kärnor är det i praktiken stört omöjligt att ge en relevant siffra på prestanda.

Allt för många benchmarks är konstruerade med utgångspunkten att de ska visa "fulla potentialen av varje CPU". En sak man tar till då är relativt små dataset och kör ett delproblem per CPU-kärna. D.v.s. man kör många helt oberoende enkeltrådade uppgifter parallellt.

Det är inte helt galet, finns helt klart sådana uppgifter i "verkligheten". Några exempel är 3D-rendering på CPU, kompilering av "tillräckligt stora" projekt (långt fler filer som ska kompileras än det finns CPU-trådar). En server är ofta av denna typ, man får parallellism genom att hantera flera klienter parallellt, inte genom att hantera varje klient med parallella beräkningar.

På skrivbordet är ovan en nisch. Det normala här är att man har en/två uppgifter man jobbar på och hur "snabb" datorn är avgörs hur snabbt den kan färdigställa den/de uppgifter man aktivt jobbar på.

Även om Amdahls lag gäller även för båda fallet ovan, säger den laget just att man kommer få bra utväxling på många kärnor i det första fallet. I det andra fallet blir det rätt snabbt fallande vinst med att lägga på fler kärnor.

I fall som t.ex. 5950X och 5800X (kanske än mer tydligt mellan 5950X och 5900X) finns det därför "verkliga" fall som kan utnyttja många kärnor, men som går lika snabbt eller till och med snabbare på de modeller med färre kärnor. Anledningen är dessa CPU-modeller drar ned frekvensen och har man inte "perfekt" skalning med CPU-kärnor kan minskning i frekvens ha långt större effekt än vinsten av fler kärnor. 5950X har längre "all-core" frekvens än de andra två.

Ovanpå det finns det synkroniseringseffekter där bandbredden är i praktiken konstant oavsett antalet CPU-kärnor. En sådan är bandbredd mot RAM men finns även interna bussar som alla kärnor delar på. Även det kan leda till att om man har parallella problem som kräver relativt mycket synkronisering mellan kärnor, ökar kostnaden för synkronisering med ökat antal kärnor som deltar. Det gör att man kommer till en punkt där prestanda börja minska om man adderar fler kärnor till problemet.

GB5 och GB6 är därför delvis komplementära. GB5 MT är mer lik t.ex. Cinebench, den testar fallet där man kör ett litet problem per CPU-tråd (många parallella enkeltrådade problem). GB6 är långt mer hur jag själv använder datorn, d.v.s. de fall där CPU-kraft tenderar vara flaskhals är fortfarande enstaka problem fast med viss potential att skala över kärnor (samt relativt mycket data). D.v.s. man använder många CPU-trådar på ett problem (ett problem som löses med parallella beräkningar).

Spel är mer åt vad GB6 nu gör, där har man ett problem och om det är CPU-bundet måste det enda problemet skalas över tillgängliga kärnor och dessa kärnor måste samsas om RAM/cache-bandbredd etc. Men spelbenchmarks är långt bättre för detta, inget av deltesterna i GB5/GB6 är någon direkt bra match mot beräkningarna ett spel har som flaskhals.

Man måste förstå sina egna flaskhalsar för att idag förstå om en benchmark har någon relevans.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Satariel:

Absolut men om en 5900X och 5950X kör identisk setup när det gäller minnen då borde den senare ligga högre i multi-core testet, det gör den i typ alla andra benchmarkprogram och i faktiska reella flertrådade laster. Vad är annars poängen med ett benchmark program om det inte har någon som helst koppling till verkligheten? Då kan vi lika gärna börja benchmarka modellnummer om det ska vara så.

Sample size = 1

Permalänk
Skrivet av walkir:

...

Kan tycka det är lite synd att Geekbench inte specar Windows-version mer. Själv tycker att det kan vara en stor prestandaskillnad mellan exempelvis 1703, 1809 (innan Meltdown/Spectre) och 21H2. Sen kan även val av Power Plan påverka en hel del, vilket i sig är lite missvisande i Geekbench.

...

Förklara gärna vidare.. patchandet av Meltdown/Spectre i senare Windows 10 editions sänkte prestandan markant?
Om man är übergeekicus - vilken version klämmer ut flest poäng?

Permalänk
Medlem
Skrivet av Raprodent:

Förklara gärna vidare.. patchandet av Meltdown/Spectre i senare Windows 10 editions sänkte prestandan markant?
Om man är übergeekicus - vilken version klämmer ut flest poäng?

Det beror helt på vad du sitter med för någon CPU idag. Då jag själv sitter med en gammal i7-8565U, som var relativt hårt drabbad.

Lättast är att köra InSpectre och se vad det programmet rapporterar:
https://www.grc.com/inspectre.htm

Så här ser det ut på min dator just nu:

Kan köra ett test i Geekbench med patcharna aktiverade för att visa skillnaden.

Skulle väl säga att alla aktuella versioner av Windows 10 bortsett från LTSC numera är patchade. Var InSpectre numera fungerar måste man nog mer eller mindre testa sig fram till, då även Windows 10 Version 1903 och 1909 var drabbade i början.

Permalänk
Medlem
Skrivet av Yoshman:

Beror på vad man menar med "optimalt".

Så länge CPUer hade 1-2 CPU-kärnor var det betydligt enklare att göra bra benchmarks i bemärkelsen: om man får höga poäng i benchmark:en kommer det systemet prestera bra i majoriteten av all CPU-krävande uppgifter.

Idag när till och med bärbara utrustas med mer än 8 kärnor är det i praktiken stört omöjligt att ge en relevant siffra på prestanda.

Allt för många benchmarks är konstruerade med utgångspunkten att de ska visa "fulla potentialen av varje CPU". En sak man tar till då är relativt små dataset och kör ett delproblem per CPU-kärna. D.v.s. man kör många helt oberoende enkeltrådade uppgifter parallellt.

Det är inte helt galet, finns helt klart sådana uppgifter i "verkligheten". Några exempel är 3D-rendering på CPU, kompilering av "tillräckligt stora" projekt (långt fler filer som ska kompileras än det finns CPU-trådar). En server är ofta av denna typ, man får parallellism genom att hantera flera klienter parallellt, inte genom att hantera varje klient med parallella beräkningar.

På skrivbordet är ovan en nisch. Det normala här är att man har en/två uppgifter man jobbar på och hur "snabb" datorn är avgörs hur snabbt den kan färdigställa den/de uppgifter man aktivt jobbar på.

Även om Amdahls lag gäller även för båda fallet ovan, säger den laget just att man kommer få bra utväxling på många kärnor i det första fallet. I det andra fallet blir det rätt snabbt fallande vinst med att lägga på fler kärnor.

I fall som t.ex. 5950X och 5800X (kanske än mer tydligt mellan 5950X och 5900X) finns det därför "verkliga" fall som kan utnyttja många kärnor, men som går lika snabbt eller till och med snabbare på de modeller med färre kärnor. Anledningen är dessa CPU-modeller drar ned frekvensen och har man inte "perfekt" skalning med CPU-kärnor kan minskning i frekvens ha långt större effekt än vinsten av fler kärnor. 5950X har längre "all-core" frekvens än de andra två.

Ovanpå det finns det synkroniseringseffekter där bandbredden är i praktiken konstant oavsett antalet CPU-kärnor. En sådan är bandbredd mot RAM men finns även interna bussar som alla kärnor delar på. Även det kan leda till att om man har parallella problem som kräver relativt mycket synkronisering mellan kärnor, ökar kostnaden för synkronisering med ökat antal kärnor som deltar. Det gör att man kommer till en punkt där prestanda börja minska om man adderar fler kärnor till problemet.

GB5 och GB6 är därför delvis komplementära. GB5 MT är mer lik t.ex. Cinebench, den testar fallet där man kör ett litet problem per CPU-tråd (många parallella enkeltrådade problem). GB6 är långt mer hur jag själv använder datorn, d.v.s. de fall där CPU-kraft tenderar vara flaskhals är fortfarande enstaka problem fast med viss potential att skala över kärnor (samt relativt mycket data). D.v.s. man använder många CPU-trådar på ett problem (ett problem som löses med parallella beräkningar).

Spel är mer åt vad GB6 nu gör, där har man ett problem och om det är CPU-bundet måste det enda problemet skalas över tillgängliga kärnor och dessa kärnor måste samsas om RAM/cache-bandbredd etc. Men spelbenchmarks är långt bättre för detta, inget av deltesterna i GB5/GB6 är någon direkt bra match mot beräkningarna ett spel har som flaskhals.

Man måste förstå sina egna flaskhalsar för att idag förstå om en benchmark har någon relevans.

Det var verkligen ett uttömmande och informativt svar som belyser komplexiteten i frågan.

Skrivet av EntropyQ3:

Sample size = 1

Det är fler än jag som har fått detta resultat vilket rapporterats här i tråden samt i Geekbench egna forum (se här till exempel). Detta beteende hos ett benchmarkprogram är för övrigt något som vi inte riktigt sett tidigare vilket påkallar diskussion vilket Yoshman så utmärkt belyst i sitt inlägg.

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Datavetare
Skrivet av Satariel:

Det är fler än jag som har fått detta resultat vilket rapporterats här i tråden samt i Geekbench egna forum (se här till exempel). Detta beteende hos ett benchmarkprogram är för övrigt något som vi inte riktigt sett tidigare vilket påkallar diskussion vilket Yoshman så utmärkt belyst i sitt inlägg.

Egentligen har vi sett detta massor med gånger tidigare. Ta spel och applikationer som bildhandling, en hel del tunga beräkningar (men här finns allt från saker som knappt skalar alls med kärnor till det som skalar nära nog perfekt).

Dock sant att väldigt få syntetiska benchmarks uppvisat detta beteende tidigare. Geekbench är knappast perfekt, men det som gör denna bechmark högst relevant är att de inte satt ihop någon egen liten microbenchmark (som typ CPU-Z, PassMark m.fl.) utan de använder "riktiga" applikationer och bibliotek.

Det som ändå gör GB lite skevt, det i allt ökande grad p.g.a. saker maskininlärning, är att man stänger av vissa standardfunktioner för att det ska bli en "ren" CPU-benchmark. I "verkligheten" kommer vissa av dessa fall prestera helt annorlunda än vad man får i GB då det blir allt vanligare med GPGPU acceleration samt NPU (acceleration specifikt av visa typer av maskininlärning).

Men GB6 ger nog ändå en långt mer verklighetsförankrad bild för majoriten än vad t.ex. Cinebench ger. Är inget problem alls att skapa en CPU som skulle få brutalt höga poäng i CB, men ändå vara rätt dålig i spel, webb-surf, office, etc.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Egentligen har vi sett detta massor med gånger tidigare. Ta spel och applikationer som bildhandling, en hel del tunga beräkningar (men här finns allt från saker som knappt skalar alls med kärnor till det som skalar nära nog perfekt).

Dock sant att väldigt få syntetiska benchmarks uppvisat detta beteende tidigare. Geekbench är knappast perfekt, men det som gör denna bechmark högst relevant är att de inte satt ihop någon egen liten microbenchmark (som typ CPU-Z, PassMark m.fl.) utan de använder "riktiga" applikationer och bibliotek.

Det som ändå gör GB lite skevt, det i allt ökande grad p.g.a. saker maskininlärning, är att man stänger av vissa standardfunktioner för att det ska bli en "ren" CPU-benchmark. I "verkligheten" kommer vissa av dessa fall prestera helt annorlunda än vad man får i GB då det blir allt vanligare med GPGPU acceleration samt NPU (acceleration specifikt av visa typer av maskininlärning).

Men GB6 ger nog ändå en långt mer verklighetsförankrad bild för majoriten än vad t.ex. Cinebench ger. Är inget problem alls att skapa en CPU som skulle få brutalt höga poäng i CB, men ändå vara rätt dålig i spel, webb-surf, office, etc.

Jag menade syntetiska benchmarks och nej CPU-Z, PassMark och Cinebench är nog inga bra mått på verklig prestanda alls egentligen, för övrigt ytterligare ett bra inlägg.

Edit: relevant inlägg i frågan https://support.primatelabs.com/discussions/geekbench/81947-l...

Visa signatur

[Gigabyte X570 Aorus Xtreme rev. 1.0][5950X][G.Skill 32GB (2x16GB) DDR4 3600MHz CL16 Trident Z Neo 16-16-16-36][ASUS GeForce RTX 3090 ROG Strix OC][Samsung 990 PRO M.2 NVMe SSD 2TB, Seagate FireCuda Gaming Hub 16TB][Noctua NH-D15 chromax.black][Corsair AX1600i][Xigmatek Elysium][Samsung S27B970D]

Permalänk
Medlem

Nytt rekord för min i7-8565U

https://browser.geekbench.com/v6/cpu/179310

Gjorde jag även ett test med Spectre/Meltdown fixarna aktiverade:

https://browser.geekbench.com/v6/cpu/compare/179310?baseline=...

Kanske inte ser ut om någon jätteskillnad på resultatet, men granskar man det hela närmare så verkar CPU:n strypas (arbeta hårdare?) av Spectre/Meltdown fixarna.

Jämn boost på uppåt ~4,6 GHz utan fix:
https://browser.geekbench.com/v6/cpu/179310.gb6

Ojämn boost mellan 3,7GHz - 4,6 GHz med snitt på 4.2 GHz med fix:
https://browser.geekbench.com/v6/cpu/174851.gb6

Försökte även testa GPU-prestanda med Spectre/Meltdown fixarna, men då hängde sig datorn. Kör ganska aggressiv undervoltning av CPU/GPU vilket inte verkar gillas av Intel.

Så i praktiken borde resultatet med Spectre/Meltdown bli ännu sämre, då datorn inte kan undervoltas lika mycket med det påslaget. Vilket i sin tur betyder ännu sämre och ojämnare boost.