Cinebench 2024 lanserat – testar återigen grafikprestanda

Permalänk
Melding Plague

Cinebench 2024 lanserat – testar återigen grafikprestanda

Maxon har släppt en ny version av benchmarktestet Cinebench, och för första gången sedan version 15 kan det testa grafikkort och inte bara processor.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Körde ett test igår kväll:

Kul med nya/uppdaterade benchmarks!

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem

Kul att se ARM på toppen!

Permalänk
Medlem
Skrivet av medbor:

Kul att se ARM på toppen!

Nä, Intel tar toppen:

Från: https://www.techpowerup.com/forums/threads/post-your-cinebenc...

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av medbor:

Kul att se ARM på toppen!

Naje, samtliga i referensen är ju inte current gen. Förutom 4090 konstigt nog.

Permalänk
Medlem
Skrivet av varget:

Naje, samtliga i referensen är ju inte current gen. Förutom 4090 konstigt nog.

Vilka CPU:er som Cinebench väljer ut i den där lista som jämförelse har alltid varit jävligt knepiga grejer. Typ asgamla serverchip och grejer... valen får en att tänka på South Park och den huvudlösa kaninen (edit: hönan var det jag tänkte på. Mina fingrar och mitt huvud är inte alltid i samma krets... lite som på den hönan!) som avgör, är det riksbankens strategi eller US ekonomiska politik? Någonting sånt iaf.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av heatm:

Vilka CPU:er som Cinebench väljer ut i den där lista som jämförelse har alltid varit jävligt knepiga grejer. Typ asgamla serverchip och grejer... valen får en att tänka på South Park och den huvudlösa kaninen som avgör, är det riksbankens strategi eller US ekonomiska politik? Någonting sånt iaf.

Det är en feel-good-applikation kanske. Det skall se ut som den som testar alltid ligger på topp.

Permalänk
Medlem
Skrivet av heatm:

Vilka CPU:er som Cinebench väljer ut i den där lista som jämförelse har alltid varit jävligt knepiga grejer. Typ asgamla serverchip och grejer... valen får en att tänka på South Park och den huvudlösa kaninen som avgör, är det riksbankens strategi eller US ekonomiska politik? Någonting sånt iaf.

Apples M1 grejer är ju inte tokgamla och intressant att kunna jämföra med. Men håller i övrigt med. Grejer som går att hitta undanstuvade i något övergivet lager typ.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av Lussarn:

Det är en feel-good-applikation kanske. Det skall se ut som den som testar alltid ligger på topp.

Eller det de på Maxon faktiskt sitter på själva, tanken har slagit mig.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av anders190:

Apples M1 grejer är ju inte tokgamla och intressant att kunna jämföra med. Men håller i övrigt med. Grejer som går att hitta undanstuvade i något övergivet lager typ.

Nä, att se hur Apples chip presterar i exemplet ovan var ju en av få gånger något vettigt visades som referens. Även om jag skiter fullständigt i det som PC-användare. Hade ju varit vettigare att visa någon produkt ur senaste konsumentgrejerna ifrån AMD och Intel... plus Apples chip då om nu man skulle vilja kasta alla programvaror i sopkorgen och börja om på nytt.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem

Verkar funkar. Jag fick någon slags poäng i varje fall.

Permalänk
Datavetare
Skrivet av heatm:

Nä, att se hur Apples chip presterar i exemplet ovan var ju en av få gånger något vettigt visades som referens. Även om jag skiter fullständigt i det som PC-användare. Hade ju varit vettigare att visa någon produkt ur senaste konsumentgrejerna ifrån AMD och Intel... plus Apples chip då om nu man skulle vilja kasta alla programvaror i sopkorgen och börja om på nytt.

Fast visar inte CB24 en rätt specifik sak rätt tydligt: vilken prestanda man får i just detta arbetsmoment på CPU-delen är i allt större grad helt irrelevant. iGPUn på en M1 MBA är faktiskt marginellt snabbare jämfört med TR2990WX.

Man kan diskuterar att denna jämförelse ställer produkter från 2020 resp. 2018 mot varandra (men ändå, en fläktlös ultratunn mot en 2 år äldre workstation...), men det är i sammanhanget detaljer. Den viktiga saken är: GPUer har presterat på en helt annan nivå länge kring just detta, enda egentliga invändningen har varit att det finns scener som inte får plats i VRAM.

Dels har GPUerna utvecklas allt mer. I nvidias fall kan flera av deras workstation-kort kopplas ihop så de kan använda varandras VRAM, dels så har GPUerna blivit allt mer avancerade och kan sedan ett par generationer använda CPU RAM och använda VRAM mer som en väldigt stor cache. D.v.s de kan hantera de flesta scener, även de riktigt komplexa.

Skulle inte det räcka finns just designer som Apples, men även AMD/Intels iGPUer. Skulle vara väldigt kul att se just AMD/Intels bästa iGPUer i detta test, om/när även de kliver förbi de senaste CPU-modellerna kan man nog konstatera att just 3D-rendering är ett totalt irrelevant benchmark för CPUer (lika relevant som software 3D-rendering pipeline för spel är idag).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Dels har GPUerna utvecklas allt mer. I nvidias fall kan flera av deras workstation-kort kopplas ihop så de kan använda varandras VRAM, dels så har GPUerna blivit allt mer avancerade och kan sedan ett par generationer använda CPU RAM och använda VRAM mer som en väldigt stor cache. D.v.s de kan hantera de flesta scener, även de riktigt komplexa.

Vet inte om arbetskorten gör något annorlunda jämfört med konsumentkorten, men det är tyvärr dåligt stöd för "out of core" bland renderingsmotorer. Finns det så funkar det dåligt - långsamt eller så crashar det (vilket är det vanligaste).

Permalänk
Medlem
Skrivet av heatm:

Nä, att se hur Apples chip presterar i exemplet ovan var ju en av få gånger något vettigt visades som referens. Även om jag skiter fullständigt i det som PC-användare. Hade ju varit vettigare att visa någon produkt ur senaste konsumentgrejerna ifrån AMD och Intel... plus Apples chip då om nu man skulle vilja kasta alla programvaror i sopkorgen och börja om på nytt.

Håller med. Så länge man dels tappar kompatibilitet men också funktionalitet så hade det nog inte spelat någon roll hur hög prestandan Apples kretsar erbjuder.

Hade varit kul med en billig MacBook air för enklare surf med batteritiden de erbjuder. Min XPS 13 har ingen rolig batteritid, max 4 timmar troligen.

Skrivet av DasIch:

Verkar funkar. Jag fick någon slags poäng i varje fall.<Uppladdad bildlänk>

Du borde nog slå M1orna även i singeltestet men tidsåtgången för att köra den är inte nödvändigtvis motiverbar.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av anders190:

Du borde nog slå M1orna även i singeltestet men tidsåtgången för att köra den är inte nödvändigtvis motiverbar.

Nä, orkar inte sitta och köra igenom det testet.

Permalänk
Datavetare
Skrivet av DasIch:

Vet inte om arbetskorten gör något annorlunda jämfört med konsumentkorten, men det är tyvärr dåligt stöd för "out of core" bland renderingsmotorer. Finns det så funkar det dåligt - långsamt eller så crashar det (vilket är det vanligaste).

Den tekniska skillnaden som finns är att workstation-korten kan kopplas ihop via NVLink och alla fall de senare generationerna gör det möjligt att via den kanalen använda VRAM från andra kort. Vet inte om det är möjligt på de konsument-kort som fortfarande har NVLink (går ju att låsa på en rad punkter om Nvidia vill...).

Vad det gäller att använda CPU RAM, sett andra nämna samma problem och även när det fungerar har GPUer som sitter på PCIe-bussen ett problem med i sammanhanget låg bandbredd, men framförallt är latens rejäl.

Just latens:en är något som helt elimineras med iGPUer. Har bara erfarenhet av detta ihop med ML, men där blir resultatet att långt fler fall (typiskt långt mindre modeller) blir praktiskt användbara på iGPU än vad som är fallet med dGPU (den senare är bara vettig när man har "tillräckligt stor och komplex modell"). Tids-overhead:en att köra med dGPU är långt ifrån försumbar och den blir den dominerande faktorn på mindre/mellanstora problem.

iGPU-lösningar har sedan fördel i andra änden av spektrat också, när saker blir så stora att de inte får plats i VRAM fungerar det fortfarande att köra på iGPU då dessa använder "vanligt" RAM. Om/när det även fungerar på AMD/Intel iGPUer borde också de slå i princip alla CPU-lösning. Visst de är inga 4090 utmanare, men ett 4090 presterar på en annan planet jämfört med CPUer och redan iGPUer matchar väldigt snabba CPU-lösningar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Jag får 16000 poäng med ett stock AMD RX 7900 XTX. Så typ hälften av ett 4090 :D.

Men HIP är inte HIP-RT, och då antar jag att det skulle bli betydligt bättre...men detta är absolut inte mitt kunskapsområde.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av Yoshman:

Fast visar inte CB24 en rätt specifik sak rätt tydligt: vilken prestanda man får i just detta arbetsmoment på CPU-delen är i allt större grad helt irrelevant. iGPUn på en M1 MBA är faktiskt marginellt snabbare jämfört med TR2990WX.

Man kan diskuterar att denna jämförelse ställer produkter från 2020 resp. 2018 mot varandra (men ändå, en fläktlös ultratunn mot en 2 år äldre workstation...), men det är i sammanhanget detaljer. Den viktiga saken är: GPUer har presterat på en helt annan nivå länge kring just detta, enda egentliga invändningen har varit att det finns scener som inte får plats i VRAM.

Dels har GPUerna utvecklas allt mer. I nvidias fall kan flera av deras workstation-kort kopplas ihop så de kan använda varandras VRAM, dels så har GPUerna blivit allt mer avancerade och kan sedan ett par generationer använda CPU RAM och använda VRAM mer som en väldigt stor cache. D.v.s de kan hantera de flesta scener, även de riktigt komplexa.

Skulle inte det räcka finns just designer som Apples, men även AMD/Intels iGPUer. Skulle vara väldigt kul att se just AMD/Intels bästa iGPUer i detta test, om/när även de kliver förbi de senaste CPU-modellerna kan man nog konstatera att just 3D-rendering är ett totalt irrelevant benchmark för CPUer (lika relevant som software 3D-rendering pipeline för spel är idag).

Håller med till 100%.

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av superapan:

Jag får 16000 poäng med ett stock AMD RX 7900 XTX. Så typ hälften av ett 4090 :D.

Men HIP är inte HIP-RT, och då antar jag att det skulle bli betydligt bättre...men detta är absolut inte mitt kunskapsområde.

13591 med mitt (stock) 7900 XT.

113 p respektive 1078 p för min Ryzen 7700X.

Dags att fila lite på spänning mm så man kommer över 14k p och 1100 p

Permalänk
Medlem

Är det jag som har missat något eller har grafikkortet bara inte stöd?

Multi: 644
Snigel: 95

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk

1 990 multi, 121 single på en 7950X3D och 10 198 med RTX 3070. Allt med det vanliga igång (webläsare, mail, plexamp, XLS) och en uptime sedan 26/8 om det nu gör någon skillnad

Permalänk
Medlem
Skrivet av 123Clock-tick:

1 990 multi, 121 single på en 7950X3D och 10 198 med RTX 3070. Allt med det vanliga igång (webläsare, mail, plexamp, XLS) och en uptime sedan 26/8 om det nu gör någon skillnad

Finns ett resultat på techpowerup med just en 7950X3D som ger 131 Single/ 2302 Multi om du vill ha något snarlikt att optimera efter. Nästan längst ner på första sidan i länken postad en bit upp. Användare Det0x.

Finns en del riktigt intressanta AMD resultat med på CPU sidan. Har hittat ett liknande system som mitt som ger betydligt bättre så kommer kanske lägga ner lite tid själv.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av anders190:

Körde ett test igår kväll:

https://i.imgur.com/D6npInQ.png

Kul med nya/uppdaterade benchmarks!

Körde på jobbdatorns 2080 Ti och fick ut 9000 poäng. Så jäääklar alltså 4090

Visa signatur

i7-2700K 5 GHz | 16 GB DDR3-1600 | ASUS Maximus V Gene Z77 | GTX 980
i7-4790K 4.8 GHz | 32 GB DDR3-2133 | ASUS Maximus VII Gene Z97 | GTX 980

Permalänk
Visa signatur

Bärbar:Lenovo Legion Pro 7i 16 - Intel Core i9-14900HX - RTX 4080 12GB GDDR6 - 32 GB DDR5-5600MHz - 2x4TB M.2 SSD | LG UltraGear 38GN950 | Acer Predator XB271HU | Klipsch Reference R-51PM | Hifiman Sundara Stealth Revision | Shure MV7 | Glorious GMMK Pro | Logitech Pro X Superlight | Platta: Ipad 9th Gen | Nätverk: Unifi Dream Router

Twitch: https://www.twitch.tv/revolt_III

Permalänk
Medlem

Man märker helt klart av ökningen i mängden minne som används jämfört med tidigare versioner, får se om minnesbandbredd spelar en större roll i detta test jämfört med tidigare versioner där hela testet i princip kan läggas i L3-cache på en modern processor.

Visa signatur

Ryzen 7 7800X3D | MSI MAG B650 Tomahawk WiFi | G.Skill Trident Z5 Neo 2x16GB 6000MHz CL30 | Arctic Liquid Freezer II 360 | Sapphire Nitro+ 7900 XTX | WD Black SN850 2TB + Samsung 860 EVO 2x2TB | Corsair AX1000

Permalänk
Medlem
Skrivet av superapan:

Jag får 16000 poäng med ett stock AMD RX 7900 XTX. Så typ hälften av ett 4090 :D.

Men HIP är inte HIP-RT, och då antar jag att det skulle bli betydligt bättre...men detta är absolut inte mitt kunskapsområde.

Skrivet av doomas:

13591 med mitt (stock) 7900 XT.

113 p respektive 1078 p för min Ryzen 7700X.

Dags att fila lite på spänning mm så man kommer över 14k p och 1100 p

20k med 4070ti, sjukt hur dåligt amd är på att rendera kontra dess raster.
12600k fick jag 107p och 987 Multi

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Min jobb laptop..

https://imgur.com/a/2sVSWS3

Visa signatur

De du

Permalänk
Medlem
Skrivet av Teddis:

Körde på jobbdatorns 2080 Ti och fick ut 9000 poäng. Så jäääklar alltså 4090

Försökte med min Dell Precision 5560 men Intel-grafiken blockerar mitt RTX A2000. Förväntar mig inte mycket av den. CPUn är en i sammanhanget klen i7 11850H typ 600 poäng i multi läget. Snabb nog för Solidworks iallafall.

Visa signatur

Huvuddator: 7800X3D, 2x16GB G.Skill Flare X5 6000MHz CL30, Asus B650E-F, KFA2 RTX 4090 SG, 6TB NVMe/SATA SSD, 42" LG OLED C3 Evo

Never fade away...

Folda för Sweclockers! https://www.sweclockers.com/forum/trad/1348460-faq-kom-igang-...

Permalänk
Medlem
Skrivet av Swedishchef_90:

20k med 4070ti, sjukt hur dåligt amd är på att rendera kontra dess raster.
12600k fick jag 107p och 987 Multi

There are two versions of HIP – standard HIP and the newer HIP-RT. Both NVIDIA and AMD’s latest GPUs have hardware-accelerated ray tracing cores. However, standard HIP does not utilize these ray tracing cores just as CUDA does not. HIP-RT will enable these ray tracing cores to help with rendering, just as NVIDIA’s RTX GPUs currently do.
https://irendering.net/should-we-choose-nvidia-or-amd-gpu-for...

HIP RT was just made available with the public 3.6 beta version of Blender. Early tests indicate that Blender 3.6 with HIP RT performs up to 27% faster on the Radeon™ RX 7900XTX GPU compared to Blender 3.5.1 with HIP running on the same hardware1.
https://community.amd.com/t5/gaming/amd-radeon-graphics-cards...

Skulle man få 27 % snabbare med HIP-RT istället för HIP, hamnar ett 7900 XTX också på 20k, som nu verkar kosta samma som ett 4070ti.

Visa signatur

Intel i9-12900K | Asus STRIX Z690-I | 32 GB DDR5-6400 CL30 | AMD Radeon RX 7900 XTX | WD Black SN850 1 TB
Asus ROG Loki SFX-L 750W | SSUPD Meshlicious | Arctic Cooling Freezer II 280 | Alienware AW3423DWF

Permalänk
Medlem
Skrivet av superapan:

There are two versions of HIP – standard HIP and the newer HIP-RT. Both NVIDIA and AMD’s latest GPUs have hardware-accelerated ray tracing cores. However, standard HIP does not utilize these ray tracing cores just as CUDA does not. HIP-RT will enable these ray tracing cores to help with rendering, just as NVIDIA’s RTX GPUs currently do.
https://irendering.net/should-we-choose-nvidia-or-amd-gpu-for...

HIP RT was just made available with the public 3.6 beta version of Blender. Early tests indicate that Blender 3.6 with HIP RT performs up to 27% faster on the Radeon™ RX 7900XTX GPU compared to Blender 3.5.1 with HIP running on the same hardware1.
https://community.amd.com/t5/gaming/amd-radeon-graphics-cards...

Skulle man få 27 % snabbare med HIP-RT istället för HIP, hamnar ett 7900 XTX också på 20k, som nu verkar kosta samma som ett 4070ti.

Sant men upto brukar betyda lite sämre än så, för ett kort som har kostat ~14-16k. Att amd droppat priset är ju för att dem inte säljer något 😊

Sen kör jag mitt 4070ti i 70% PL och undervoltat. Jag skall köra i full stock senare om du vill

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25