AMD lanserar Threadripper 9000-serien

Permalänk
Melding Plague

AMD lanserar Threadripper 9000-serien

Upp till 96 kärnor och 192 trådar, med 128 PCI-Express 5.0-banor.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Undrar om vi kommer se liknande prisökning som för Epyc (gäller väl också Ryzen iof), varje generation av Epyc har ökat priset för modeller med samma kärn/trådantal. Samtidigt så har inflation drivit på priset på hela server/workstation-utbudet. Det har blivit så pass illa att vi i princip bara köper äldre modeller eller faktiskt gått tillbaka till Intel (som har mycket mer aggresiva rabbater). Så jag misstänker att det kommer vara tveksam ekonomi att välja 9000-serien över äldre modeller med 7000-serien TR.

Permalänk
Medlem

Låter trevligt men då många redan har sålt en njure för ett grafikkort och behöver en för att leva så blir det kanske lite svårt att skaffa.

Det är synd att HEDT inte är normen och att priserna är lägre, ungefär som gamla Socket 1366.

Permalänk
Medlem

Factorio becnhmark?

Visa signatur

Power > Ideology

Permalänk
Medlem

Fantastiska specifikationer, synd att konsumentplattformen har 100 färre banor.

Visa signatur

Gigabyte FO32U2P | RX 9070 XT | AMD R7 5800X3D | 32GB 3600MHz DDR4 | Gigabyte X570 Aorus Master | 5TB NVMe | 80TB NAS | Seasonic Focus GX 1000 3.1 | Audeze LCD2 Classic | Fractal North XL | LG CX55 | Yamaha HS7+HS8S | Nvidia Shield TV Pro (2019)

Citera för svar!

Permalänk

Dags att återinföra Hem-Pc reformen?

Arbetaren säger jag behöver en enkel dator för att kunna skriva mail, En Threadripper med 96 kärnor, 2TB ECC ram, Dubbla NVidia RTX A800 40GB, 50TB ssd blir då förslaget till denna.

Lite så sjunkit var det med hem-pc runt år 2000.

Idag så är dessa datorer i princip enbart till folk som på något sätt tjänar pengar på dem. jag ser det som att ytterst få privatpersoner köper en ny stor Volvo lastbil för privat bruk.

Permalänk
Medlem

Tja, om Microsoft Flight Simulator 2024 hade varit bättre trådad och optimerad så hade kanske den här kunnat få den att gå jämnt och fint även på marken i en högdetaljerad och vältrafikerad flygplats, där det nu kan cpu-flaska ner mot 10-30 fps även med en 9800x3d och ett high-end grafikkort. Meen, jag tror inte ens den här prytteln kan få det spelet att rulla perfekt.
Behövs lite mer optimering på spelet där, väl uppe i luften flyter det fint ju. Nä, den här hör nog hemma i serversammanhang, eller multitrådade laster av annan sort.

Permalänk
Medlem
Skrivet av pg0n:

Låter trevligt men då många redan har sålt en njure för ett grafikkort och behöver en för att leva så blir det kanske lite svårt att skaffa.

Det är synd att HEDT inte är normen och att priserna är lägre, ungefär som gamla Socket 1366.

Priserna har verkligen exploderat. Jag gav under 10 000 för delarna till min threadripper för bara 6 år sedan, nya från butik. Under 4k för processorn och ca 5k för moderkortet, som var ett av de dyrare. Nu är de på helt orimliga nivåer för en privatperson.

Det är Inte ofta jag stör mig på begripliga affärsbeslut men sättet AMD behandlade threadripperplattformen gör mig lite bitter. Det var verkligen en helt monstruös prishöjning i samma sekund som de fick marknadsledande position och stora fingret till alla entusiaster som köpt in sig i plattformen.

Uppgrdering ar helt otänkbart, så dubbla grafikkort fick spridas till andra burkar eller säljas, nvme-diskar ligger som dominobrickor i en låda och man får ansluta dem en i taget via usb, som ett djur. (Ett I-landsdjur förvisso, typ som en handväske-chiuauha)

AMD förtjänar inte en cent mer goodwill än Nvidia och Intel i mina ögon.

Permalänk
Medlem
Skrivet av jefff:

Undrar om vi kommer se liknande prisökning som för Epyc (gäller väl också Ryzen iof), varje generation av Epyc har ökat priset för modeller med samma kärn/trådantal. Samtidigt så har inflation drivit på priset på hela server/workstation-utbudet. Det har blivit så pass illa att vi i princip bara köper äldre modeller eller faktiskt gått tillbaka till Intel (som har mycket mer aggresiva rabbater). Så jag misstänker att det kommer vara tveksam ekonomi att välja 9000-serien över äldre modeller med 7000-serien TR.

Kommer ihåg första generationens Threadripper som var snorbilliga nästan orimligt billiga hade varit kul att komma dit igen även om det är... orimligt. Men jag tycker att dom borde tygla priserna och göra dom mer attraktiva vilket man kan göra utan att man i princip skänker bort dom.

Visa signatur

Chassi: Antec GX500 / HDD: WD blue 1TB / SSD: WD Blue 250GB / CPU: R5 5700X3D / GPU: XFX Radeon RX 5600 XT THICC II PRO / Kylning: Wraith Spire och 3st i chassit 2xpush 1xpull / PSU: Seasonic Core GC 500 / MB: B450A Pro Max / RAM: Corsair Vengance 4x8GB 3200 Mhz / OS: Win10 Home / Mus: Corsair Harpoon TGB Pro / TB: Logitech G610 / Ljud: Audio Pro A28 med Focal Cub Gen1/ Skärm: Lenovo Legion Y34WZ-30

Permalänk
Medlem
Skrivet av jeffan97:

Kommer ihåg första generationens Threadripper som var snorbilliga nästan orimligt billiga hade varit kul att komma dit igen även om det är... orimligt. Men jag tycker att dom borde tygla priserna och göra dom mer attraktiva vilket man kan göra utan att man i princip skänker bort dom.

Ja, förste generationen TR och Epyc Naples led dock av en del tveksam och märklig prestanda, och hade dålig eller i princip icke-existerande adoption rate hos oem och stora systembyggare så var ju iof inte konstigt att det blev låga priser.

Men även från 3000-serien och Rome är det en jävla skillnad, från Rome till Turin är det en dubblering i pris om man kollar på servrar. Och från 5000 seriens workstations till 7000 serien var det också ett rejält hopp, nu är det ju märkligt med alla rabbatter osv som gäller, men när 7000-serien kom så fick vi föregående workstationmodell baserat på 5000-serien för halva priset mot dom nya (och då med cpu-modeller med samma mängd trådar). Och att man säljer gammalt billigt har det iof alltid vart, men skillanden nu är det inte är så jävla stor skillnad på CPUerna.

Det är var det är, men är ju lite roligt ändå att dom kom in och verkligen pressade upp prestanda och trådar per krona, och nu är det som att den trenden är utraderad, och man betalar nu igen vad man betalde för Intel innan AMD-kom (sen har såklart prestandan gått upp). Men ASP har verligen gått upp igen.

Permalänk
Medlem
Skrivet av jeffan97:

Kommer ihåg första generationens Threadripper som var snorbilliga nästan orimligt billiga hade varit kul att komma dit igen även om det är... orimligt. Men jag tycker att dom borde tygla priserna och göra dom mer attraktiva vilket man kan göra utan att man i princip skänker bort dom.

Men på den tiden så var det i princip bara 2 av deras vanliga CCD. Threadripper idag är mycket mer som en EPYC där hela arkitekturen är mer påkostad.
Med tanke på att de 8-kärniga fortfarande är deras huvudsakliga processorer med 6-kärnor för billigare. Så kan man lite se 9950X som det som 1950X skall jämföras med.

Permalänk
Medlem

300mhz/kärna mer än 7980x? Kan nog spara ett par minuter.

Visa signatur

/925

Threadripper 7980x|128Gb Ram|72TB 10GbE Synology Nas|MSI 3090 Suprim|LG UltraWide 38" - Wacom Intuos 3 A3

Permalänk
Medlem

Härligt, blir att beställa direkt (i jobbet).
Alltså seriöst, ska beställa någon sådan i närtid till en rejäl arbetsstation med budget på 250k (ex moms).
Får se vad man kan klämma in där.
96 kärnor lär vara för mycket för vad den ska användas till, men ev 64 kanske det kan bli.

Permalänk
Medlem

Threadripper lät coolt en gång i tiden.

Terminator……
Det är bad ass.

Dags för Amd att step it up

Visa signatur

Lightsaber - Black armour - and balls!

Permalänk
Medlem
Skrivet av kotz:

Threadripper lät coolt en gång i tiden.

Terminator……
Det är bad ass.

Dags för Amd att step it up

Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16 räcker fortfarande för mig.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av pg0n:

Låter trevligt men då många redan har sålt en njure för ett grafikkort och behöver en för att leva så blir det kanske lite svårt att skaffa.

Det är synd att HEDT inte är normen och att priserna är lägre, ungefär som gamla Socket 1366.

Du klarar dig utan njurar. Får bara gå på dialys 3 ggr i veckan. Tro mig det funkar har själv gjort det senaste året.

Permalänk
Medlem
Skrivet av D.:

Härligt, blir att beställa direkt (i jobbet).
Alltså seriöst, ska beställa någon sådan i närtid till en rejäl arbetsstation med budget på 250k (ex moms).
Får se vad man kan klämma in där.
96 kärnor lär vara för mycket för vad den ska användas till, men ev 64 kanske det kan bli.

Vad jobbar du med?

Visa signatur

- 5090

Permalänk
Datavetare

Helt klart är CPUerna med runt 100 CPU-kärnor och ovanpå det fortfarande ger riktigt OK prestanda per kärna en fantastisk uppvisning i ingenjörskonst.

Men frågan specifikt för HEDT med den typen av CPUer är "vad ska man ha dem till?".

För det här skulle jag säga är rätt dålig reklam
"Enligt AMD är den 124 procent snabbare än Intels 60-kärniga Xeon W9-3595X i Cinebench "

Så med andra ord: långsammare än en MacBook Pro med M4 Max... Och flera gånger långsammare än Nvidias topp RTX-GPUer.

Att klämma in 100-kärnor i datacenter CPUer har ju en gigantisk poäng: "ingen" kommer använda alla kärnor för ett program, men här är ju normalfallet att man delar upp systemet i massor med rätt små instanser (sett uppskattningar på att median-storleken för en AWS-instans är 4-8 vCPU, så motsvarande 2-4 kärnor med SMT...). Fördelen med många kärnor per CPU är här främst att det sparar ström, utrymme och därmed ger bättre TCO.

Det finns absolut use-case som kan utnyttja många CPU-kärnor, det Nvidia har visat är att de flesta (men inte alla!) av dessa fall körs långt mer effektivt på GPGPU. Så vore kul att höra vad som folk gör med den här typen av system där system likt Threadripper fortfarande är högst relevant. Enda jag kommer på är byggservers för massiva projekt (det är ett exempel som kan effektivt utnyttja många kärnor, men som inte alls passar GPGPU).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av D.:

Härligt, blir att beställa direkt (i jobbet).
Alltså seriöst, ska beställa någon sådan i närtid till en rejäl arbetsstation med budget på 250k (ex moms).
Får se vad man kan klämma in där.
96 kärnor lär vara för mycket för vad den ska användas till, men ev 64 kanske det kan bli.

Går också i liknande tankar för att uppgradera existerande system. Skulle dock behöva se fler benchmarks som inte är fokuserade på prestanda i spel utan för krävande beräkningsbehov.

Permalänk
Medlem
Skrivet av Yoshman:

Men frågan specifikt för HEDT med den typen av CPUer är "vad ska man ha dem till?".

Jag håller med om att det är extremt smal användning för dessa, nästintill oexisterande. Skalning för "content-creation", som har varit traditionellt en av dom största målgrupperna för detta segment, är hyfsad upp upp till 24/48, det är också ungefär så högt som mjukvaru-videoencodering skalar för högupplöst video om man vill göra detta på CPU. Över detta så pratar vi väl om 3d-renderingsflöden (med betoning på rendering) och olika former av simuleringar som ännu inte gått över till GPU (detta finns absolut fortfarande, oavsett fördelarna hos GPU), och då om man vill använda sin desktop för sånt som man egentligen använder en server för.

Men oavsett det, så ska man inte glömma att topmodellerna här är ju "gratis"-modeller för AMD, dom kommer ju med per automatik från Epyc vilket ändrar ekvationen rätt rejält från AMD:s sida i värdet för att släppa dessa modeller.

Permalänk
Medlem
Skrivet av Yoshman:

Helt klart är CPUerna med runt 100 CPU-kärnor och ovanpå det fortfarande ger riktigt OK prestanda per kärna en fantastisk uppvisning i ingenjörskonst.

Men frågan specifikt för HEDT med den typen av CPUer är "vad ska man ha dem till?".

För det här skulle jag säga är rätt dålig reklam
"Enligt AMD är den 124 procent snabbare än Intels 60-kärniga Xeon W9-3595X i Cinebench "

Så med andra ord: långsammare än en MacBook Pro med M4 Max... Och flera gånger långsammare än Nvidias topp RTX-GPUer.

Att klämma in 100-kärnor i datacenter CPUer har ju en gigantisk poäng: "ingen" kommer använda alla kärnor för ett program, men här är ju normalfallet att man delar upp systemet i massor med rätt små instanser (sett uppskattningar på att median-storleken för en AWS-instans är 4-8 vCPU, så motsvarande 2-4 kärnor med SMT...). Fördelen med många kärnor per CPU är här främst att det sparar ström, utrymme och därmed ger bättre TCO.

Det finns absolut use-case som kan utnyttja många CPU-kärnor, det Nvidia har visat är att de flesta (men inte alla!) av dessa fall körs långt mer effektivt på GPGPU. Så vore kul att höra vad som folk gör med den här typen av system där system likt Threadripper fortfarande är högst relevant. Enda jag kommer på är byggservers för massiva projekt (det är ett exempel som kan effektivt utnyttja många kärnor, men som inte alls passar GPGPU).

Simuleringar! (där mjukvaran endast använder CPUn). Dessa kör jag nu på i9-14900K men vissa simuleringar kan ta 9-10 timmar att köra när jag har reducerat dom. Det skulle därför vara skönt att kunna göra fler samtidigt utan att tiden dubbleras.
Även vissa renderingar som görs bättre på CPU än på GPU kan maxa CPUn ganska länge.

Permalänk
Datavetare
Skrivet av Trixtr:

Simuleringar! (där mjukvaran endast använder CPUn). Dessa kör jag nu på i9-14900K men vissa simuleringar kan ta 9-10 timmar att köra när jag har reducerat dom. Det skulle därför vara skönt att kunna göra fler samtidigt utan att tiden dubbleras.
Även vissa renderingar som görs bättre på CPU än på GPU kan maxa CPUn ganska länge.

Är helt med på att det finns t.ex. simuleringar som körs mer effektivt på CPU. Sitter själv just nu med ett sådant fall, det tyvärr inte ovanligt att man har simuleringar med en del sekventiella moment (och där är CPU överlägsen GPU p.g.a. överlägsen ST-prestanda).

Frågan var primärt: vilka relevant fall finns idag som dels skalar tillräckligt bra för att man ska få god utväxling på 50-100 CPU-kärnor, men ändå inte går att köra på GPGPU?

En stor begränsning tidigare för GPGPU var begränsad tillgång på VRAM. De plattformar vi nu ser från Nvidia, AMD och Apple (ryktet säger att även Intel ska få ut något under 2026) med relativt stora iGPU:er hanterar den bristen i de flesta fall (DGX Spark är konsumentversionen, finns ju en variant som är mer lik Apple Ultra-serie där man har tillgång till mer RAM än 128 GB).

Kvar för HEDT blir då den extremt smala nisch med fall som skalar väldigt väl med kärnor, men ändå inte fungerar på GPGPU. Skulle vara kul att höra specifikt vad folk gör som hamnar inom denna nisch. Kompilering är som sagt ett sådant fall, rent generellt är fall som består av många sinsemellan oberoende fall fast med varje fall i sig är väldigt komplext det som hamnar här.

Det är dock en väldigt smal nisch. Det normala är att begränsad skalaning över kärnor, då är CPU att föredra och specifikt en med maximal ST-prestanda, eller så går det i dag väsentligt snabbare att köra med GPGPU (rendering, AI, de flesta simuleringar, bild/video-behandling).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Lussarn:

Vad jobbar du med?

Bl a med att välja ut datorer/hårdvara/tillbehör m m åt olika delar i en mångmiljardkoncern, alltså datorn är inte till mig utan till verksamheten.
Oftast rätt väl tilltagen budget för datorerna som synes.

De ska bl a använda den för processande med Pix4D och Emesent Aura m m.
De vet inte vad de behöver, annat än en dator som klarar av jobbet de ska göra snabbt och effektivt. De har sen tidigare haft liknande maskiner, men några år gamla och de behöver fler.
Finns krav på datormärke, vilket driver upp kostnaden p g a garantier m m, men i övrigt väljer jag det som passar. Även i nära samarbete med datorleverantören.

Skrivet av Trixtr:

Går också i liknande tankar för att uppgradera existerande system. Skulle dock behöva se fler benchmarks som inte är fokuserade på prestanda i spel utan för krävande beräkningsbehov.

Bl a Puget Systems testar en del olika.

Permalänk
Medlem

Jag köpte min threadripper förra året och maxar antal kärnor dagligen i flera timmar. Visst har gpu:er tagit över tronen men det finns fortfarande mjukvara som vill ha mer kräm. Igår såg jag t.ex. en arbetsflöde för comfyai som maxade både gpu och CPU samtidigt och jag började svetta direkt 1. Aldrig sett det tidigare och 2. Bor i Malaga och det var över 30 i solen. Blev garanterat 35-40 grader i mancaven med 100% utilization på CPU och gpu. Normalt så är det antingen 100% CPU eller 100% gpu. Men aldrig båda samtidigt. Nu är ai väldigt liten del av mitt arbete men lokal ai börjar ändå bli helt ok. Som 3D-tomte/kreatör så ser jag inga problem med att vänta 10 timmar för att ”bygga” en egen liten model som marknadsavdelningen kan använda för all framtid. Tyvärr är den processen bara på gpu sidan.

Visa signatur

/925

Threadripper 7980x|128Gb Ram|72TB 10GbE Synology Nas|MSI 3090 Suprim|LG UltraWide 38" - Wacom Intuos 3 A3

Permalänk
Medlem
Skrivet av Yoshman:

Helt klart är CPUerna med runt 100 CPU-kärnor och ovanpå det fortfarande ger riktigt OK prestanda per kärna en fantastisk uppvisning i ingenjörskonst.

Men frågan specifikt för HEDT med den typen av CPUer är "vad ska man ha dem till?".

För det här skulle jag säga är rätt dålig reklam
"Enligt AMD är den 124 procent snabbare än Intels 60-kärniga Xeon W9-3595X i Cinebench "

Så med andra ord: långsammare än en MacBook Pro med M4 Max... Och flera gånger långsammare än Nvidias topp RTX-GPUer.

Att klämma in 100-kärnor i datacenter CPUer har ju en gigantisk poäng: "ingen" kommer använda alla kärnor för ett program, men här är ju normalfallet att man delar upp systemet i massor med rätt små instanser (sett uppskattningar på att median-storleken för en AWS-instans är 4-8 vCPU, så motsvarande 2-4 kärnor med SMT...). Fördelen med många kärnor per CPU är här främst att det sparar ström, utrymme och därmed ger bättre TCO.

Det finns absolut use-case som kan utnyttja många CPU-kärnor, det Nvidia har visat är att de flesta (men inte alla!) av dessa fall körs långt mer effektivt på GPGPU. Så vore kul att höra vad som folk gör med den här typen av system där system likt Threadripper fortfarande är högst relevant. Enda jag kommer på är byggservers för massiva projekt (det är ett exempel som kan effektivt utnyttja många kärnor, men som inte alls passar GPGPU).

Rendering verkar vara något där CPU;er inte kommer fasas ut helt på länge. VRAM är förstås en faktor men det tycks också vara så att CPU;er är bättre lämpade för mer komplexa beräkningar av ljus. Direkt ljus med strålspårning är GPU;er överlägsna på eftersom det handlar om att göra samma beräkningar på olika data. Vid indirekt ljus kan man behöva, eller i varje fall vilja, köra olika beräkningar.
Det här är förvisso något jag hört från en Corona-utvecklare, och Corona är en CPU-renderare, så det är möjligt att frågan går att debattera. Industrin har dock varit långsam att anamma GPU-rendering, även om användningen ökar.

Med det sagt vill jag understryka att jag inte gillar tingens ordning. För mig känns CPU-rendering primitivt (och sitter man inte i en dyr produktionsmiljö förefaller det vara slöseri med tid). Lever man i den världen kan det dock vara motiverat med en såndäringa trådslitare.

Permalänk
Medlem

Jag tycker det är kul att de använder cinbench för att skryta med prestandan istället för något vettigt och användbart.

Finns nog ingen som köper denna för att nöta cinbench. Kan ens cinbench skala med alla trådar?

Visa signatur

Ryzen 9800X3D @ Stock, MSI Suprim X 3080 @ game mode.
YT kanal där jag meckar bilar: https://www.youtube.com/@saab900turboT16

Permalänk
Medlem

Gissningsvis har AMD mera koll på HEDT-marknaden än random snubbar på svenskt mindre forum.
Charmigt med ett forum för datornördar som inte tycker det är en bra grej med ny kul teknik/snabb hårdvara.

Permalänk
Medlem
Skrivet av Yoshman:

Det finns absolut use-case som kan utnyttja många CPU-kärnor, det Nvidia har visat är att de flesta (men inte alla!) av dessa fall körs långt mer effektivt på GPGPU. Så vore kul att höra vad som folk gör med den här typen av system där system likt Threadripper fortfarande är högst relevant. Enda jag kommer på är byggservers för massiva projekt (det är ett exempel som kan effektivt utnyttja många kärnor, men som inte alls passar GPGPU).

I t ex blenders renderingsmotor Cycles finns det vissa funktioner, som också är riktigt bra, som bara fungerar på CPU. En sån är funktionen som använder Intels Open PGL för att sampla "ljus" bättre för att kraftigt snabba upp och förbättra vissa typer av scener.
Dessutom är renderingar på GPU begränsade till grafikminnets storlek. Även med en RTX 5090 med 32 GB kan det vara på tok för lite för en stor och komplex scen, medan 256 GB RAM är förhållandevis enkelt att lösa med en modern processor.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare
Skrivet av Aka_The_Barf:

Jag tycker det är kul att de använder cinbench för att skryta med prestandan istället för något vettigt och användbart.

Finns nog ingen som köper denna för att nöta cinbench. Kan ens cinbench skala med alla trådar?

Det finns logik i att använda Cinebench just p.g.a att det är en av få, antagligen det enda, program som en lite större publik känner till och som faktiskt har nära nog perfekt skalning till ~100 CPU-kärnor. Det om man tittar på CB2024, möjligen även CB2023. Tidigare versioner hade problem med skalning när antalet kärnor drog iväg med HEDT.

Rent generellt skalar de flesta fall som fungerar bra med GPGPU upp till >100 kärnor, i alla fall så länge som inte RAM-bandbredd blir en flaskhals (vilket är huvudbegränsningen med t.ex. LLMs).

Det som ändå gör CB2024 till tveksam PR-benchmark för HEDT 2025 är just då man får så brutalt mycket högre resultat med GPGPU.

Är helt övertygad om att det fortfarande finns vettiga fall för HEDT. Kan dock inte säga vad det är, så skulle vara kul om någon man ge lite konkreta exempel!

Att sen det är lite lurigt är inte så konstigt om man betänker att totala marknaden för HEDT CPUer är låga 10-tusentals per år numera, d.v.s. det säljs någonstans mellan 20k-50k desktop CPUer per HEDT-CPU, och 100k-250k PC-CPUer per HEDT-CPU. I.e. även på SweC är det statistiskt sett någon enstaka brukare av dessa system.

Skrivet av cyklonen:

I t ex blenders renderingsmotor Cycles finns det vissa funktioner, som också är riktigt bra, som bara fungerar på CPU. En sån är funktionen som använder Intels Open PGL för att sampla "ljus" bättre för att kraftigt snabba upp och förbättra vissa typer av scener.
Dessutom är renderingar på GPU begränsade till grafikminnets storlek. Även med en RTX 5090 med 32 GB kan det vara på tok för lite för en stor och komplex scen, medan 256 GB RAM är förhållandevis enkelt att lösa med en modern processor.

Både OpenPGL och OIDN (Intel Open Image Denoise) används ju i Blender och körs på CPU. Men det är fortfarande inget som är vettigt på en 96 kärnors CPU då skalningen är relativt linjär upp till 8-16 kärnor för att sedan vika av. Rätt liten skalning efter 64 kärnor.

Läser man om OpenPGL så står det att man jobbar på GPGPU-stöd. I fallet OIDN finns redan motsvarande funktion med GPGPU-stöd på Nvidia GPUer och det finns även beta-nivå stöd för Apple GPUer.

Ju bättre stöd GPUer får för ray-tracing, ju färre av nischfallen som finns kvar i form av t.ex. extremt komplex ljussättning (som även det ofta kommer ha begränsad skalning med CPU-kärnor just p.g.a. att del av komplexiteten är korsvisa beroenden).

Kapaciteten för VRAM har historisk varit en klar begränsning för vad som är möjligt med GPGPU. AI-hypen har ändrat på det. Nvidia/AMD GPUer med 100-256 GB VRAM må kosta 200-300 kSEK, men de finns om man har behovet. En MacStudio med 512 GB RAM kostar ungefär lika mycket som bara CPUn till nuvarande TR-generation med 96 kärnor.

Så just denna begränsning är ett idag ett icke-problem givet att även "proffsnivå Blender maskiner" har RAM-behov i spannet 64-128 GB (en nivå Apple, AMD och snart också Nvidia alla har i sammanhanget billiga iGPU-lösningar som erbjuder).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Dunde:

Gissningsvis har AMD mera koll på HEDT-marknaden än random snubbar på svenskt mindre forum.
Charmigt med ett forum för datornördar som inte tycker det är en bra grej med ny kul teknik/snabb hårdvara.

Ja. Det är lite väl fokus på att få datorn att lösa mindre problem här.
Den ekonomiska biten är dock intressant. Med Threadripper så kan folk köra väldigt mycket hemma, men får de göra det? Vad har man för privata datorproblem som kräver 96core? En annan fråga vilka privata problem man har som kräver en dator för kanske 500 000kr när man matchar vettiga grafikkort och annat till datorn.

I arbetsmarknaden så är threadripper en workstation CPU och de vill för servrar ha Xeons och Epic. Nå till AMD försvar så är 96 core versionen värstingmodellen som troligen ej kommer säljas så mycket av.

Grafikkort vs CPU debatten ser jag som lite konstig. I verkligheten finns det mjukvaror, dessa har företag lagt otroligt mycket pengar på att ta fram. Dessa mjukvaror har olika krav när det gäller hård och mjukvara.
Att det sedan går att utveckla delar i dessa program som mer utnyttjar gpu är sant, men vad kan man som användare göra åt detta mer än att tjöta på tillverkaren?

Jag ser det lite som VHS och Betamax debatten. Man skulle kunna argumentera för att Betamax är överlägsen, men då får man spela in filmerna själv för de släpptes på VHS. Detsamma gäller gpu vs cpu, i verkligheten är många applikationer nästan bara cpuberoende. Det går trögt och det är inte superlätt att dela gpuprestanda mellan väldigt många VMs, det kräver lite jobb, det tar lite tid.