Intel kontrar AMD med 144-kärnig Xeon-processor

Permalänk
Medlem
Skrivet av landmarks:

Nuvarande "Sapphire Rapids" samt efterföljaren "Emerald Rapids" är bara P-kärnor, medan de nya 144-kärniga varianterna blir bara E-kärnor

Sååå typ Larrabee men inte 512 st eller vad som nu var planerat...

Visa signatur

🛜🫀: HP ProDesk 400 G3, i5 6500, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: R9 3900X | RTX 2080 LC | Acer XF270HUA | 96GB @ 3200 | MSI X570 MPG G EDGE WIFI | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Medlem
Skrivet av Ozzed:

Ingen kommer någonsin behöva mer än 4 kärnor. Eller hur var det nu?

Va? Sade någon det efter vad som hände med 640k?

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Perfekt för giriga molntjänster som vill trycka in så många klena "vCPU" som det går i ett och samma paket.

Permalänk
Medlem
Skrivet av serverfel:

Va? Sade någon det efter vad som hände med 640k?

Jag brukar påstå det (lite halvallvarligt) stor skillnad på klient och server dock. Just för att stora flertrådade jobb bör köras på servrar istället för lokalt. Lokalt skall det som kräver 0-latency göras, GUI och IO i princip, det mesta andra kan flytta till servrar. Mest som svar på det idiotiska cinebench-användandet. En workstation vill man inte låsa upp med långa körningar oavsett hur snabb CPU man har, men betalar för en väldans massa outnyttjad CPU-kraft.

Som sagt halvallvarligt och utopiskt.

Permalänk
Datavetare

Angående diskussionen kring användning av "väldigt många kärnor".

Hur mycket "stora flertrådade jobb" finns det på en typisk server?

Servers har länge kunna utnyttjat många trådar, men orsaken är att dessa typiskt hanterar många oberoende sessioner parallellt. Varje session är väldigt ofta enkeltrådad, tänk NodeJS som är väldigt populärt där det inte ens finns koncept av "multi-trådning" (NodeJS kan dock skala till flera kärnor, men då specifikt genom att hantera flera sessioner på olika instanser samtidigt).

Tar man en relationsdatabas som är enkel att studera p.g.a. öppen källkod, PostgreSQL, kan den skala till hyfsat många kärnor. Men varje enskild transaktion är i stort sett helt enkeltrådad, parallellism kommer av att man köra flera oberoende transaktioner samtidigt.

Samma gäller "moln-CPUer". Superdatorer har utan tvekan användarfall där man sprider ut ett stort problem på massor med kärnor, men i molnet är det normala samma visa som ovan: är extremt sällsynt att någon enskild applikation använder mer än en handfull kärnor (trenden är snarare tillbaka till enkeltrådade applikationer uppdelade i microservices), parallellism uppnås genom att hantera många kunder samtidigt på samma HW.

Stora skillnaden mellan "desktop" och "server" är att den förra typiskt har ett problem som användaren vill lösa. Där ligger problemet att utanför triviala problem, som t.ex. Cinebench, effektivt utnyttja mer än en handfull kärnor.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer