AMD Ryzen 3000 "Matisse" – samlingstråd

Permalänk
Medlem
Skrivet av Yoshman:

Vet inte vad jag antagit om Intels 10 nm process mer än vad som står listat på Chip Wiki. D.v.s. den var initialt förväntad att ge högre densitet jämfört med TSMC 7 nm, men problemet där var kravet på >= fyra litografisteg (pratades ju om upp till 6 st i vissa fall). Av allt att döma är ju "fixen" att man backat tillbaka till att matcha 7 nm TSMC i densitet vilket då aldrig kräver med än fyra litografisteg som värst.

Lite därför tror jag att sett till att TSMC nu är 1 år före här, och planerar redan delvis EUV när Intel fortfarande försöker optimera vidare sin befintliga. Som jag förstått den 7nm+ så kommer de inte satsa på prestanda, utan på att just öka densiteten på de delar som inte är så känsliga. Man kör en EUV "test fas" mao.

Så jag har ingen anledning att tro Intel magiskt kan ro hem någon mer "prisvärd" nod, då utvecklingen av denna 10nm lär ha kostat 4-5x vad den ursprungligen planerades. Pengar de behöver tjäna in också...

Sen är alla Wiki siter... inte alltid 100% pålitliga, speciellt inte när tex Intel blånekade något problem hela vägen tills de inte kunde längre. Trovärdigheten på deras planer imho är på nivå av Bill Clinton just nu... Och kan du inte lita på PR från tillverkaren, är det väldigt svårt att lita på en oberoende, obekräftad källa också. Man måste mao har lite... kritiskt tänkande till vad som påstås.

Skrivet av Yoshman:

Har aldrig förväntat mig något annat än att frekvensen kommer gå ner jämfört med vad de idag har på 14 nm++, de har väl själva sagt att det är först med 10 nm++ (Willow Cove planerad 2020) som de förvänta sig matcha dagens frekvenser. Givet att läckta prestandasiffror på Sunny Cove pekar att IPC kommer öka 15-25 % finns ju lite spelrum.

De prestandaresultat som läckt för Zen2 pekar ju på mer eller mindre oförändrad IPC för heltalsberäkningar samt ~15 % högre IPC för flyttalsberäkningar samt upp mot 100 % för AVX. Så konsument produkterna baserade på Zen2 måste klocka klart högre jämfört med dagens Zen+, annars blir det bara fler kärnor (som de flesta desktop-applikationer ändå inte kan utnyttja).

Jag antar då det är 10nm++ "den nya", för den gamla 10nm++ var ju den som "lanserades 2018".

Ang Zen 2, helt förvånad är jag inte, då de inte kan göra en helt omdesignad CPU, utan bara en optimerad baserad på befintlig. Jag har också sett lite av dessa läckor och är lika besviken, men vill inte dra slutsatser om något förrän slutprodukten är på plats.

Har mycket svårt o se 15-25% ökning utom i specifika fall, då om det funnits den marginalen tidigare, hade Intel lätt tagit en del av den redan med Skylake vs tidigare. Sen är ju en fråga hur mycket dyrare chippet blir med den extra cache man trycker till där med.
Det jag kan tänka mig dock är att man tittat på optimering av mjukvaru-lappningarna för säkerhetshålen, om i sin tur säkert kan ge tillbaka en del av den kraften man tappat idag, vs pre patch. Men även det är bara 25% i väldigt specifika fall.

Och när 2020 kommer så har vi Zen3 att jämföra med, så det känns lite fel att anta något så exakt om en nod Intel inte har gjort klart, och en kärna de inte gjort klart, speciellt när nya säkerhetshål poppar upp, som kan tvinga förändringar vi inte sett.

Just Skylake ver 6 kommer ju inte erbjuda några förbättringar, mer än 2 kärnor till... och det är dessa Zen2 ska konkurrera mot 14nm++ vs 7nm.

Skrivet av Yoshman:

Sedan undrar jag lite vad du baserar dina ekonomiska antagande på kring kostnader av kretsar. Intel har trots vad du anser vara "framstressade och lappade kretsar" 50 % högre bruttomarginal, det är ju direkt kostnad för tillverkning dividerat med omsättning (d.v.s. exklusive kostnad för FoU, administrativa uppgifter och liknande).

Får inte heller ihop hur en krets som i7-9700K inte skulle vara väldigt lönsam. Om man antar att Zen+ och Coffe Lake R tillverkas på ungefär lika mogna noder (d.v.s. väldigt mogna noder med väldigt låg D0) idag är tillverkningskostnaden för en 213 mm² krets ~20 % högre jämfört med en 179 mm² krets. Och numera går väl kretsen som används till 9900K ända ner till i5-9400 (plus att H-serien och S-serien är väl ändå samma krets, så kretsen används även för high-performance bärbara)?

Och de har också 2x priset på CPUn. Tror du verkligen de hade haft samma vinst om de halverat priset?
Eller hur tror du AMDs bruttomarginal hade sett ut om de kunde sälja 2600X till 9700ks pris?
Som sagt tidigare, de lever på folks troende att 5fps är något de får mer, från extrem benchmarks, med deras 1060 GPU och 2400 DDR4...

AMD just nu dumpar priset, för att köpa marknadsandelar, något du kan se i de flesta segment och ändå får vinst, även om de är inte markant stora i alla. Faktum att OEM har börjat få upp ögonen är en stor sak dock. Skulle AMD kunna släppa en konkurrenskraftig CPU till nu under 2019, så lär de plocka mer marknad och kan sälja en dyrare CPU, för mer vinst, vilket gör just en CPU som 9700k inte direkt vinst-vänlig, och Intel hoppas väl att 10/10 trådad variant ska "lösa problemet"...

Ang om den används i bärbara vågar jag inte svara på. Det skulle inte förvåna mig, för de behöver som sagt sälja dem. Men du antog precis innan att AMD inte kan göra en prisvärd bärbar lösning, så... om nu AMD kan släppa något som konkurrera även där, vs bärbara H CPUer... lär Intel ha svårare med dessa också.

Skrivet av Yoshman:

Egentligen enda jag ville belysa är att chiplets har absolut fördelar sett till kostnad, men dessa fördelar gäller egentligen bara på serversidan för tillfället.

Jag vill inte hålla med, då det beror på om du räknar totala RND + tillverkning + storlek av marknaden och vad du kan sälja från denna produkt. Om du kan sälja en produkt för 2x priset som din konkurrent, har du verkligen en fördel till kostnad, eller är det pga andra bitar? Om du har högre kostnad, men kan göra mer med den, är det verkligen dyrare, om du får in pengarna från fler håll istället?

Kan förstå ditt tänk med chiplet i prestanda-biten, men som sagt, du har redan en annan I/O i desktop än server, och du antar att den är "den enda". Inget som säger att AMD inte kan välja o vraka i den tillverkningen, eller göra mindre I/O nästa år när 7nm mognat mer och chiplets kan gå till 7nm+ tex. Eller sätta en mer kompetent I/O med stackat HBM och en iGPU kraftfull nog att konkurrera med en hel del dGPUer. Intel kan inte göra denna optimering, eller flexibilitet, och det för att även om produkten kanske "just nu" kostar mer på papper, kan du får mer ur tillverkningen i slutprodukten.

Permalänk
Medlem

Vad jag har sett har Intel såpass svårt att leverera 14nm processorer att flera laptop tillverkare som varit traditionellt Intel vänliga har börjat släppa AMD laptops. Helt enkelt för att ha något att sälja. Intel har större problem än pris och prestanda, dom kan inte tillverka tillräcklig volym. Det finns alltså utrymme för AMD även om AMD inte når samma prestanda. Och skulle dom nå samma/bättre prestanda ser det inte direkt ljust ut för Intel.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Hjälpsam

Jag tror att den kommer att bli bra, men inte lika bra som en del andra tror.
Gissar på en IPC runt i9 9900k.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Paddanx:

Lite därför tror jag att sett till att TSMC nu är 1 år före här, och planerar redan delvis EUV när Intel fortfarande försöker optimera vidare sin befintliga. Som jag förstått den 7nm+ så kommer de inte satsa på prestanda, utan på att just öka densiteten på de delar som inte är så känsliga. Man kör en EUV "test fas" mao.

Så jag har ingen anledning att tro Intel magiskt kan ro hem någon mer "prisvärd" nod, då utvecklingen av denna 10nm lär ha kostat 4-5x vad den ursprungligen planerades. Pengar de behöver tjäna in också...

Sen är alla Wiki siter... inte alltid 100% pålitliga, speciellt inte när tex Intel blånekade något problem hela vägen tills de inte kunde längre. Trovärdigheten på deras planer imho är på nivå av Bill Clinton just nu... Och kan du inte lita på PR från tillverkaren, är det väldigt svårt att lita på en oberoende, obekräftad källa också. Man måste mao har lite... kritiskt tänkande till vad som påstås.

Jag antar då det är 10nm++ "den nya", för den gamla 10nm++ var ju den som "lanserades 2018".

De modeller som släpptes förra året är vad jag förstår "10 nm utan plus", eller vad man nu ska kalla den version av 10 nm de aldrig verkar fått till. Det som är planerat för i år är 10 nm+, vilket rimligen betyder att "Willow Cove" med 10 nm++ ligger Q4 2020.

Skrivet av Paddanx:

Ang Zen 2, helt förvånad är jag inte, då de inte kan göra en helt omdesignad CPU, utan bara en optimerad baserad på befintlig. Jag har också sett lite av dessa läckor och är lika besviken, men vill inte dra slutsatser om något förrän slutprodukten är på plats.

De måste prioritera. Zen2 är rätt ordentligt omdesignad från Zen+, men just heltalsblocket verkar vara i det närmaste orört. Lite udda vad av prioritering givet att heltalsprestanda är med bred marginal det absolut viktigaste, men det är också den absolut svåraste att få till IPC ökningar i då det är området majoriteten av optimeringar gjorts historiskt.

SIMD-delen har ju fått sig en rejält lyft i Zen2. Då SIMD-delen och flyttalsdelen utförs av samma ALUs är det ju inte så förvånande att flyttalsprestanda ser ett lyft, lär ju ha funnits saker man såg kunde göras bättre.

I front-end har man ju dels ökat storleken på mikro-op cache samt gjort "förändringar av L1$". Vad det senare betyder i detalj har AMD aldrig sagt, inte heller något man kan se i t.ex. kompilatorpatchar då kompilatorer inte kan göra något direkt vettig med information om instruktionscache. Min gissning är ändå att man krupit till korset här och gjort L1$ 8-set associativ. Drar lite mer ström än tidigare 4-set associativ, men gör det möjligt att köra L1$ och TLB parallellt med 4 kB "page" storlekar (AMD hävdade att de inte behövde detta i Zen/Zen+, men givet att i princip alla andra moderna högpresterande designer tycker det är en vettig optimering så tror jag AMD hade fel).

Att man flyttat minneskontroller från CPU-kretsen in i en separat I/O-krets är ju en annan dramatisk förändring. Så Zen2 innehåller rejäla förändringar, frågan är bara vad utfallet blir då förändringen av minneskontroller lär påverka latenskänsliga applikationer negativt och man verkar ha noll IPC ökning för heltal att kompensera detta med (latenskänsliga applikationer är typiskt heltalsintensiva, t.ex. spel).

Skrivet av Paddanx:

Har mycket svårt o se 15-25% ökning utom i specifika fall, då om det funnits den marginalen tidigare, hade Intel lätt tagit en del av den redan med Skylake vs tidigare. Sen är ju en fråga hur mycket dyrare chippet blir med den extra cache man trycker till där med.
Det jag kan tänka mig dock är att man tittat på optimering av mjukvaru-lappningarna för säkerhetshålen, om i sin tur säkert kan ge tillbaka en del av den kraften man tappat idag, vs pre patch. Men även det är bara 25% i väldigt specifika fall.

Och när 2020 kommer så har vi Zen3 att jämföra med, så det känns lite fel att anta något så exakt om en nod Intel inte har gjort klart, och en kärna de inte gjort klart, speciellt när nya säkerhetshål poppar upp, som kan tvinga förändringar vi inte sett.

Just Skylake ver 6 kommer ju inte erbjuda några förbättringar, mer än 2 kärnor till... och det är dessa Zen2 ska konkurrera mot 14nm++ vs 7nm.

Varför är det så svårt att se när Sandy Bridge till Skylake ger ~40 % ökning i IPC i bl.a. spel (jämför 2600K och 7700K vid samma frekvens)? Många har missat det då man innan Nvidia 1080Ti/2000-serien egentligen aldrig kunde se hur stor skillnaden var p.g.a. flaskhalsar i GPU.

Från Skylake till Sunny Cove ökas micro-op cache, fördubblas L1D$+L2D$ samt back-end bredd ökas med 25 % + lite annat. Det är mer än vad som ändrats mellan Sandy Bridge till Skylake (men mindre än Nehalem till Skylake).

AMD har sagt att Zen3 primärt kommer fokusera på att optimera Zen2, så man ska inte förvänta sig några stora IPC-ökningar. Det verkar vara mer likt Zen->Zen+, så högre frekvens och bättre perf/W är den primära agendan.

Skrivet av Paddanx:

Och de har också 2x priset på CPUn. Tror du verkligen de hade haft samma vinst om de halverat priset?
Eller hur tror du AMDs bruttomarginal hade sett ut om de kunde sälja 2600X till 9700ks pris?
Som sagt tidigare, de lever på folks troende att 5fps är något de får mer, från extrem benchmarks, med deras 1060 GPU och 2400 DDR4...

Enligt prisjakt är just nu i9-9900K 57 % dyrare än 2700X medan i7-9700K är 24 % dyrare. Tänk också på att produkter som Chromebooks har ökat rätt mycket i volym, dessa kör typiskt CPU-modeller från Intel <$100. Så tycker verkligheten inte ligger allt för långt ifrån vad man kommer fram till genom att räkna på det hela, saker som val av D0 påverkade resultatet mindre än vad jag trodde det skulle göra. Men självklart är det bara en fingervisning man får fram, kan nog slå ± 20-25 %.

Får inte heller ihop det du skrev om "hårt binnande kretsar" ovan. Kikade lite på Silicon Lottery och vem är det som binnar stenhårt egentligen?

För varje generation av Skylake har man nått högre gräns för vad 100 % av kretsarna klara, samtidigt som man nått detta på lägre spänning.

Som exempel klara 100 % av alla i7-9700K 4,9 GHz (vilket är kretsens all-core-turbo), 86 % klarar 5,0 GHz. Det är bättre än i9-9900K, vilket lite indikerar att mellan dessa två är det inte så mycket "binning" utan man gör primärt så mycket i7-9700K som marknaden vill ha.

I AMDs fall når 0 % (!) av 2700X upp till den frekvens en oklockad krets man nå på en kärna (4,3 GHz). Gränsen som 100 % klarar är 4,05 GHz.

Så vilken krets verkar hårdast "binnad" tycker du? Och blir då inte de beräkningar jag försökte göra på tillverkningskostnad ändå rätt jämförbara, om något så borde Intels kostnader överskattas då de verkar ha lite mer marginal.

Vad som hänt är ändå att alla, AMD, Intel och Nvidia, definitivt "binnar" långt hårdare än tidigare. Både AMD och Intel säljer sina respektive toppmodeller med högst officiell frekvens. Det medan Silicon Lottery, som lämnar garanti på stabilitet för sina överklockade modeller, lyckas klocka 2600X samt 9700K högre jämfört med toppmodellerna.

Min gissning här är att maxfrekvensen numera primärt begränsas av "hot-spots" och dessa slår man i tidigare på toppmodeller (att 9700K saknar HT är definitivt något som minskar trycket på ALUs i många fall). 2600X får nog hjälp då dels mindre effekt utvecklas med 3 kärnor per CCX, men också då den "döda" kärnan tar upp värme från de aktiva grannarna.

Skrivet av Paddanx:

AMD just nu dumpar priset, för att köpa marknadsandelar, något du kan se i de flesta segment och ändå får vinst, även om de är inte markant stora i alla. Faktum att OEM har börjat få upp ögonen är en stor sak dock. Skulle AMD kunna släppa en konkurrenskraftig CPU till nu under 2019, så lär de plocka mer marknad och kan sälja en dyrare CPU, för mer vinst, vilket gör just en CPU som 9700k inte direkt vinst-vänlig, och Intel hoppas väl att 10/10 trådad variant ska "lösa problemet"...

Skulle inte säga att AMD dumpat priserna, de har låtit bli att sänka speciellt mycket. Vad som egentligen hänt nu när CPU-kriget hettat till egentligen är ju att Intel höjt genomsnittspriset på "mainstream desktop".

Från Sandy Bridge till 8700K kostade toppmodellen $300-350, nu har det helt plötsligt hoppat upp till $500! Hyfsat OK utveckling sett till pris/CB-poäng, inte lika imponerande utveckling sett till pris/spelprestanda...

Skrivet av Paddanx:

Ang om den används i bärbara vågar jag inte svara på. Det skulle inte förvåna mig, för de behöver som sagt sälja dem. Men du antog precis innan att AMD inte kan göra en prisvärd bärbar lösning, så... om nu AMD kan släppa något som konkurrera även där, vs bärbara H CPUer... lär Intel ha svårare med dessa också.

Jag har inte antagligt någonting om vad AMD kan och inte kan göra (är du som ivrigt stuffar in att jag skulle hävdat sådant). Rätt uppenbart att de måste skapa en speciell I/O+GPU-krets när man väl ger sig efter den bärbara marknaden. I närtid är det inte aktuellt då Ryzen Mobile 3000-serien rätt precist lanserats (och den är baserad på Zen+, inte Zen2).

Det jag pekade på var att just nu finns inga exempel eller indikationer på att multi-kretslösningar skulle på något sätt skulle vara optimalt för bärbara enheter. Det finns tvärtom rätt många exempel på direkt motsatsen, att AMD väljer att lansera Ryzen Mobile 3000 är bara ett i raden (fast de mer handfasta är hur ARM-tillverkarna agerar samt hur hopplöst chanslös Intel var med multikretslösningar, det primärt på prisbiten).

Skrivet av Paddanx:

Jag vill inte hålla med, då det beror på om du räknar totala RND + tillverkning + storlek av marknaden och vad du kan sälja från denna produkt. Om du kan sälja en produkt för 2x priset som din konkurrent, har du verkligen en fördel till kostnad, eller är det pga andra bitar? Om du har högre kostnad, men kan göra mer med den, är det verkligen dyrare, om du får in pengarna från fler håll istället?

Kan förstå ditt tänk med chiplet i prestanda-biten, men som sagt, du har redan en annan I/O i desktop än server, och du antar att den är "den enda". Inget som säger att AMD inte kan välja o vraka i den tillverkningen, eller göra mindre I/O nästa år när 7nm mognat mer och chiplets kan gå till 7nm+ tex. Eller sätta en mer kompetent I/O med stackat HBM och en iGPU kraftfull nog att konkurrera med en hel del dGPUer. Intel kan inte göra denna optimering, eller flexibilitet, och det för att även om produkten kanske "just nu" kostar mer på papper, kan du får mer ur tillverkningen i slutprodukten.

Läs artikeln jag länkade ovan i ämnet. När man bygger "chiplets" med väldigt hög kapacitet mellan kretsar är det inget enkelt Lego längre. Endera har man passiva lösningar (d.v.s. man drar bara ledningar alt. kör med passive interposer), i det läget krävs att det hela designas som en helhet om det ska fungera.

Framtiden är med stor sannolikhet ändå "Lego-bitar med kretsar". Men det kommer kräva en aktiv interposer, i det läget är inte priset en lika självklar fördel längre men finns massor med tekniska fördelar.

Fast även om framtiden är olika former av chiplets går det inte att komma ifrån att man vill köra monolitiska designer så långt det går. Det då latens samt mängd energi som krävs per överförd bit är heltalsfaktorer lägre inom en krets jämfört med mellan kretsar. Ett icke-problem för t.ex. en sydbrygga då det inte alls krävs någon extrem bandbredd eller låg latens, men ju mer kritiska delar som hamnar i separata kretsar ju mer kritiskt blir detta (tror aktiv interposer löser eller i alla fall rejält mildrar dessa problem, men ska inte svära på det).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av the squonk:

Vad jag har sett har Intel såpass svårt att leverera 14nm processorer att flera laptop tillverkare som varit traditionellt Intel vänliga har börjat släppa AMD laptops. Helt enkelt för att ha något att sälja. Intel har större problem än pris och prestanda, dom kan inte tillverka tillräcklig volym. Det finns alltså utrymme för AMD även om AMD inte når samma prestanda. Och skulle dom nå samma/bättre prestanda ser det inte direkt ljust ut för Intel.

Verkar vara mycket AMD-baserade laptops i alla klasser på gång. Just Ryzen + Turing är nog förstavalet för mig om jag skulle köpa spellaptop nu. Och jag har varit sugen på något vassare länge nu faktiskt.

https://m.hexus.net/tech/news/laptop/128906-asus-preparing-am...

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Ratatosk:

Jag tror att den kommer att bli bra, men inte lika bra som en del andra tror.
Gissar på en IPC runt i9 9900k.

Allround samma IPC som 9900k?

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Hjälpsam
Skrivet av ClintBeastwood:

Allround samma IPC som 9900k?

Skickades från m.sweclockers.com

Tänkte främst på spel, lutar åt lite lägre faktiskt.
Men för mig spelar det inte så stor roll, bara den är tillräckligt bra.
Vore iofs mumma, att få tyst på alla som säger, "men Intel är ju bättre på spel".

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inofficiell ambassadör
Skrivet av ClintBeastwood:

Allround samma IPC som 9900k?

Skickades från m.sweclockers.com

Skrivet av Ratatosk:

Tänkte främst på spel, lutar åt lite lägre faktiskt.
Men för mig spelar det inte så stor roll, bara den är tillräckligt bra.
Vore iofs mumma, att få tyst på alla som säger, "men Intel är ju bättre på spel".

Det är väl redan ganska väletablerat från det som kommit ut att IPC i spel (i.e mest heltalsberäkningar) kommer att vara i stort sätt oförändrat från Zen+. Det kombinerat med Chiplets-designens latensproblematik gör ju att det inte är helt osannolikt att Zen 2 faktiskt kommer att prestera något sämre i spel om man ser rent till per kärna och frekvens.

Förhoppningsvis lyckas AMD väga upp det med ordentligt ökade frekvenser (och fler kärnor till samma prispunkt). Annars blir det inte någon hejdundrande spel-CPU.

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem
Skrivet av Ratatosk:

Tänkte främst på spel, lutar åt lite lägre faktiskt.
Men för mig spelar det inte så stor roll, bara den är tillräckligt bra.
Vore iofs mumma, att få tyst på alla som säger, "men Intel är ju bättre på spel".

De 3 positiva delarna jag ser främst i det läget är
1) varken Intel eller AMD vill vara "lika bra"
2) man hade sluppit 3 sidor av diskussioner om 720p i testerna
3) AMD blir förhoppningsvis och förmodligen billigare än Intels dito

Skickades från m.sweclockers.com

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Vi får hoppas att Zen 2 överraskar positivt, vilket vore en prestation med tanke på hypen, AMD har varit ovanligt duktiga på att mörka.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Hjälpsam
Skrivet av Xyborg:

Det är väl redan ganska väletablerat från det som kommit ut att IPC i spel (i.e mest heltalsberäkningar) kommer att vara i stort sätt oförändrat från Zen+. Det kombinerat med Chiplets-designens latensproblematik gör ju att det inte är helt osannolikt att Zen 2 faktiskt kommer att prestera något sämre i spel om man ser rent till per kärna och frekvens.

Förhoppningsvis lyckas AMD väga upp det med ordentligt ökade frekvenser (och fler kärnor till samma prispunkt). Annars blir det inte någon hejdundrande spel-CPU.

Jag har inte riktigt förstått problemet med latenserna för Zen2.

Zen 1 har två Chiplets med fyra kärnor i varje, varje chiplet har en gemensam L3 cache, men för att kunna föra över data mellan Chiplet, krävs kommunikation via IF eller genom arbetsminnet.

Zen 2 bör ha gemensam L3 för alla kärnor inbyggt i IO-delen, alltså inget behov av kommunikation via IF eller arbetsminnet inte så länge data rymms i L3, L3 bör också kunna göras stor, IO-kretsen är grovt räknat dubbelt så stor som CPU-kretsarna.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Yoshman:

I front-end har man ju dels ökat storleken på mikro-op cache samt gjort "förändringar av L1$". Vad det senare betyder i detalj har AMD aldrig sagt, inte heller något man kan se i t.ex. kompilatorpatchar då kompilatorer inte kan göra något direkt vettig med information om instruktionscache. Min gissning är ändå att man krupit till korset här och gjort L1$ 8-set associativ. Drar lite mer ström än tidigare 4-set associativ, men gör det möjligt att köra L1$ och TLB parallellt med 4 kB "page" storlekar (AMD hävdade att de inte behövde detta i Zen/Zen+, men givet att i princip alla andra moderna högpresterande designer tycker det är en vettig optimering så tror jag AMD hade fel).

Vilka gigantiska svar, men väldigt informativa.

har jag fattat det rätt så ska front end delen på tex min gamla gen 1 zen vara gammal och ha en del gemensamt med bulldozer(eller piledriver)?
Den innehöll en del brister så den ska vara helt omarbetad och ny från grunden upp eller har jag vandrat ut på ryktes fältet? kan ju vara så att ingen vet hur mkt dom gjort om än och allt är vilda spekulationer?

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Datavetare
Skrivet av Ratatosk:

Jag har inte riktigt förstått problemet med latenserna för Zen2.

Zen 1 har två Chiplets med fyra kärnor i varje, varje chiplet har en gemensam L3 cache, men för att kunna föra över data mellan Chiplet, krävs kommunikation via IF eller genom arbetsminnet.

Zen 2 bör ha gemensam L3 för alla kärnor inbyggt i IO-delen, alltså inget behov av kommunikation via IF eller arbetsminnet inte så länge data rymms i L3, L3 bör också kunna göras stor, IO-kretsen är grovt räknat dubbelt så stor som CPU-kretsarna.

Nu är det förvånansvärt lite som är känt med tanke på hur nära vi borde vara ett släpp.

Men har det framkommit något som indikerar att L3$ är placerad i I/O-kretsen? Det känns väldigt osannolikt i mina öron givet att L3$ i Zen inte är placerad bakom Infinity Fabric utan är kopplad via en x-bar direkt till CPU-kärnorna i samma CCX.

Är helt övertygad att AMD satt storleken på CCX till fyra kärnor just för att kunna använda en x-bar. Fördelarna med x-bar är låg och helt uniform latens mellan alla punkter, nackdelen är att komplexiteten sett till antal transistorer som behövs är exponentiellt mot antalet anslutningar.

Mycket pekar på att L3$ per CCX är fördubblat i Zen2 mot tidigare. Är mer eller mindre bekräftat för Rome i alla fall via SiSoft Sandra (x16 16 MB L3 i en 64 kärnors CPU, det betyder i så fall att varje CCX fortfarande har 4 kärnor).

Även för Ryzen 3000 pekar mycket på 16 MB L3$ per CCX, detta då knät för var minneslatensen ökar rejält ligger mellan 16-32 MB i UserBenchmark jämfört med att ligga mellan 8-16 MB på alla Zen/Zen+ modeller (även Epyc och TR, vilket pekar på att latenstestet är helt enkeltrådat).

Det som kan vara problemet med att släppa en integrerad minneskontroller är att vissa applikationer är väldigt latenskänsliga, bl.a. spel. Det syns väldigt väl både när man jämför Athlon XP 3200 +(ingen integrerad minneskontroller) och Athlon 64 3200+. Sett till ALUs och cache är dessa otroligt lika så länge man kör 32-bitars kod (vilket i princip alla Windows-program var på den tiden). De har också nästan exakt samma frekvens, 2,2 GHz mot 2,0 GHz.

Kikar på t.ex. Cinebench gör minneskontrollern ingen skillnad, båda CPUerna presterar i det närmaste identiskt

I spel är det en dramatisk skillnad.

Samma mönster ser man om man jämför i5-661 "Clarkdale" (Westmere med GPU/IO/minneskontroller krets + separat CPU-krets) med i5-750 "Lynnfield" (Nehalem med integrerad minneskontroller). i5-661 är snabbare i t.ex. Cinebench (och en del andra applikationer där latens är oviktigt) tack vare sin högre frekvens medan i5-750 är snabbare i spel.

Lite lurigt att jämföra i5-750 (4C/4T) med i5-661 (2C/4T). Man får kolla på hur Core2Duo står sig mot Core2Quad, i de flesta spel är den förra snabbare p.g.a. högre frekvens -> spelet kan inte dra nytta av mer än 2C/2T som C2D har.

Nu finns ändå en del generella förbättringar mellan Zen+ och Zen2 samt att vi alla verkar vara rätt övertygade om att Zen2 kommer klocka högre. Så behöver inte bli lika illa som ovan.

Själv har jag redan räknat med att skaffa en 8C eller 12C Ryzen 3000 efter semestern. Behöver en ny maskin för programmering, där är latens inte helt oviktigt men det är långtifrån lika känsligt som spel. Ska Zen2 utmana 9000-serien i spelprestanda måste nog frekvenserna upp på rejäla nivåer!

Skrivet av Aka_The_Barf:

Vilka gigantiska svar, men väldigt informativa.

har jag fattat det rätt så ska front end delen på tex min gamla gen 1 zen vara gammal och ha en del gemensamt med bulldozer(eller piledriver)?
Den innehöll en del brister så den ska vara helt omarbetad och ny från grunden upp eller har jag vandrat ut på ryktes fältet? kan ju vara så att ingen vet hur mkt dom gjort om än och allt är vilda spekulationer?

Zen/Zen+ har väldigt lite gemensamt med Bulldozer i front-end. Är betydligt mer en Jaguar med dubbel bredd, vilket är en komplimang då Jaguar presterar riktigt bra för att vara "2-wide".

Bulldozer serien hade ett extremt märkligt val i sin L1D$ policy, Zen har exakt de val man förväntar sig av en högpresterande CPU >2010.

Det AMD gjorde helt rätt med Zen var att verkligen gå "all-in" vad det gäller bredd. På flera håll är Zen "bredare" än Skylake, något som bl.a. Anger Fog nämner i sin eminenta beskrivning av x86-pipelines. Är först med "Sunny Cove" som Core-serien får samma totala "bredd" på "back-end" som Zen (fast Intel och AMD prioriterar väldigt olika i vad olika pipelines gör, "Sunny Cove" kommer göra att Core divergerar än mer från Zen mot tidigare, så väldigt spännande att jämföra dessa designer).

Sett till teoretisk kapacitet finns knappast några relevanta flaskhalsar i vare sig "front-end" eller "back-end" i Zen/Zen2. När man kör "normala" program är faktiskt IPC (antal x86 instruktioner som körs per cykel i genomsnitt) inte ens hälften av teoretisk kapacitet.

Största problemet AMD/Intel har är att x86 instruktionerna är hjärndött designade givet dagens krav. Majoriteten av alla designval var rätt när de togs, men många av de fundamentala penseldragen gjordes ju sent 70-tal och på 80-talet!!!

Tror inte AMD hade designat Zen riktigt lika "bred" om det inte var att man initialt planerade för att göra en CPU där allt utom "front-end" delades mellan Zen (x86) och K12 (Aarch64, d.v.s. 64-bitars ARM). Hade varit riktigt kul och sett K12 prestandan (var tänkt som en server CPU) givet att Apples ARM-design har 40-50 % högre IPC mot Skylake och senaste CPUn från ARM själva (Cortex A76 samt servervarianten "Ares") har IPC helt i nivå med Zen/Skylake trots att den är långt smalare än Apples CPU.

Att göra en 4-wide x86 pipeline (som Zen är, Skylake är 5-wide fast det är en del restriktioner associerade med 4 av de 5 rören) är verkligen på raketforskningsnivå. Att göra en 4-wide Aarch64 är relativt enkelt och är något man idag hittar i nivån under topptelefonerna, Apples senaste CPU har en 7-wide front-end!!!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Nu är det förvånansvärt lite som är känt med tanke på hur nära vi borde vara ett släpp.

Men har det framkommit något som indikerar att L3$ är placerad i I/O-kretsen? Det känns väldigt osannolikt i mina öron givet att L3$ i Zen inte är placerad bakom Infinity Fabric utan är kopplad via en x-bar direkt till CPU-kärnorna i samma CCX.

Är helt övertygad att AMD satt storleken på CCX till fyra kärnor just för att kunna använda en x-bar. Fördelarna med x-bar är låg och helt uniform latens mellan alla punkter, nackdelen är att komplexiteten sett till antal transistorer som behövs är exponentiellt mot antalet anslutningar.

Mycket pekar på att L3$ per CCX är fördubblat i Zen2 mot tidigare. Är mer eller mindre bekräftat för Rome i alla fall via SiSoft Sandra (x16 16 MB L3 i en 64 kärnors CPU, det betyder i så fall att varje CCX fortfarande har 4 kärnor).

Även för Ryzen 3000 pekar mycket på 16 MB L3$ per CCX, detta då knät för var minneslatensen ökar rejält ligger mellan 16-32 MB i UserBenchmark jämfört med att ligga mellan 8-16 MB på alla Zen/Zen+ modeller (även Epyc och TR, vilket pekar på att latenstestet är helt enkeltrådat).

Det som kan vara problemet med att släppa en integrerad minneskontroller är att vissa applikationer är väldigt latenskänsliga, bl.a. spel. Det syns väldigt väl både när man jämför Athlon XP 3200 +(ingen integrerad minneskontroller) och Athlon 64 3200+. Sett till ALUs och cache är dessa otroligt lika så länge man kör 32-bitars kod (vilket i princip alla Windows-program var på den tiden). De har också nästan exakt samma frekvens, 2,2 GHz mot 2,0 GHz.

Kikar på t.ex. Cinebench gör minneskontrollern ingen skillnad, båda CPUerna presterar i det närmaste identiskt
https://techreport.com/r.x/athlon64/cine-render.gif

I spel är det en dramatisk skillnad.
https://techreport.com/r.x/athlon64/q3a.gif

Samma mönster ser man om man jämför i5-661 "Clarkdale" (Westmere med GPU/IO/minneskontroller krets + separat CPU-krets) med i5-750 "Lynnfield" (Nehalem med integrerad minneskontroller). i5-661 är snabbare i t.ex. Cinebench (och en del andra applikationer där latens är oviktigt) tack vare sin högre frekvens medan i5-750 är snabbare i spel.
https://images.anandtech.com/graphs/clarkdalelaunch_010310105346/21159.png
Lite lurigt att jämföra i5-750 (4C/4T) med i5-661 (2C/4T). Man får kolla på hur Core2Duo står sig mot Core2Quad, i de flesta spel är den förra snabbare p.g.a. högre frekvens -> spelet kan inte dra nytta av mer än 2C/2T som C2D har.
https://images.anandtech.com/graphs/clarkdalelaunch_010310105346/21169.png

Nu finns ändå en del generella förbättringar mellan Zen+ och Zen2 samt att vi alla verkar vara rätt övertygade om att Zen2 kommer klocka högre. Så behöver inte bli lika illa som ovan.

Själv har jag redan räknat med att skaffa en 8C eller 12C Ryzen 3000 efter semestern. Behöver en ny maskin för programmering, där är latens inte helt oviktigt men det är långtifrån lika känsligt som spel. Ska Zen2 utmana 9000-serien i spelprestanda måste nog frekvenserna upp på rejäla nivåer!

Zen/Zen+ har väldigt lite gemensamt med Bulldozer i front-end. Är betydligt mer en Jaguar med dubbel bredd, vilket är en komplimang då Jaguar presterar riktigt bra för att vara "2-wide".

Bulldozer serien hade ett extremt märkligt val i sin L1D$ policy, Zen har exakt de val man förväntar sig av en högpresterande CPU >2010.

Det AMD gjorde helt rätt med Zen var att verkligen gå "all-in" vad det gäller bredd. På flera håll är Zen "bredare" än Skylake, något som bl.a. Anger Fog nämner i sin eminenta beskrivning av x86-pipelines. Är först med "Sunny Cove" som Core-serien får samma totala "bredd" på "back-end" som Zen (fast Intel och AMD prioriterar väldigt olika i vad olika pipelines gör, "Sunny Cove" kommer göra att Core divergerar än mer från Zen mot tidigare, så väldigt spännande att jämföra dessa designer).

Sett till teoretisk kapacitet finns knappast några relevanta flaskhalsar i vare sig "front-end" eller "back-end" i Zen/Zen2. När man kör "normala" program är faktiskt IPC (antal x86 instruktioner som körs per cykel i genomsnitt) inte ens hälften av teoretisk kapacitet.

Största problemet AMD/Intel har är att x86 instruktionerna är hjärndött designade givet dagens krav. Majoriteten av alla designval var rätt när de togs, men många av de fundamentala penseldragen gjordes ju sent 70-tal och på 80-talet!!!

Tror inte AMD hade designat Zen riktigt lika "bred" om det inte var att man initialt planerade för att göra en CPU där allt utom "front-end" delades mellan Zen (x86) och K12 (Aarch64, d.v.s. 64-bitars ARM). Hade varit riktigt kul och sett K12 prestandan (var tänkt som en server CPU) givet att Apples ARM-design har 40-50 % högre IPC mot Skylake och senaste CPUn från ARM själva (Cortex A76 samt servervarianten "Ares") har IPC helt i nivå med Zen/Skylake trots att den är långt smalare än Apples CPU.

Att göra en 4-wide x86 pipeline (som Zen är, Skylake är 5-wide fast det är en del restriktioner associerade med 4 av de 5 rören) är verkligen på raketforskningsnivå. Att göra en 4-wide Aarch64 är relativt enkelt och är något man idag hittar i nivån under topptelefonerna, Apples senaste CPU har en 7-wide front-end!!!

Mycket intressant. Då hade känslan rätt om att det nog inte stämde om bulldozer delarna i zen.
"Bara" 3 månader kvar sen vet vi föhoppningsvis om inget blir försenat. Sen mot höst/jul kommer väll navi som kanske kan bråka lite med nvidias högsta segment?

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

@Aka_The_Barf: Navi ska inte bråka med det högsta segmentet enligt vad som sagts, Navi handlar om mycket för pengarna. Typ GTX1080 prestanda fast en hel del billigare än RTX2060. Det är Arcturus som kommer nästa år som ska konkurrera med Nvidias bästa. Fram tills dess förblir nog Radeon VII toppkortet(1080Ti/RTX2080 prestanda).

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av Yoshman:

Nu är det förvånansvärt lite som är känt med tanke på hur nära vi borde vara ett släpp.

Nära och nära... Säkert 3-4 månader kvar. Och sen ytterligare några månader innan det faktiskt finns processorer hos testare och tidiga kunder.

Hur mycket visste folk om t ex NVidias Turing-baserade grafikkort i mars förra året?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Nära och nära... Säkert 3-4 månader kvar. Och sen ytterligare några månader innan det faktiskt finns processorer hos testare och tidiga kunder.

Hur mycket visste folk om t ex NVidias Turing-baserade grafikkort i mars förra året?

Många förväntar sig mer information i början av Maj, eftersom AMD fyller 50 år då. Det är bara en Månad kvar tills dess. Men faktiskt släpp och tillgänglighet lär dröja, det håller jag med om.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Jag tror inte det kommer nåt förrän i början av juli. Och sen leverans i september-oktober.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av the squonk:

@Aka_The_Barf: Navi ska inte bråka med det högsta segmentet enligt vad som sagts, Navi handlar om mycket för pengarna. Typ GTX1080 prestanda fast en hel del billigare än RTX2060. Det är Arcturus som kommer nästa år som ska konkurrera med Nvidias bästa. Fram tills dess förblir nog Radeon VII toppkortet(1080Ti/RTX2080 prestanda).

blir en lång väntan, men dom kanske ändrar sig, när ska detta arcturus komma in på marknaden?

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Hjälpsam
Skrivet av Yoshman:

Nu är det förvånansvärt lite som är känt med tanke på hur nära vi borde vara ett släpp.

Men har det framkommit något som indikerar att L3$ är placerad i I/O-kretsen? Det känns väldigt osannolikt i mina öron givet att L3$ i Zen inte är placerad bakom Infinity Fabric utan är kopplad via en x-bar direkt till CPU-kärnorna i samma CCX.

Är helt övertygad att AMD satt storleken på CCX till fyra kärnor just för att kunna använda en x-bar. Fördelarna med x-bar är låg och helt uniform latens mellan alla punkter, nackdelen är att komplexiteten sett till antal transistorer som behövs är exponentiellt mot antalet anslutningar.

Mycket pekar på att L3$ per CCX är fördubblat i Zen2 mot tidigare. Är mer eller mindre bekräftat för Rome i alla fall via SiSoft Sandra (x16 16 MB L3 i en 64 kärnors CPU, det betyder i så fall att varje CCX fortfarande har 4 kärnor).

Även för Ryzen 3000 pekar mycket på 16 MB L3$ per CCX, detta då knät för var minneslatensen ökar rejält ligger mellan 16-32 MB i UserBenchmark jämfört med att ligga mellan 8-16 MB på alla Zen/Zen+ modeller (även Epyc och TR, vilket pekar på att latenstestet är helt enkeltrådat).

Det som kan vara problemet med att släppa en integrerad minneskontroller är att vissa applikationer är väldigt latenskänsliga, bl.a. spel. Det syns väldigt väl både när man jämför Athlon XP 3200 +(ingen integrerad minneskontroller) och Athlon 64 3200+. Sett till ALUs och cache är dessa otroligt lika så länge man kör 32-bitars kod (vilket i princip alla Windows-program var på den tiden). De har också nästan exakt samma frekvens, 2,2 GHz mot 2,0 GHz.

Kikar på t.ex. Cinebench gör minneskontrollern ingen skillnad, båda CPUerna presterar i det närmaste identiskt
https://techreport.com/r.x/athlon64/cine-render.gif

I spel är det en dramatisk skillnad.
https://techreport.com/r.x/athlon64/q3a.gif

Samma mönster ser man om man jämför i5-661 "Clarkdale" (Westmere med GPU/IO/minneskontroller krets + separat CPU-krets) med i5-750 "Lynnfield" (Nehalem med integrerad minneskontroller). i5-661 är snabbare i t.ex. Cinebench (och en del andra applikationer där latens är oviktigt) tack vare sin högre frekvens medan i5-750 är snabbare i spel.
https://images.anandtech.com/graphs/clarkdalelaunch_010310105346/21159.png
Lite lurigt att jämföra i5-750 (4C/4T) med i5-661 (2C/4T). Man får kolla på hur Core2Duo står sig mot Core2Quad, i de flesta spel är den förra snabbare p.g.a. högre frekvens -> spelet kan inte dra nytta av mer än 2C/2T som C2D har.
https://images.anandtech.com/graphs/clarkdalelaunch_010310105346/21169.png

Nu finns ändå en del generella förbättringar mellan Zen+ och Zen2 samt att vi alla verkar vara rätt övertygade om att Zen2 kommer klocka högre. Så behöver inte bli lika illa som ovan.

Själv har jag redan räknat med att skaffa en 8C eller 12C Ryzen 3000 efter semestern. Behöver en ny maskin för programmering, där är latens inte helt oviktigt men det är långtifrån lika känsligt som spel. Ska Zen2 utmana 9000-serien i spelprestanda måste nog frekvenserna upp på rejäla nivåer!

Zen/Zen+ har väldigt lite gemensamt med Bulldozer i front-end. Är betydligt mer en Jaguar med dubbel bredd, vilket är en komplimang då Jaguar presterar riktigt bra för att vara "2-wide".

Bulldozer serien hade ett extremt märkligt val i sin L1D$ policy, Zen har exakt de val man förväntar sig av en högpresterande CPU >2010.

Det AMD gjorde helt rätt med Zen var att verkligen gå "all-in" vad det gäller bredd. På flera håll är Zen "bredare" än Skylake, något som bl.a. Anger Fog nämner i sin eminenta beskrivning av x86-pipelines. Är först med "Sunny Cove" som Core-serien får samma totala "bredd" på "back-end" som Zen (fast Intel och AMD prioriterar väldigt olika i vad olika pipelines gör, "Sunny Cove" kommer göra att Core divergerar än mer från Zen mot tidigare, så väldigt spännande att jämföra dessa designer).

Sett till teoretisk kapacitet finns knappast några relevanta flaskhalsar i vare sig "front-end" eller "back-end" i Zen/Zen2. När man kör "normala" program är faktiskt IPC (antal x86 instruktioner som körs per cykel i genomsnitt) inte ens hälften av teoretisk kapacitet.

Största problemet AMD/Intel har är att x86 instruktionerna är hjärndött designade givet dagens krav. Majoriteten av alla designval var rätt när de togs, men många av de fundamentala penseldragen gjordes ju sent 70-tal och på 80-talet!!!

Tror inte AMD hade designat Zen riktigt lika "bred" om det inte var att man initialt planerade för att göra en CPU där allt utom "front-end" delades mellan Zen (x86) och K12 (Aarch64, d.v.s. 64-bitars ARM). Hade varit riktigt kul och sett K12 prestandan (var tänkt som en server CPU) givet att Apples ARM-design har 40-50 % högre IPC mot Skylake och senaste CPUn från ARM själva (Cortex A76 samt servervarianten "Ares") har IPC helt i nivå med Zen/Skylake trots att den är långt smalare än Apples CPU.

Att göra en 4-wide x86 pipeline (som Zen är, Skylake är 5-wide fast det är en del restriktioner associerade med 4 av de 5 rören) är verkligen på raketforskningsnivå. Att göra en 4-wide Aarch64 är relativt enkelt och är något man idag hittar i nivån under topptelefonerna, Apples senaste CPU har en 7-wide front-end!!!

Verkar onekligen som att CCX med fyra kärnor kommer att finnas även till Zen 2.
Jag utgår från att CPU kretsarna kommer att bli ganska lika varandra mellan Ryzen 3000 och Epic, det är så AMD verkar jobba nu.
Varför jag var inne på en stor L3 i IO delen, är delvis pga dess storlek men även som en kommunikation mellan kärnorna, Lisa har nämnt att kommunikation inte sker direkt mellan CPU:r utan det sker via IO delen.

Funderar på detta med 16 MB L3, i det resultat du länkade får vi ju en fördubbling i latens mellan 8 och 16 MB, undrar varför, är det bara mätmetoden?
Verkar inte heller finnas någon L4 gömd i IO-delen, vilket förvånar mig, vad används all den ytan till?

Angående frekvens, har jag sett det nämnas grova siffror, på antingen halva effekten vid samma frekvens, 25% högre frekvens vid samma effekt eller allt där i mellan, tex 12% högre frekvens och 75% av förbrukningen.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av the squonk:

@Aka_The_Barf: Navi ska inte bråka med det högsta segmentet enligt vad som sagts, Navi handlar om mycket för pengarna. Typ GTX1080 prestanda fast en hel del billigare än RTX2060. Det är Arcturus som kommer nästa år som ska konkurrera med Nvidias bästa. Fram tills dess förblir nog Radeon VII toppkortet(1080Ti/RTX2080 prestanda).

Det är inte vad som sagts. Vad som sagts är att versionerna upp till mellansegmentet kommer först. Dessa inkluderar Navi10 (och Navi10_Lite?). Dessa kommer i år.

Navi20 är den som kommer under nästa år och är tänkt att vara i det högsta segmentet. Men om man kallar Navi20 för Arcturus så stämmer ju det som du säger . De kan kalla den vad de vill egentligen.

Det ska bli intressant att se hur de får in Navi i APU:er och hur de kommer prestera där tillsammans med Zen2.

Skrivet av Aka_The_Barf:

blir en lång väntan, men dom kanske ändrar sig, när ska detta arcturus komma in på marknaden?

"Early 2020" är vad jag hörde senast (Navi20, alltså). Den ska även ha hårdvaruaccelererad raytracing (enligt rykte).

Permalänk
Medlem
Skrivet av cyklonen:

Jag tror inte det kommer nåt förrän i början av juli. Och sen leverans i september-oktober.

Jag tror på mer info i början på Maj på AMD 50 års event med första produkterna i handeln i början av Juli och massa moderkort på Computex av X570.

Men bara tiden lär avgöra detta men tror att 12-16 Core kan dröja till senare mot Augusti och 8 Core finns till Sommaren.

Visa signatur

Chassi: Ssupd Meshroom S V2, Moderkort: Gigabyte Aorus X570I Pro Wifi, Processor:Ryzen 7 5800X3D , Cpu kylare: EK-AIO Elite 280 D-RGB Minnen Gskill Ripsaw 16 Gb Cl16 3600 mhz,Startdisk:SSD Samsung 970 Evo plus 1 TB , Grafikkort:PNY RTX4070TI Super Verto Oc PSU: Corsair SF850L Skärm: ASUS ROG Swift PG278Q Tillbehör: Logitech G903 & Funk KB460 , Logitech Z520 datorhögtalare.

Permalänk
Datavetare
Skrivet av cyklonen:

Nära och nära... Säkert 3-4 månader kvar. Och sen ytterligare några månader innan det faktiskt finns processorer hos testare och tidiga kunder.

Hur mycket visste folk om t ex NVidias Turing-baserade grafikkort i mars förra året?

Tror också att Ryzen 3000 kommer bli tillgänglig i handeln slutet av juli, början av augusti ("back-to-school" tiden är en populärt för lanseringar och vettigt ekonomiskt då det är stor försäljning då).

Däremot är det ju bara två månader kvar till Computex, en månad till AMDs 50 års jubileum. På någon av dessa borde det komma en presentation av produkterna ("product announcement", inte "product release").

Frågan är om något oväntat har hänt givet att Lisa Su har varit klart med att Epyc Rome kommer släppas innan Ryzen 3000? När AMD presenterade sin Q4 2017 resultat (så lite över ett år sedan) sades det att Epyc lanseringen skulle ligga tidigt 2019 (vilket nog alla tolkade som inom Q1), det har inte hänt.

"as well as the EPYC Rome server cores will begin in late 2018, with worldwide availability scheduled for early 2019"

Om nu Epyc Rome ska lanseras innan Ryzen 3000 borde ju i alla fall servermodellerna hitta ut relativt snart. Då de använder samma CPU-krets räcker ju den lanseringen för att svara på det mesta. Tyvärr lär det inte säga speciellt mycket om frekvenser för Ryzen 3000, för Rome har AMD redan sagt att det frekvenserna kommer backa något jämfört med Naples. Fast det beror nog primärt på att man måste hålla TDP på en rimlig nivå, 64 st x86 kärnor i samma paket är en utmaning...

Och slutligen. Både AMD och Intel har tyvärr blivit mycket mindre villiga att presentera detaljer om sina CPUer, det även efter släpp Men nog brukar man veta lite mer konkret 3-4 månader innan släpp?

Vi har ju långt bättre koll på Sunny Cove som tidigast lär hitta ut mitten/slutet av Q3 i år (då för bärbara, det faktum att Comet Lake är på ingång gör att jag gissar att Willow Cove blir första desktop CPU på 10 nm för Intel).

För Sunny Cove finns ju rätt bra officiell information om mikroarkitektur, största förändringen sedan Core2 för ett enda steg!
Skrivet av Ratatosk:

Verkar onekligen som att CCX med fyra kärnor kommer att finnas även till Zen 2.
Jag utgår från att CPU kretsarna kommer att bli ganska lika varandra mellan Ryzen 3000 och Epic, det är så AMD verkar jobba nu.
Varför jag var inne på en stor L3 i IO delen, är delvis pga dess storlek men även som en kommunikation mellan kärnorna, Lisa har nämnt att kommunikation inte sker direkt mellan CPU:r utan det sker via IO delen.

Funderar på detta med 16 MB L3, i det resultat du länkade får vi ju en fördubbling i latens mellan 8 och 16 MB, undrar varför, är det bara mätmetoden?
Verkar inte heller finnas någon L4 gömd i IO-delen, vilket förvånar mig, vad används all den ytan till?

Angående frekvens, har jag sett det nämnas grova siffror, på antingen halva effekten vid samma frekvens, 25% högre frekvens vid samma effekt eller allt där i mellan, tex 12% högre frekvens och 75% av förbrukningen.

123 mm^2 är hyfsat stort för en I/O-krets om det inte finns eDRAM, en GPU eller någon sådant. Är å andra sidan lite litet för just eDRAM ("L4$") eller en GPU (men är det omöjligt?). Vet inte vad det annars skulle vara då man är begränsad av att hålla socket-kompatibilitet. Just eDRAM och GPU är båda möjliga då båda är fullt användbara på den socket man har.

Skulle inte dra speciellt mycket slutsatser från absolutvärden i userbenchmark mätningen, är formen på kurvan som ger någon vettig information här.

Med eDRAM borde man ser något likt detta (5775C)
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Att man flyttat minneskontroller från CPU-kretsen in i en separat I/O-krets är ju en annan dramatisk förändring. Så Zen2 innehåller rejäla förändringar, frågan är bara vad utfallet blir då förändringen av minneskontroller lär påverka latenskänsliga applikationer negativt och man verkar ha noll IPC ökning för heltal att kompensera detta med (latenskänsliga applikationer är typiskt heltalsintensiva, t.ex. spel).

Är inte spel ganska intensiva även på SIMD och flyttal? Matrismultiplikationer, positioner, rotationer? Vet du vilket förhållande det är mellan int / float operationer i spel?

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Är inte spel ganska intensiva även på SIMD och flyttal? Matrismultiplikationer, positioner, rotationer? Vet du vilket förhållande det är mellan int / float operationer i spel?

Spel är väldigt SIMD (eller som GPU-tillverkarna kallar det, SIMT) intensiva. Men dessa matrisberäkningar görs ju nästan uteslutande på GPU, inte på CPU.

Givet att vi sett lite islossning på GPGPU den senaste tiden betyder nog att allt mer av det där SIMD är vettigt kommer flytta till GPU. Dock inte till 100 %, för att det ska vara vettigt att köra något på GPU måste problemet vara "tillräckligt stort" (typ kräva >10,000 klockcykler eller mer på en CPU).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Spel är väldigt SIMD (eller som GPU-tillverkarna kallar det, SIMT) intensiva. Men dessa matrisberäkningar görs ju nästan uteslutande på GPU, inte på CPU.

Givet att vi sett lite islossning på GPGPU den senaste tiden betyder nog att allt mer av det där SIMD är vettigt kommer flytta till GPU. Dock inte till 100 %, för att det ska vara vettigt att köra något på GPU måste problemet vara "tillräckligt stort" (typ kräva >10,000 klockcykler eller mer på en CPU).

Om vi tänker på t.ex Projection * View * Model så ska detta alltid göras på CPU (för då behöver man bara göra det en gång), eftersom det är ett värde som kommer att gälla för varenda punkt / triangel. I en scen där t.ex modeller har t.ex 500 trianglar så skulle det behövas göra 250 ggr mer arbete (50% borträknad culling för baksidor) om man gjorde det på GPU i stället.

Och så här har det varit i många många år. Jag tror inte att det är nästan uteslutande.

Jag skulle nog säga att spel är den typen av applikation som är mest flyttals/simd-intensiv av de flesta man använder. Med kanske väldigt stora excelfiler som undantag.

Därför är jag nyfiken på vilka proportioner det är mellan float / int. Är det 5/95 så kommer det inte påverka så mycket, men är det 20/80 så lär det påverka.

Visa signatur

Hur många datorer är för många?

Permalänk
Datavetare
Skrivet av kelthar:

Om vi tänker på t.ex Projection * View * Model så ska detta alltid göras på CPU (för då behöver man bara göra det en gång), eftersom det är ett värde som kommer att gälla för varenda punkt / triangel. I en scen där t.ex modeller har t.ex 500 trianglar så skulle det behövas göra 250 ggr mer arbete (50% borträknad culling för baksidor) om man gjorde det på GPU i stället.

Och så här har det varit i många många år. Jag tror inte att det är nästan uteslutande.

Jag skulle nog säga att spel är den typen av applikation som är mest flyttals/simd-intensiv av de flesta man använder. Med kanske väldigt stora excelfiler som undantag.

Därför är jag nyfiken på vilka proportioner det är mellan float / int. Är det 5/95 så kommer det inte påverka så mycket, men är det 20/80 så lär det påverka.

Finns det flyttalsberäkningar i moderna spel: absolut!

Frågan är om de flyttalsberäkningar som utförs på CPU på något sätt är en relevant flaskhals på det stora hela?

Lackmustestet är ju: om så är fallet borde Zen/Zen+ presterar relativt bättre mot Skylake än det gör i applikationer som vi vet är i princip 100 % heltal. Skulle säga att redan här har vi en stark indikation på att flyttalsprestanda inte är en relevant flaskhals för CPU i spel då det är en av de applikationer där övertaget för Skylake är som störst.

Inte ett perfekt sätt (det som spelar roll är ju hur många instruktioner som faktiskt körs som är av en viss typ), men dumpade assembler för tre 3D-spel jag har på min Linux-maskin (använder inte Windows för programutveckling så måste installera massa saker för att göra detta på spelmaskinen). Andelen flyttalsoperationer varierade mellan 3-6 %.

Just fallet du beskriver skulle jag gissa rätt mycket hanteras så att man gör majoriteten av de beräkningar en gång "up-front". Sedan cachar man resultatet i t.ex. med "binary space partitioning" som då rätt mycket gör det mer till ett heltalsproblem (if/else logik för att avgöra var i trädet man ser och inte ser).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av kelthar:

Om vi tänker på t.ex Projection * View * Model så ska detta alltid göras på CPU (för då behöver man bara göra det en gång), eftersom det är ett värde som kommer att gälla för varenda punkt / triangel. I en scen där t.ex modeller har t.ex 500 trianglar så skulle det behövas göra 250 ggr mer arbete (50% borträknad culling för baksidor) om man gjorde det på GPU i stället.

Och så här har det varit i många många år. Jag tror inte att det är nästan uteslutande.

Jag skulle nog säga att spel är den typen av applikation som är mest flyttals/simd-intensiv av de flesta man använder. Med kanske väldigt stora excelfiler som undantag.

Därför är jag nyfiken på vilka proportioner det är mellan float / int. Är det 5/95 så kommer det inte påverka så mycket, men är det 20/80 så lär det påverka.

Ja, det skulle vara intressant att se hur proportionerna är i spel för CPU sidan och vad det är som är mest tidskrävande.

Det finns ett hyfsat intressant fall med RoTR, då AMD var de som steppade in och gjorde optimeringar. Där kan en 2700X med snabbt minne få lika bra resultat som en 8086k. Värt att notera att under DX11 så får 8086 mycket högre FPS under en scen (mountain peak) , men lägre på de andra om jag minns rätt. Ryzen får sämre prestanda under DX11 om jag minns rätt. Här är en jämförelse Ryzen innan patchen som förbättrade prestandan i DX12.

“Rise of the Tomb Raider splits rendering tasks to run on different threads,” Crystal Dynamics said. “By tuning the size of those tasks – breaking some up, allowing multicore CPUs to contribute in more cases, and combining some others, to reduce overheads in the scheduler – the game can more efficiently exploit extra threads on the host CPU.”

Det är förstås bara ett fall , men det gör att man ställer sig frågan: Kan det ha att göra med kommunikationen mellan CPU och GPU som alltid är närvarande i spel? (Självklart är det inte utan parenteser, en dålig DX12 implementation är mycket sämre än en dålig DX11 implementation).

Det gjordes ett test igår där computerbase prestandatestade det nya DX12 i Hitman 2. Om man ser i första (CPU test scene) så har Ryzen horribla resultat i DX11, men 25-38% bättre prestanda i DX12 jämfört med DX11. För 9900k blir det lite varierat, i vissa fall bättre, i vissa fall sämre, i vissa fall ingen skillnad. Förmodligen är det GPU:n som begränsar i det fallet, som det ska vara. Visst, det kan vara så att med ett 2080ti kan det vara 40% övertag för 9900k , eller inte. Man vet inte innan man testat. I de GPU-begränsade fallen så kunde DX12 vara en nackdel för NVIDIA GPU:er.

Men om DX12 kan hjälpa Ryzen att få prestanda närmare Intels, och NVIDIA är de som pushar DX12 med ray tracing, så kan det vara positivt för AMD. Det gäller förstås att göra bra implementationer, vilket kanske inte är det lättaste i världen . Det kommer inte räcka med att slänga på DX12 så löser sig alla AMDs problem.

Permalänk
Medlem
Skrivet av cyklonen:

Jag tror inte det kommer nåt förrän i början av juli. Och sen leverans i september-oktober.

Jag tror faktiskt att vi inte behöver vänta så länge till. Bilder och specs på många av moderkorten har redan läckt ut, och det brukar betyda att något är i görningen. Historiskt sett alltså, men det brukar sällan slå fel.

Permalänk
Medlem

Att Intel hastigt och lustigt släpper en ny stepping kan vara ett svar på en nära förestående Ryzen 3000 launch. överklockare brukar älska nya steppings och det kan ta lite fokus från AMD. OM det är så att R0 klockar 200MHz högre, kan det vara ett tecken på att Intel kan tycka att det kommer att behövas.

Dom flesta moderkort verkar redan ha fått Zen 2 kompatibla bios, varför har dom fått det om det är 3-4 månader kvar?

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||