AMD Ryzen 5000 "Vermeer"-resultat från Geekbench läcker ut

Permalänk
Medlem

Någon som vet något om tillgängligheten vid släpp? Kanske något rykte att lagren är överfulla eller det ekar tomt i AMD's lador, kanske PGA PS5 och XBOX?
Det kanske bara är att boka en direkt nu om det går och hoppas man väljer "rätt" modell?

Jag brukar vänta och bida min tid men ibland så måste man testa sina vingar och se om den funkar

1080 kortet köpte jag direkt utan ha sett tester eller något och det var en lyckoträff, kan man ha sån tur 2 gånger tro?

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Vad tror ni om oddsen att det dyker upp en 8-kärnig på 2 CCD? Om yield är dålig hade ju det varit en möjlighet. En eventuell sådan CPU skulle ha ett signifikant underläge mot 5800X som, att dömma av cachen, är en CCD.

Permalänk
Medlem
Skrivet av infigo:

De får du nog drömma vidare om. Kanske finns några exemplar som kommer ut som kan det. Har inte sett (eller glömt bort) vad all core är på de 5900x, men 4.4 maybe all core känns möjligt.
Det är ju single core som de specar.

Tror det blir bättre än så, jag har i mitt system med en silver cpu 4.45 och 4.35 med CTR tuning och man kan ju hoppas att nästa gen. skall bli lite bättre. Iofs är det mer cores per ccx så...

Däremot så kanske men inte vill köra all core då schedulern nu har dubbelt så många kärnor att jobba med. Schedulern bouncar en core mellan fler kärnor för att reducera degradering och kontrollera värme men att hoppa mellan ccx har en prestanda smäll. Med dubbelt så många kärnor har schedulern en större chans att hitta två bra kärnor och dessutom så är dom separerade mer och detta kan bidra till värme kontroll.

PBO kanske kommer bli det man vill köra den här gången!

Permalänk
Medlem
Skrivet av dakke:

nää men de borde sänka kostnaden på 5950x markant, att betala så mycket mer för sämre prestanda i 99% av arbetslasterna verkar galet.

Varför? Iofs kan man ju balka lite på att dom kallar 5950x (och 3950x) gaming cpus men det finns de som vill ha de extra kärnorna och är villiga att betala för dom (har inget med gaming o göra), kompilering, video editering etc. Bara för att en person inte riktigt är i målgruppen finns det väl ingen anledning att sänka priserna...

Permalänk
Medlem

Så sugen på och se vilken modell som hamnar i samma prestanda som 10600k och kanske slå till på TEAM RED det här året. Om det blir billigare självklart.

Permalänk
Medlem

Verkar lovande

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Någon som gjort riktiga tester än eller kör alla bara poängräknare?

Visa signatur

www.fckdrm.com - DRM år 2024? Ha pyttsan.

Permalänk
Datavetare
Skrivet av Ozzed:

Min 3900X får 1380 poäng i enkeltrådat, och ~14300 i multitrådat (Med FIT-bug och andra optimeringar i UEFI till Crosshair VII Hero enligt denna guide https://www.overclock.net/threads/rog-crosshair-vii-overclock...

Antar att detta är i Stock, så kan nog pressas högre i både enkeltrådat och flertrådat med PBO och andra tricks- Därför är det rätt sjukt imponerande att en 5900X i standardutförande ändå är 16% snabbare i single-core än min rätt hårt optimerade 3900X Ska bli riktigt latjo att lägga vantarna på en och se vad den går för när vä nytt UEFI för Crosshair VII är tillgänglig!

Nej, jag kommer inte ha sönder min 3900X bara för att jag kör med FIT-buggen. Har ställt in ett lågt TDC enligt guiden så Ampere stryps rätt duktigt om den skulle närma sig att bli för varm, vilket minskar strömdensiteten och därmed så bör degradering kunna undvikas. elektrnmigration är ett resultat av hög temperatur OCH hög strömdensitet. Så ställer man TDC lågt kommer inte det att inträffa. Men man måste såklart veta vad man gör och oavsett vad så ryker ju garantin när man går utanför spex.

Dina tweeks påverkar nog mest MT-resultatet, har i princip exakt samma ST som ditt. Har en all-stock 3900X på "knäckebröds-moderkort" för tusenlappen där RAM är klockat till 2666 MT/s då det gav lite högre kompileringsprestanda än 2933 samt 3200 p.g.a. att CPUn håller lite högre frekvens med lägre RAM-hastighet (och den maskinen är helt optimerad som kompileringsserver).

Nu kör maskinen i artikeln Windows 10 Pro medan min kör Ubuntu 20.04, förhoppningsvis är det förklaringen då min maskin får något högre resultat jämfört med 5900X i "Clang" testet. Det är GB5 kompilatortest, clang är en kompilator som blivit enormt populär de senaste åren. Är bl.a. standardkompilator för MacOS, iOS och Android men används även allt mer under Windows och Linux.

Rapporterad klockfrekvens för 5900X ser lite lustig ut. GB5 mäter klockfrekvensen när den kör ST testerna, t.ex. får min 3900X 4510 Mhz i genomsnitt (är väldigt jämnt i alla tester), medan 5900X maskinen får ett genomsnitt på hela 4893 MHz och har peak:ar upp till 4947 MHz. Det är ju högre än specificerade 4,8 GHz max boost.

De beräknade "stock-resultatet" jag gjorde genom att skala frekvensen från den 5950X @ 6 GHz som postades igår visade sig föga oväntat stämma väldigt väl (inom några tiotals poäng sett till total poäng) med det vi nu ser. Här är en graf med min 3900X (som kör Linux, men även om delresultaten har viss variation mellan OS är GB5s totalresultat rätt oberoende av OS) samt den 5900X som postades här.

A14 är från det läckta Ipad Air 2020 resultatet som finns, 10900K är ett typiskt sådan resultat (rapporterad frekvens 5,190 GHz) samt en fiktiv 11900K beräknad genom att skala 1065G7 (som precis som Rocket Lake S kör Sunny Cove).

Klicka för mer information
Visa mer

AMD lär ha ledartröjan på x86 sidan minst fram till att 11900K släpps. Själv kan jag inte släppa hur brutalt imponerade det är att Apples A14 (som alltså inte är skalad på något sätt, det är faktiskt rapporterat resultat) håller jämna steg med 5900X!!! Vi tittar på peak-prestanda hos Iphone 12, en telefon mot en desktop CPU som drar en hyfsad bit över 100 W.

För den som vill läsa mer om vad GB5 testar rekommenderar jag detta dokument. Noterar att en annan trevlig förbättring i GB5 jämfört med GB4 är att man nu fattat att heltalsresultaten är långt viktigare för normalanvändaren än krypto och flyttal. Man viktar de olika delarna, heltalen står för 65 % av vikten, flyttal för 30 % och krypto för 5 %. För väldigt många är nog 100 % heltal ännu mer relevant, men totalpoängen är nog en rätt bra vink om prestandanivå för typiska desktop-uppgifter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av SpeedRebirth:

Vill man ha sweetspot så väntar man på 5700x.
3800x var ju inte direkt poppis jämfört med 3700x

Om 5700x ändå hade funnits

Permalänk
Medlem
Skrivet av Yoshman:

Dina tweeks påverkar nog mest MT-resultatet, har i princip exakt samma ST som ditt. Har en all-stock 3900X på "knäckebröds-moderkort" för tusenlappen där RAM är klockat till 2666 MT/s då det gav lite högre kompileringsprestanda än 2933 samt 3200 p.g.a. att CPUn håller lite högre frekvens med lägre RAM-hastighet (och den maskinen är helt optimerad som kompileringsserver).

Nu kör maskinen i artikeln Windows 10 Pro medan min kör Ubuntu 20.04, förhoppningsvis är det förklaringen då min maskin får något högre resultat jämfört med 5900X i "Clang" testet. Det är GB5 kompilatortest, clang är en kompilator som blivit enormt populär de senaste åren. Är bl.a. standardkompilator för MacOS, iOS och Android men används även allt mer under Windows och Linux.

Rapporterad klockfrekvens för 5900X ser lite lustig ut. GB5 mäter klockfrekvensen när den kör ST testerna, t.ex. får min 3900X 4510 Mhz i genomsnitt (är väldigt jämnt i alla tester), medan 5900X maskinen får ett genomsnitt på hela 4893 MHz och har peak:ar upp till 4947 MHz. Det är ju högre än specificerade 4,8 GHz max boost.

De beräknade "stock-resultatet" jag gjorde genom att skala frekvensen från den 5950X @ 6 GHz som postades igår visade sig föga oväntat stämma väldigt väl (inom några tiotals poäng sett till total poäng) med det vi nu ser. Här är en graf med min 3900X (som kör Linux, men även om delresultaten har viss variation mellan OS är GB5s totalresultat rätt oberoende av OS) samt den 5900X som postades här.

A14 är från det läckta Ipad Air 2020 resultatet som finns, 10900K är ett typiskt sådan resultat (rapporterad frekvens 5,190 GHz) samt en fiktiv 11900K beräknad genom att skala 1065G7 (som precis som Rocket Lake S kör Sunny Cove).

Klicka för mer information
Visa mer

AMD lär ha ledartröjan på x86 sidan minst fram till att 11900K släpps. Själv kan jag inte släppa hur brutalt imponerade det är att Apples A14 (som alltså inte är skalad på något sätt, det är faktiskt rapporterat resultat) håller jämna steg med 5900X!!! Vi tittar på peak-prestanda hos Iphone 12, en telefon mot en desktop CPU som drar en hyfsad bit över 100 W.

För den som vill läsa mer om vad GB5 testar rekommenderar jag detta dokument. Noterar att en annan trevlig förbättring i GB5 jämfört med GB4 är att man nu fattat att heltalsresultaten är långt viktigare för normalanvändaren än krypto och flyttal. Man viktar de olika delarna, heltalen står för 65 % av vikten, flyttal för 30 % och krypto för 5 %. För väldigt många är nog 100 % heltal ännu mer relevant, men totalpoängen är nog en rätt bra vink om prestandanivå för typiska desktop-uppgifter.

En förklaring är väl också att jag kör Windows, vars scheduler som du vet är rätt värdelös på att förstå sig på Ryzen. Har sett 1410 som mest tror jag men sparade tyvärr inte det resultatet så då är det bara anekdotiskt bevis och inget att ha.

Ja, att stänga av FIT påverkar främst flertrådade laster så single core är i princip opåverkad. Dock kör jag BCLK på 103.4 så borde väl egentligen nå högre då om du kör bone stock och med knäckebrödsbräda dessutom. Men har å andra sidan tyckt att min single-core prestanda är genomgående låg jämfört med andras så det är kanske förväntat.

Jo du har ju nämnt i ett antal trådar att X86 inte åldrats så bra, om man ska vara snäll, så att en mobilprocesor som inte är bunden till den arkitekturen presterar bättte är väl på ett sätt logiskt, samtidigt som det är häpnadsväckande vilken skillnad i prestanda/Watt det innebär!

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Någon som bara kan klargöra ifall befintliga x570 brädor på marknaden behöver en bios update för att vara kompatibel med 5000 serien? Och då behöver man få tag i en ryzen 3000 för att kunna gör detta eller?

Permalänk
Medlem
Skrivet av oflytbara:

Någon som bara kan klargöra ifall befintliga x570 brädor på marknaden behöver en bios update för att vara kompatibel med 5000 serien? Och då behöver man få tag i en ryzen 3000 för att kunna gör detta eller?

Har du X570 som fungerar, så behöver du bara uppdatera till senaste "BIOS". Oavsett vilken processor du har nu.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Har du X570 som fungerar, så behöver du bara uppdatera till senaste "BIOS". Oavsett vilken processor du har nu.

Tack för svaret! Sitter dessvärre inte på ett befintligt system just nu utan kommer bygga ny itx burk och ville få reda på ifall jag bara kan beställa hem en x570 bräda och processorn köra en bios update och tuta och köra

Permalänk
Medlem
Skrivet av oflytbara:

Tack för svaret! Sitter dessvärre inte på ett befintligt system just nu utan kommer bygga ny itx burk och ville få reda på ifall jag bara kan beställa hem en x570 bräda och processorn köra en bios update och tuta och köra

Kolla så att nya moderkortet stödjer BIOS Flashback.

Edit.
Då behövs endast spänning till moderkortet för att uppdatera Bios via USB.

Visa signatur

-=- AMD Ryzen 5 3600x
-=- Gigabyte B350 GA-AB350M-Gaming 3
-=- Sapphire Radeon RX Vega 56 Nitro+
-=- Corsair 2x8GB DDR4 3200MHz CL16

Permalänk
Medlem

Det kommer inga nya moderkort till 5000-serien eller?

Visa signatur

⚙️ Ryzen 5800X | G.Skill TridentZ 3866MHz CL14 | ASUS TUF 6900XT
🖥️ Samsung Odyssey G8 OLED ⌨️ Keychron Q4 60% 🖱️ Glorious Series One Pro
🎧 RME ADI-2-DAC FS | Focal Clear MG Pro | Sony MDR-Z7M2
📺 LG 65" GX OLED | Dynaudio Xeo 4

Permalänk
Medlem
Skrivet av Dallen:

Det kommer inga nya moderkort till 5000-serien eller?

Så som jag har förstått det så kommer det ut modeller av B550 och X570 som stödjer Ryzen 5000 redan från butik.
Om det blir nya modeller eller befintliga modeller i form av Rev 2.0 eller liknande får vi väl se.

Visa signatur

-=- AMD Ryzen 5 3600x
-=- Gigabyte B350 GA-AB350M-Gaming 3
-=- Sapphire Radeon RX Vega 56 Nitro+
-=- Corsair 2x8GB DDR4 3200MHz CL16

Permalänk
Datavetare

Undrar hur AMD kom fram till att Zen3 har 19 % högre IPC jämfört med Zen2? Det verkar i alla fall inte varit GB5 man testade...

Kollar man på single-thread (ST) för 5900X och en typisk 3900X på ~1300 poäng är ökningen helt i linje med AMDs påstående, det är ett ~23 % högre resultat.

Skillnaden mellan en typisk 3900X och min 3900X som får 1374 går helt att förklara med skillnad i uppmätt frekvens. Av någon anledning är en rätt vanlig frekvens när man kör GB5 på 3900X så lågt som 4,3 GHz medan min rapporterar en frekvens om strax över 4,5 GHz. 1300*4,5/4.3=1360.

Den 5900X som testas här fick majoriteten av sin prestandaökning från högre frekvens, inte högre IPC. Den rapporterade genomsnittlig frekvensen är hela 4,9 GHz för 5900X. Det ger en IPC-ökning om ~10 %, inte 19 %.

Första man bör fråga sig då är huruvida GB5 är ett vettigt test att avgöra genomsnittlig prestandaökning. Jag hävdar att så är fallet för till skillnad från t.ex. Cinebench, CPU-Z och liknande där man bara kör ett enda testfall är totalpoängen i GB5 en (geometriskt) genomsnitt av hela 21 testfall av verkliga program och bibliotek.

Ställer man Skylake och Sunny Cove mot varandra, där Intel hävdade 18 % IPC ökning, ser man typiskt ~20 % högre IPC i GB5.
Ställer man Zen+ mot Zen2, där AMD hävdade 13 % IPC ökning, är rätt mycket exakt det man ser. Om något är 13 % något konservativt.

En annan indikation från AMDs egen presentation att 19 % kanske inte riktigt är så relevant är att GCC värdet var 14 %. Precis som GB5s "clang" test är GCC en kompilator. Historiskt har man noterat att just kompilering är en väldigt utmanade last som ingen lyckats öka med mindre än att IPC faktiskt är högre.

Finns en väldigt viktigt benchmark för servers, SPECInt/SPECfp. Viktig då många delvis baserar sina val av servers på hur de klarar sig i denna benchmark. Därför har det funnits flera fall där nya CPUer "knäckt" en eller flera av fallen in SPEC. Ingen har så här långt lyckas göra något sådant med kompilerings-testet (som är baserat på GCC, så är nog det AMD använt när de rapporterade 14 % här). AnandTech brukar köra SPEC, värt att notera där är att Geekbench och SPEC brukar vara rörande överens om IPC ökningar, skiljer typiskt inte mer än någon enstaka procentenhet.

AMD borde rimligen ändå ta prestandakronan per kärna för x86, i alla fall på desktop. Tiger Lake U har också ~1600 i GB5 ST, men det är en plattform för bärbara. Om ovan stämmer lär Intel ta tillbaka den med Rocket Lake S, det under förutsättning att Rocket Lake S verkligen är Sunny Cove på 14 nm samt att ryktena om frekvens stämmer.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Undrar hur AMD kom fram till att Zen3 har 19 % högre IPC jämfört med Zen2? Det verkar i alla fall inte varit GB5 man testade...

De sa ju att 19 procent var ett sammanvägt genomsnitt från flera olika laster. Tidigare i tråden här nämnde nån (du?) att GB5 är kraftigt viktat åt heltal, men dessa 19 procent är väl snitt som även inkluderar en hel del flyttalsberäkningar. Eller har jag missat nåt?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare
Skrivet av Ozzed:

Jo du har ju nämnt i ett antal trådar att X86 inte åldrats så bra, om man ska vara snäll, så att en mobilprocesor som inte är bunden till den arkitekturen presterar bättte är väl på ett sätt logiskt, samtidigt som det är häpnadsväckande vilken skillnad i prestanda/Watt det innebär!

Då Intel stått och stampat på samma fläck med Skylake i över 5 år nu vet vi egentligen inte om huvudproblemet är att x86 verkligen är värdelöst ställd mot ARM64 som vad vi nu ser.

Gissar många vill vill tro att AMD gjort ett fantastik arbete med Zen. Givet framfarten hos deras huvudkonkurrent kan ju faktiskt förklaringen vara att Zen3 inte är speciellt fantastisk, att ta sig förbi en fem år gammal mikroarkitektur är inte superimponerande.

Får se hur mycket sanning som ligger i ryktena runt Golden Cove (Alder Lake), de skvallrar om ~50 % högre IPC och är lite mer där jag själv hade förväntat mig se skillnaden mellan x86 och en "perfekt" ISA som ARM64. Firestorm har rätt exakt 100 % högre IPC ställd mot Skylake och Zen 2, hur man än vrider och vänder på det känns den skillnaden orimligt att kunna förklaras med ISA. En stor del av det måste komma av att Apple helt enkelt har en i grunden bättre CPU-design.

Att Firestorm skulle ha ~20-40 % högre IPC p.g.a. en "perfekt" ISA känns mer rimligt. Stämmer 50 % högre IPC i Golden Cove blir fördelen 33 % för Firestorm. Får se om det är typiska "tech-tuber" rykten eller om det faktiskt är möjligt att skruva upp x86 till de nivåer som ryktas. Frågan är hur många transistorer per kärna det kommer handla om, tror inte ARM64 gänget behöver bekymra sig för att förlora någon perf/W krona...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av cyklonen:

De sa ju att 19 procent var ett sammanvägt genomsnitt från flera olika laster. Tidigare i tråden här nämnde nån (du?) att GB5 är kraftigt viktat åt heltal, men dessa 19 procent är väl snitt som även inkluderar en hel del flyttalsberäkningar. Eller har jag missat nåt?

Min gissning är att förändringarna man gjort i Zen3 ger en klar boost i spel. Spel är viktigt för desktop, det lär vara den enskilt överlägset viktigaste faktor för de som idag väljer att stanna på en stationära dator. Majoriteten har sedan länge gått till olika former av bärbara.

Om den gissningen är någorlunda korrekt är en rimlig fortsättning på spåret att AMD viktat sin IPC-beräkning väldigt kraftigt mot spel. I sig inte fel, finns ju väldigt många spel som folk kör och för den genomsnittlige desktop-användaren är det kanske fullt rimligt att då vikta spel väldigt hårt.

Så hävdar inte att 19 % IPC är fel, men det verkar inte vara beräknat på "traditionellt" vis! Sedan finns ju även möjligheten att GB5 mätt frekvens fel, Ryzen 5000 faktiskt inte lanserad och 4,9 GHz för stock 5900X låter rätt högt.

Edit: GB5 mäter frekvensen när den kör ST-testerna, dessa uppmätta frekvenser går att se om man lägger till ".gb5" till en resultatlänk.

Om Zen3 visar sig få en klart större ökning i spel jämfört med övrigt känns det lite segt att kommande konsolgeneration kör Zen2. Nu är det svårt att se in i framtiden och man kunde inte veta detta när jobbet med PS5/XSX startade. Men givet livslängden för konsoler är det rätt trist att en ännu inte lanserade konsolgeneration missar ett rejält uppsving i spelprestanda. Spelkonsoler används rätt ofta till just spel

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Då Intel stått och stampat på samma fläck med Skylake i över 5 år nu vet vi egentligen inte om huvudproblemet är att x86 verkligen är värdelöst ställd mot ARM64 som vad vi nu ser.

Gissar många vill vill tro att AMD gjort ett fantastik arbete med Zen. Givet framfarten hos deras huvudkonkurrent kan ju faktiskt förklaringen vara att Zen3 inte är speciellt fantastisk, att ta sig förbi en fem år gammal mikroarkitektur är inte superimponerande.

Får se hur mycket sanning som ligger i ryktena runt Golden Cove (Alder Lake), de skvallrar om ~50 % högre IPC och är lite mer där jag själv hade förväntat mig se skillnaden mellan x86 och en "perfekt" ISA som ARM64. Firestorm har rätt exakt 100 % högre IPC ställd mot Skylake och Zen 2, hur man än vrider och vänder på det känns den skillnaden orimligt att kunna förklaras med ISA. En stor del av det måste komma av att Apple helt enkelt har en i grunden bättre CPU-design.

Att Firestorm skulle ha ~20-40 % högre IPC p.g.a. en "perfekt" ISA känns mer rimligt. Stämmer 50 % högre IPC i Golden Cove blir fördelen 33 % för Firestorm. Får se om det är typiska "tech-tuber" rykten eller om det faktiskt är möjligt att skruva upp x86 till de nivåer som ryktas. Frågan är hur många transistorer per kärna det kommer handla om, tror inte ARM64 gänget behöver bekymra sig för att förlora någon perf/W krona...

Det går ju bevisligen att köra andra arkitekturer på Intel's 14nm, så att de tidigare höll benhårt fast vid att ny arkitektur = ny nod har nog kostat dem en del, ja, och gjort att AMD nu (förmodligen) är ikapp och förbi även vad gäller allmänprestanda och inte bara sådant som skalar perfekt över kärnor. Jag tycker det ska bli riktigt intressant att se tester vid samma klockfrekvens, för det är ju där man kan se vad själva arkitekturen går för. Det som räddat Intel är vad jag förstår det som att de nu har såpass bra yield att de får "fler guldchip per wafer" så att de kunnat skala upp frekvenserna. Men någonstans så blir ju värmeutveckling ett problem så det håller inte i en evighet. Men det som är relevant för kund är ju hur en viss processor i ett visst segment presterar i ens use case.

Jag menar att skulle man få upp t. ex Sandy Bridge i 20Ghz så skulle den säkert spöa skiten ur både Zen3 och Tiger Lake, så det som är relevant är ju given prestanda på en produkt satt i sitt sammanhang.

Sen kan jag ha fel, men är det inte Jim Keller som kläckt grunderna till både ZEN och * Cove? han verkar ju hoppa lite mellan de båda företagen och bidra med arkitekturdesign till vemhelst som ligger efter för tillfället.

Sen är det ju också många andra parametrar som spelar in. Intel har egna fabriker och därav maskintid till "självkostnadspris", och kan då designa sina arkitekturer utifrån det, medans AMD får betala premium för maskintiden och måste då ta hänsyn till det i sina designer, därav behovet med "skalbarheten" som chiplets innebär.

Jag ser gärna att AMD återgår till en monolitisk design i alla fall för konsument-chipen, för det är uppenbart att de ökade latenserna påverkar prestanda på ett sätt som gör att sålänge Intel kan köra monolitiskt så kommer de ha en fördel sålänge arkitekturen i sig är bättre, vilket verkar vara fallet med Cove, men som läget är nu så tror jag inte vi kommer dit. Kanske i framtiden på en krympt nod där man ändå får ut såpass många chip per wafer att det lönar sig, och där man rentav behöver strömsnålare delar av en die som kan agera heatsink åt de varmare delarna, eftersom värmedensiteten för en pytteliten högpresterande die skulle bli svår att hantera, om du förstår vad jag menar?

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

så den presterar typ 25% bättre än min 3700X i single core... tror nog att min får tuffa på ett tag till

Visa signatur

[MSI X470 GAMING PLUS] - [AMD RYZEN 3700X] - [G.SKILL F4-3200C14D-16GTZKW] - [Palit GTX 1080] - [Kingston 1TB NVME] - [Corsair HX 750W] - [Noctua NH-D15] - [Fractal Design XL R2] - [Acer XB270HU]

Permalänk
Datavetare
Skrivet av Ozzed:

Det går ju bevisligen att köra andra arkitekturer på Intel's 14nm, så att de tidigare höll benhårt fast vid att ny arkitektur = ny nod har nog kostat dem en del, ja, och gjort att AMD nu (förmodligen) är ikapp och förbi även vad gäller allmänprestanda och inte bara sådant som skalar perfekt över kärnor. Jag tycker det ska bli riktigt intressant att se tester vid samma klockfrekvens, för det är ju där man kan se vad själva arkitekturen går för. Det som räddat Intel är vad jag förstår det som att de nu har såpass bra yield att de får "fler guldchip per wafer" så att de kunnat skala upp frekvenserna. Men någonstans så blir ju värmeutveckling ett problem så det håller inte i en evighet. Men det som är relevant för kund är ju hur en viss processor i ett visst segment presterar i ens use case.

Jag menar att skulle man få upp t. ex Sandy Bridge i 20Ghz så skulle den säkert spöa skiten ur både Zen3 och Tiger Lake, så det som är relevant är ju given prestanda på en produkt satt i sitt sammanhang.

Sen kan jag ha fel, men är det inte Jim Keller som kläckt grunderna till både ZEN och * Cove? han verkar ju hoppa lite mellan de båda företagen och bidra med arkitekturdesign till vemhelst som ligger efter för tillfället.

Sen är det ju också många andra parametrar som spelar in. Intel har egna fabriker och därav maskintid till "självkostnadspris", och kan då designa sina arkitekturer utifrån det, medans AMD får betala premium för maskintiden och måste då ta hänsyn till det i sina designer, därav behovet med "skalbarheten" som chiplets innebär.

Jag ser gärna att AMD återgår till en monolitisk design i alla fall för konsument-chipen, för det är uppenbart att de ökade latenserna påverkar prestanda på ett sätt som gör att sålänge Intel kan köra monolitiskt så kommer de ha en fördel sålänge arkitekturen i sig är bättre, vilket verkar vara fallet med Cove, men som läget är nu så tror jag inte vi kommer dit. Kanske i framtiden på en krympt nod där man ändå får ut såpass många chip per wafer att det lönar sig, och där man rentav behöver strömsnålare delar av en die som kan agera heatsink åt de varmare delarna, eftersom värmedensiteten för en pytteliten högpresterande die skulle bli svår att hantera, om du förstår vad jag menar?

Jim Keller kan mycket väl ha varit med att dragit upp linjerna för Zen. Däremot har han inte gjort det för Cove, första Intel-mikroarkitekturen han kan ha haft något att göra med är Golden Cove men mer sannolikt jobbade han nog mest med Ocean Cove (första på 7 nm).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Jim Keller kan mycket väl ha varit med att dragit upp linjerna för Zen. Däremot har han inte gjort det för Cove, första Intel-mikroarkitekturen han kan ha haft något att göra med är Golden Cove men mer sannolikt jobbade han nog mest med Ocean Cove (första på 7 nm).

OK, då mindes jag fel Zen har han varit med och designat. Vet dock inte om det gäller ZEN2/3, men grundkonceptet med skalbarhet och chiplets är ju ganska likt ZEN1 så sett. Sen gick han ju till Intel så antog då att han var med vid deras "tummen ur"-moment och designade något som inte var Skylake.

Oavsett vad så hoppas jag nu att varken Intel eller AMD får ett bekvämt övertag framöver då det bevisligen leder till att utvecklingen stagnerar. Det bästa är ju helt klart om den som är i underläge måste innovera istället för att bara skruva upp klockfrekvenserna lite

Ja, jag har tidigare varit av åsikten att det vore bra om AMD fick ett övertag som de fick behålla några år, men nu går det ju bra för dem så rent ekonomiskt behövs det inte utan det skulle nog bara leda till mjölkning, såsom Intel gjort. Dessutom har AMD redan visat att börjar de känns sig det minsta bekväma så räds de inte att dra fulingar som artifiviell nedlåsning med mera, och jag ser helst att varken AMD eller Intel får befinna sig i en sits där de känner att det är OK att försöka skinna kunderna.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.