Amd Processorer ? Vad är det som gäller ?

Permalänk
Skrivet av sj6:

Jag vet inte om jag tolkar dig fel nu.

Men om det är svårare att leda bort effekten, TDP:n från t.ex. 3770 är 8350/8320 så borde förhållandet var det omvända. D.v.s. högre angivit TDP på intels processorer. Så är inte fallet.

Och om det du säger stämmer så är ju Intels diton riktigt svala jämfört med AMD:s.

Och överklockning är ju då irrelevant i detta fall då det ökar värmeutvecklingen oavsett om det står Intel eller AMD på heatspreadern.

AMD och Intel mäter inte TDP på samma sätt. Blir ju bara missvisande när folk stirrar sig blinda på TDP.

" AMD measures its power consumption using a "max power" figure, which represents the single largest amount of power that the chip can possibly accommodate, said Brent Kirby, product manager for servers and workstations at AMD. "We're conservative," he said, noting that in 2003 when AMD was trying to break into the server market with Opteron it couldn't afford to have any thermal problems, so it rated its chips at the maximum number.

The trouble is that hitting that maximum power number is even more unrealistic than TDP, said Cory Roletto, a platform marketing engineer at Intel. For that reason, Intel uses TDP numbers to rate its chips. However, while AMD's TDP numbers are its maximum power numbers, Intel's TDP numbers are lower than its maximum power numbers. When it makes its comparisons, AMD uses the "max power" numbers that Intel publishes in its technical documents. This makes it look like there is more of a difference between the two companies in real-world situations, even though AMD's Kirby conceded that the maximum power number cited is virtually unattainable for almost any real-world workload."

http://news.cnet.com/Chipmakers-admit-Your-power-may-vary/210...

Visa signatur

Desktop: Ryzen 5950x, 64Gb Ram, 2*1Tb Nvme, RX 6700 XT Red Dragon (placeholder)
Server: AMD Ryzen 5 1600 @3,80Ghz, HD7950, 16Gb ddr4, 256Gb NVME M.2 + 2Tb HDD*3, Nexus PSU RX-7000

Permalänk
Medlem
Skrivet av Klappa:

Eller FX-6350 som AMD nyligen har introducerat.

Den kostar 1200, då kan man lika gärna köpa en FX-8320 för 1260 kr? Lovar att den inte är så mkt bättre än FX-6300 ändån.
För min del blir det nog en 6300, men för skoj skull ska jag kolla upp den, den lär ju inte vara bättre än FX-8320 och kostar 1200 kr, men värt att kolla, AMD klättrar sig uppåt.

EDIT: Hittade inga reviews, men ska kika lite till, men däremot hittade jag en annan lustig och rolig liten grej:

AMD FX-4350 kommer ju ut nu också, och den kostar lika mycket som en FX-6350, även att den har två kärnor mer, vad håller AMD på med? O.o

EDIT: Nu såg jag att det är ökade klockfrekvenser och att FX-4350 har 8 MB ist. för 4 MB L3 cache, men jag förstår fortf. inte hur fasen FX-4350 och FX-6350 kan kosta lika mycket, vem skulle köpa en FX-4350 för samma pris som en FX-6350 som är likadan fast 6 kärnig? Lurendrägeri, skräll @AMD haha

Visa signatur

|| Asus rog strix B560-F Gaming || I5-11600 @4,7 all cores(upplåst via bios) || RTX 2080 || 16 GB RAM @3600 mhz ||

Permalänk
Datavetare
Skrivet av HikiSpray:

AMD och Intel mäter inte TDP på samma sätt. Blir ju bara missvisande när folk stirrar sig blinda på TDP.

" AMD measures its power consumption using a "max power" figure, which represents the single largest amount of power that the chip can possibly accommodate, said Brent Kirby, product manager for servers and workstations at AMD. "We're conservative," he said, noting that in 2003 when AMD was trying to break into the server market with Opteron it couldn't afford to have any thermal problems, so it rated its chips at the maximum number.

The trouble is that hitting that maximum power number is even more unrealistic than TDP, said Cory Roletto, a platform marketing engineer at Intel. For that reason, Intel uses TDP numbers to rate its chips. However, while AMD's TDP numbers are its maximum power numbers, Intel's TDP numbers are lower than its maximum power numbers. When it makes its comparisons, AMD uses the "max power" numbers that Intel publishes in its technical documents. This makes it look like there is more of a difference between the two companies in real-world situations, even though AMD's Kirby conceded that the maximum power number cited is virtually unattainable for almost any real-world workload."

http://news.cnet.com/Chipmakers-admit-Your-power-may-vary/210...

Dold text

Artikeln du länkar till är från 2006 vilket i sig inte behöver vara ett problem, men i detta fall är det så + att artikelförfattaren inte alls verkar helt greppa vad TDP är.

Några år innan 2006 (kommer inte ihåg exakt när) så angav Intel något som kallades "typical thermal power" medan AMD använde "maximal thermal power". Hela diskussionen om att AMD och Intel mäter olika kommer därifrån men då det snart är 10 år sedan så borde väl den diskussionen dö snart tycker man.

Idag använder sig båda av samma begrepp, TDP är vare sig genomsnittlig effekt (den är typiskt långt mycket lägre) eller max effekt (den är högre). TDP är bara mängden värme som minst måste kunna kylas bort för att CPUn ska vara stabil.

I dag när CPUerna är väldigt bra på att känna av temperaturen och anpassa sig efter den så är TDP med den kyleffekt som minst krävs för att CPU ska köra på sin specificerade klockfrekvens. Att CPUerna är så bra på att anpassa sig till tillgänglig kylning har ju nyligen givit upphov till saker som "turbo boost"/"turbo core" där man kör CPUn på en frekvens där effekten definitivt överstiger TDP.

Om man åter igen tittar på SweC test av FX-8350 där det mätte effekt från väggen så skulle i alla fall jag hävda att t.ex. SNB i7 2600 TDP på 95W och IVB i7 3770 på 77W snarare är konservativt jämfört med FX-8350 TDP på 125W när man tittar på skillnaden mellan "idle" och full last.

Modell max-idle (W)[/B] 2600 75 3770 55 8350 130

Dold text
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Skrivet av Yoshman:

Artikeln du länkar till är från 2006 vilket i sig inte behöver vara ett problem, men i detta fall är det så + att artikelförfattaren inte alls verkar helt greppa vad TDP är.

Några år innan 2006 (kommer inte ihåg exakt när) så angav Intel något som kallades "typical thermal power" medan AMD använde "maximal thermal power". Hela diskussionen om att AMD och Intel mäter olika kommer därifrån men då det snart är 10 år sedan så borde väl den diskussionen dö snart tycker man.

Idag använder sig båda av samma begrepp, TDP är vare sig genomsnittlig effekt (den är typiskt långt mycket lägre) eller max effekt (den är högre). TDP är bara mängden värme som minst måste kunna kylas bort för att CPUn ska vara stabil.

I dag när CPUerna är väldigt bra på att känna av temperaturen och anpassa sig efter den så är TDP med den kyleffekt som minst krävs för att CPU ska köra på sin specificerade klockfrekvens. Att CPUerna är så bra på att anpassa sig till tillgänglig kylning har ju nyligen givit upphov till saker som "turbo boost"/"turbo core" där man kör CPUn på en frekvens där effekten definitivt överstiger TDP.

Om man åter igen tittar på SweC test av FX-8350 där det mätte effekt från väggen så skulle i alla fall jag hävda att t.ex. SNB i7 2600 TDP på 95W och IVB i7 3770 på 77W snarare är konservativt jämfört med FX-8350 TDP på 125W när man tittar på skillnaden mellan "idle" och full last.

Modell max-idle (W)[/B] 2600 75 3770 55 8350 130

Men folk tror fortfarande att TDP=strömförbrukning, när värdet bara anger hur mycket effekt som behövs ledas bort. Det finns ett annat sätt att mäta för att få fram kylningsbehovet, ACP. Men, jag vet att AMD CPU drar mera ström, jag tycker bara att man borde ha ett standard sätt att mäta.

Visa signatur

Desktop: Ryzen 5950x, 64Gb Ram, 2*1Tb Nvme, RX 6700 XT Red Dragon (placeholder)
Server: AMD Ryzen 5 1600 @3,80Ghz, HD7950, 16Gb ddr4, 256Gb NVME M.2 + 2Tb HDD*3, Nexus PSU RX-7000

Permalänk
Medlem
Skrivet av HikiSpray:

Men folk tror fortfarande att TDP=strömförbrukning, när värdet bara anger hur mycket effekt som behövs ledas bort. Det finns ett annat sätt att mäta för att få fram kylningsbehovet, ACP. Men, jag vet att AMD CPU drar mera ström, jag tycker bara att man borde ha ett standard sätt att mäta.

Nu vet jag inte... Jag har väl inte skrivit att TDP per automatik är strömförbrukning? Det är värdet den kylare man monterar måste klara att leda bort. Har jag skrivit något så dumt så länka gärna så ska jag givetvis ändra detta.

Det jag påstod var att AMD:s diton denna generation är varmare än Intels. Detta utgår jag ifrån när jag läser mig till TDP-värdena. TDP-värdena är det som den kylare monterar måste klara av att leda bort.

Så i min lilla värld och du får gärna vidga den, så är AMD:s processorer i 8XXX-, 6XXX- och 4XXX-serierna varmare än intels 3770, 3570 etc.

när det var AM3 och 1156/1366 så var det tvärtom. Min i7 950 har ju ett TDP-värde på 140W (!) medan Phenom II 965 ganska snabbt fick ner sin till 125W.

Och vill du ändra sättet att mäta värmeutveckling, varför det skulle göra skillnad, så får du slåss mot Intel och AMD

Visa signatur

System: Aerocool DS Cube|| i5 4690K @ Stock || Phanteks PH-TC12DX || MSI Z97M-G43 || G.Skill Ripjaws 8-9-9-24 1866 MHz 8 GB || Gigabyte GTX460 1GB OC || PNY Optima SSD 480GB || Crucial C300 128 GB || Samsung Spinpoint F3 1TB || Fractal Design Edison M 750W 80+ Gold

Permalänk
Medlem
Skrivet av Yoshman:

Nu för tiden spelar jag väldigt lite, men nog måste den minimala FPS vara långt mycket viktigare än den genomsnittliga så fort som den genomsnittliga FPSen ligger runt 60FPS eller högre?

Korrekt att det är de lägsta fps som är viktigast. Problemet är bara att om de testat BF3 multiplayer (gärna med 64 spelare) som är ett nyare spel och som kräver mer kraft av CPU och dessutom är anpassat bättre för fler trådar. Där hamnar Intel på efterkälken

AMD's processorer blir bara bli bättre och bättre i jämförelse med intels då spelen anpassas för fler kärnor

Permalänk
Datavetare
Skrivet av klk:

Korrekt att det är de lägsta fps som är viktigast. Problemet är bara att om de testat BF3 multiplayer (gärna med 64 spelare) som är ett nyare spel och som kräver mer kraft av CPU och dessutom är anpassat bättre för fler trådar. Där hamnar Intel på efterkälken

AMD's processorer blir bara bli bättre och bättre i jämförelse med intels då spelen anpassas för fler kärnor

Problemet med det uttalandet är att det alla mätningar jag sett inte bekräftar den bilden. Men peka gärna på ett enda test som visar att i5 3570 skulle ha lägre minimal FPS på någon spel jämfört med FX-8350.

Jämför man sedan mot i7 3770 (ja, vet att den är dyrare men spelar det någon roll för målgruppen som tänker köra spel maxat på allt?) så ökar definitivt prestanda relativt sätt mer på 8350 än 3770 när man går från 4 trådar till 8. Men tittar man på absolut prestanda så är 3770 så mycket snabbare vi 4 trådar att 8350 i bästa fall kan komma ikapp när man använder alla 8-kärnor.

Men om man tittar lite mer i detalj på vilken typ av applikationer som 8350 kan matcha 3770 så handlar det om program som är s.k. embarrassingly parallel. Här hittar vi renderingprogram, kodning av media-filer och att köra många, inbördes helt oberoende, program.

Spel är inte av typen "embarrassingly parallel" och tittar man på program där man har relativt frekvent kommunikation mellan trådarna så kan man konstater att det är dyrt både på Intel och AMD, men det är mindre dyrt på Intel tack vare att CPU-cachen har mycket lägre latens i Intels CPUer. Intel har lägre latens mot sin L3 än AMD har mot L2 och då har ändå Intels L2 halv latensen mot L3...

Så dagens AMD CPUer kommer aldrig bli speciellt bra på spel, man måste utveckla en bättre CPU-cache struktur först. Notera att det är inte AMD som är dålig, AMD är ljusår för t.ex. ARM, det är i stället Intel som lyckades skapa en helt brutalt bra cache-design i Nehalem.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Problemet med det uttalandet är att det alla mätningar jag sett inte bekräftar den bilden. Men peka gärna på ett enda test som visar att i5 3570 skulle ha lägre minimal FPS på någon spel jämfört med FX-8350.

Samma sajt som gjort den test du länkade har även testat BF3, nu verkar de tyvärr inte testat speciellt intensiva spelsekvenser men trots allt så visar testet där att FX-8350 kör jämt skägg med 3570K http://www.youtube.com/watch?v=a2EcXrgJLY0

En av finesserna med DX11 är även att grafiken kan dra nytta av mer än en kärna, kan inte exakt om det är implementerat i drivarna men innan DX11 har de flesta spelen haft en tung renderingstråd som spelprestanda varit beroende av. Det har intel kunnat dra nytta av och få bättre FPS tal även om det spelat mindre roll spelupplevelse,

3770 är nästan 1000 dyrare jämfört med FX-8350 och mer än 1000 dyrare jämfört med FX-8320 samtidigt skulle jag säga att den är likvärdig med FX-8320 för spel som kan skala ut till de kärnor som finns på processorn.

Skrivet av Yoshman:

Så dagens AMD CPUer kommer aldrig bli speciellt bra på spel

Jag tror tvärtom och det beror på de nya konsolerna. PS3 har 512MB RAM, PS4 får 8GB GDDR5 minne. XBOX har också 512MB ram, kommer förmodligen får 8GB. När spel anpassas för konsolerna är mängden minne ett av de svåraste problemen, det finns inte tillräckligt och därmed blir även PC versionerna begränsade. När konsolers minne ökas till 8GB och dessutom får snabbt sådant, då blir det genast mer problem för PC, speciellt de med liten cache. i5 och i7 har iofs snabb cache men den är kräsen. Mer minne och intel tappar snabbt i hastighet för den måste ut till RAM tidigare än FX varianten från AMD

Permalänk
Datavetare
Skrivet av klk:

Samma sajt som gjort den test du länkade har även testat BF3, nu verkar de tyvärr inte testat speciellt intensiva spelsekvenser men trots allt så visar testet där att FX-8350 kör jämt skägg med 3570K http://www.youtube.com/watch?v=a2EcXrgJLY0

Jämt skägg == ungefär samma genomsnittliga FPS, har aldrig argumentera mot att genomsnittig FPS är speciellt mycket till 3570s fördel då detta i väldigt stor utsträckning begränsas av GPUn i de inställningar folk faktiskt spelar med.
Edit: kollade på resultatet i videon. De har ju kört med inställningar så GPUn till väldigt nära 100% alltid är flaskhalsen, min/max/avg FPS var ju alla inom felmarginalen ju. Och det visar att 8350 inte behöver vara en dålig CPU för spel då det väldigt ofta är GPUn som är flaskhalsen, men det jag pekar på att i de lägen då CPUn är flaskhalsen så ger Intel framförallt bättre minimal FPS.

Skrivet av klk:

En av finesserna med DX11 är även att grafiken kan dra nytta av mer än en kärna, kan inte exakt om det är implementerat i drivarna men innan DX11 har de flesta spelen haft en tung renderingstråd som spelprestanda varit beroende av. Det har intel kunnat dra nytta av och få bättre FPS tal även om det spelat mindre roll spelupplevelse,

Så vidare Microsoft lyckats med något ingen annan klarat av så betyder detta att OS-kärnan kommer behöva skydda access mot GPUn med någon form av lås. Lås som tas från flera CPU-kärnor är dyrt även om låsen hålls så kort tid att varje enskilt lås i praktiken alltid är tillgängligt ("upplåst"). TSX i Haswell är det enda på CPU fronten som på kort sikt kan bättra på detta.

Går även att göra vissa saker i applikationen också och utgår från att spelmotorer kommer göra detta, tyvärr betyder ofta sådana optimeringar att man får göra saker betydligt mer komplicerat än det sätt som man skulle välja om man var ute efter optimal arkitektur.

Skrivet av klk:

3770 är nästan 1000 dyrare jämfört med FX-8350 och mer än 1000 dyrare jämfört med FX-8320 samtidigt skulle jag säga att den är likvärdig med FX-8320 för spel som kan skala ut till de kärnor som finns på processorn.

Knappast. Visa en enda mätning där ens FX-8350 kan mäta sig mig 3770 i spel där GPUn inte är flaskhalsen.

Skrivet av klk:

Jag tror tvärtom och det beror på de nya konsolerna. PS3 har 512MB RAM, PS4 får 8GB GDDR5 minne. XBOX har också 512MB ram, kommer förmodligen får 8GB. När spel anpassas för konsolerna är mängden minne ett av de svåraste problemen, det finns inte tillräckligt och därmed blir även PC versionerna begränsade. När konsolers minne ökas till 8GB och dessutom får snabbt sådant, då blir det genast mer problem för PC, speciellt de med liten cache. i5 och i7 har iofs snabb cache men den är kräsen. Mer minne och intel tappar snabbt i hastighet för den måste ut till RAM tidigare än FX varianten från AMD

Jaguar != Piledriver. Jaguar är betydligt mycket mer lik en nedskalad Core i3/5/7 än den är lik Piledriver om man tittar på hur CPU-kärnan är uppbyggd. Och som jag skrev tidigare, jag (och även andra) tycker att Bobcat/Jaguar är en riktigt bra CPU-design utan egentliga svagheter givet förutsättningarna (fokus på låg TDP).

Även CPU-cache designen i Jaguar är långt mer lik Core i3/5/7 än den är lik Piledriver
Jaguar har separat L1I$ och separat L1D$, båda är 32kB, för varje CPU-kärna och den har en inklusiv policy samt write-back policy med en upp till 2MB stor L2 cache som delas av upp till 4 kärnor.
SNB/IVB/HSW har 32kB L1I$ och L1D$ som är separat per CPU-kärna (men delas av HT) och den är inklusiv både med en separat L2 cache på 256kB och den L3-cache på 6-8MB som delas av alla kärnor (4 st om vi pratar 3570/3770). Alla cache-nivåer har write-back policy.
Bulldozer/Piledriver/Steamroller har 64kB L1I$ som delas mellan trådarna i en modul, separat 16kB L1D$ med write-through(!) policy mot en 2MB L2 cache per modul. L3 cachen delas mellan alla moduler och är en s.k. victim cache (i stort sätt exklusiv med L1/L2).

Och kanske absolut viktigaste: Jaguar har stöd för AVX och AVX-instruktioner stöds av Piledriver men är relativt inneffektiva då de är 256 bitar i storlek så båda 128-bitars pipelines i den FPU som delas mellan två trådar i en modul tas i anspråk -> FPUn blir flaskhals. En av de områden man lagt väldigt mycket fokus på i Jaguar är just SSE/AVX enheten då spel kan dra väldigt mycket nytta av sådana instruktioner om man kan förutsätta att de finns. AVX kommer för PS4 bli det SPEerna är för PS3.
SNB/IVB är betydligt mer effektiva på AVX jämfört med Piledriver och i Haswell dubblas kapaciteten i AVX-enheten (kräver inte AVX2, AVX är flyttal AVX2 är heltal som inte alls är lika viktigt för spel + Jaguar saknar stöd för AVX2).

I.e. något som är hårt optimerat för Jaguar kommer med väldigt stor sannolikhet vara betydligt bättre optimerat för SNV/IVB/HSW än för Bulldozer/Piledriver/Steamroller.

Och angående minne

  1. Intels CPUer har ungefär lika mycket L3 cache som AMDs FX CPUer, men Intels cache har bättre bandbredd och långt mycket lägre latens

  2. Intels och AMDs high-end CPUer har ungefär lika mycket bandbredd mot RAM (Intel har lite högre i praktiken) men Intel har lägre latens

  3. Om du orkar, titta i denna tabell och notera hur mycket lägre latens Intel har på instruktioner som t.ex xchg (Intel tar halva tiden) och mfence (intel tar 1/3 av tiden), båda är väldigt viktiga för att skapa algoritmer som effektivt kan köras över flera CPU-kärnor

  4. sist men absolut inte minst: att jämföra Jaguar med Core i5/7 är som att jämföra en GoCart med en F1-bil, de spelar inte i samma liga. Visst kommer Jaguar vara kopplat till snabbt RAM. Men det är för att GPUn behöver det, Jaguar-kärnan kan bara utföra en 64-bitars load och en 64-bitars store per cykel så den kommer inte ha en chans att utnyttja all bandbredd som finns tillgängligt. SNB/IVB kan utföra 2 256-bitars load och 1 256-bitars store per cykel och trots det har den CPUn rätt lite nytta av fler än två minneskanaler i praktiken... GDDR5 RAM har också sämre latens än DDR3 och latens är viktigare för en CPU än bandbredd, men spel har ett ganska litet "working-set" så majoriteten av alla minnesaccesser går mot cache så det är nog inget jätteproblem.

    Tittar man på flyttalsprestanda via AVX så räcker det med 2 Core i3/i5/i7 kärnor på 3.2GHz för att matcha alla 8 Jaguar kärnor på 1.6GHz, det räcker alltså med en Haswell kärna på 3.2GHz för att matcha totala flyttalsprestandan i Jaguar...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Knappast. Visa en enda mätning där ens FX-8350 kan mäta sig mig 3770 i spel där GPUn inte är flaskhalsen.

http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis...

Skrivet av Yoshman:

Intels CPUer har ungefär lika mycket L3 cache som AMDs FX CPUer, men Intels cache har bättre bandbredd och långt mycket lägre latens

L3 på i5 är 12 way set associative, i7 är 16 way set associative medan FX är 64 way set associative. STOR skillnad

Permalänk
Hjälpsam
Skrivet av sj6:

Jag vet inte om jag tolkar dig fel nu.

Men om det är svårare att leda bort effekten, TDP:n från t.ex. 3770 är 8350/8320 så borde förhållandet var det omvända. D.v.s. högre angivit TDP på intels processorer. Så är inte fallet.

Och om det du säger stämmer så är ju Intels diton riktigt svala jämfört med AMD:s.

Och överklockning är ju då irrelevant i detta fall då det ökar värmeutvecklingen oavsett om det står Intel eller AMD på heatspreadern.

Ja visst har Intel lägre maxeffekt (TDP) men AMDs större kretsyta gör att ytan mellan chip och dess kapsling blir större, vilket ökar värmeledningen. så även om AMD utvecklar mer värme, är det lite lättare att leda bort dess värme, jag vet inte dock inte hur mycket lättare, mycket möjligt att Intels CPU ger så pass mycket mindre värme att den trots detta går svalare.
Nu vill jag ha sagt att jag liksom de flesta med FX processorer, inte har problem med heta CPUer, min går ganska svalt 45-50 grader vid full last.
Jag nämnde över,klockning främst eftersom du citerade DevilsDad, som överklockat och hans CPU går ganska varmt, vilket ju är vad överklockade CPUr, ofta gör, AMD och Intel, så visst är överklockning irrelevant i detta sammanhang.

Visa signatur

AMD Ryzen 7 5700X | Intel Arc B580 | 64 GB Kingston ECC | https://valid.x86.fr/8gy1xr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 9060 XT 16GB | 64 GB Micron ECC | https://valid.x86.fr/gwcxfs
HTPC | https://valid.x86.fr/gqtxws |

Permalänk
Skrivet av sj6:

Nu vet jag inte... Jag har väl inte skrivit att TDP per automatik är strömförbrukning? Det är värdet den kylare man monterar måste klara att leda bort. Har jag skrivit något så dumt så länka gärna så ska jag givetvis ändra detta.

Det jag påstod var att AMD:s diton denna generation är varmare än Intels. Detta utgår jag ifrån när jag läser mig till TDP-värdena. TDP-värdena är det som den kylare monterar måste klara av att leda bort.

Så i min lilla värld och du får gärna vidga den, så är AMD:s processorer i 8XXX-, 6XXX- och 4XXX-serierna varmare än intels 3770, 3570 etc.

när det var AM3 och 1156/1366 så var det tvärtom. Min i7 950 har ju ett TDP-värde på 140W (!) medan Phenom II 965 ganska snabbt fick ner sin till 125W.

Och vill du ändra sättet att mäta värmeutveckling, varför det skulle göra skillnad, så får du slåss mot Intel och AMD

Nej, det har du inte, och jag skrev inte dig specifikt heller.

Oberoende så tycker jag att dom (AMD och Intel) kunde enas om ETT sätt att mäta. Skulle bli lättare för konsumenter(nördar, som oss på Swecl. ) och tredjeparts tillverkare att jämföra produkter sinsemellan. Och detta är min personliga åsikt.

(har köpt "fel" kylare för några år sedan när jag tittade på TDP mellan olika CPU (hade en CPU som just kommit ut då och inte fanns med på kylartillverkarens lista) hursomhaver så var den kylaren på gränsen till för klen. En Dragon Orb, om jag inte minns fel nu.)

Visa signatur

Desktop: Ryzen 5950x, 64Gb Ram, 2*1Tb Nvme, RX 6700 XT Red Dragon (placeholder)
Server: AMD Ryzen 5 1600 @3,80Ghz, HD7950, 16Gb ddr4, 256Gb NVME M.2 + 2Tb HDD*3, Nexus PSU RX-7000

Permalänk
Datavetare

Det resultat skiljer sig från dessa
http://www.tomshardware.com/reviews/crysis-3-performance-benc...
http://www.techspot.com/review/642-crysis-3-performance/page6...
http://www.overclock.net/t/1364211/pclab-more-crysis-3-cpu-be...

Vilket var de första träffar jag fick med Google. De ovan är rätt samstämmiga så det känns lite som PC-gamer är det som står ut, men det kan ju vara så att alla de andra gjort något fel eller, mer troligt, något viktigt skiljer sig i den setup som PC-gamer körde med.

Skrivet av klk:

L3 på i5 är 12 way set associative, i7 är 16 way set associative medan FX är 64 way set associative. STOR skillnad

Vet du ens vad "set associative" har för praktiskt betydelse i implementationen av en cache? Och framförallt, vet du hur kurvan för effektiviteten för en cache ser ut med avseende på "set associative"? Vet du vad nackdelen med att ha ett högt värde här?

12 eller 16 set är knappast en begränsning för 99% av alla program som körs på en desktop CPU, det upphör att vara ett problem någonstans mellan 4 och 8 om man inte råkar ha data som ligger precis med ett avstånd på cache-sz/set-associative bytes mellan sig, men då har man nog ett problem oavsett om det är 12 eller 64 i "set associative".

Att Bulldozer/Piledriver däremot bara har en "2 way set associative" L1I$ är däremot ett problem även i praktiken då den cachen i praktiken blir direktmappad (bara 1 "set") när man använder båda CPU-trådarna i en modul.

Jämför sedan prestanda mellan FX-serien som har L3 cache med Trinity som helt saknar L3. Inte speciellt stor skillnad va?
L3 cachen på Bulldozer/Piledriver är riktigt usel, den har en latens på 65 cykler mot Intels 20-25 cykler (är en ring-buffer så latensen beror på vart i ringen data ligger). Problemet är att varje nivå cache adderar latens för nästa nivå, så FX-serien har däremot 65 cykler längre latens mot RAM än vad Trinty har...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Du som hårdvarukunnig, kan du se vad AMD respektive Intel är bra på? Crysis 3 varierar en del beroende på vart man är i spelet.
Som du beskrev tidigare så var det länge sedan du spelade och det märks i din argumentation, det är inte riktigt så lätt som att bara mäta fps
Och ja, jag vet vad "set associative" är, vet du?

Skrivet av Yoshman:

12 eller 16 set är knappast en begränsning för 99% av alla program som körs på en desktop CPU

det är det nog, i spel möjligen men där är sällan processorn det som bromsar. det finns dock några väldigt poppulära spel som börjar slå i taket på intel

Permalänk
Datavetare
Skrivet av klk:

Du som hårdvarukunnig, kan du se vad AMD respektive Intel är bra på? Crysis 3 varierar en del beroende på vart man är i spelet.
Som du beskrev tidigare så var det länge sedan du spelade och det märks i din argumentation, det är inte riktigt så lätt som att bara mäta fps
Och ja, jag vet vad "set associative" är, vet du?

det är det nog, i spel möjligen men där är sällan processorn det som bromsar. det finns dock några väldigt poppulära spel som börjar slå i taket på intel

Vad baserar du uttalandet om att Intel börjar slå i taket på spel för mätningar? Det känns som något du totalt hittade på.

Inser du att bandbredden mot Intels L3 cache är högre än AMDs L1 cache och latensen i Intels L3 är i nivå med AMDs L2, d.v.s Intels cache-design spelar i en helt annan liga?

Dold text

Inser du också att spel är, för en modern CPU, ett rätt trivial arbetslast med en hit-rate även i L1-cache på runt 80% och en hit rate på >95% även i Intels relativt lilla L2?

Att ha 64-set betyder att man offrar enormt med latens för en minimal ökning i hit-rate effektivitet över 16-set, om du ser denna jämförelse mellan FX-8350 och A10-5800K så är den senare snabbare på vissa tester trots 200MHz lägre frekvens och "trots" avsaknad av L3-cache. Det är helt enkelt så att L3-cachen på FX-serien är så illa designad att det i många enklare (och jag räknar spel som enklare, de är enkla jämfört med vissa server-laster) blir en belastning att ha L3-cachen.

Dels medför L3-cachen högre latens mot RAM men det medför också en högre kostnad att slänga ut saker i L2 då AMDs L3 är en "eviction cache" så man måste skriva ut alla linjer i L2 till L3 medan Trinity kan bara droppa linjen om den är i tillstånd !=Modified (MESI)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Vad baserar du uttalandet om att Intel börjar slå i taket på spel för mätningar? Det känns som något du totalt hittade på.

En mer korrekt beskrivning är att fyrkärniga snart kan slå i taket. För spel är det viktigt att processorn räcker, gör den inte det blir det direkt konsekvenser för spelet. Somm ping-tid. Går man in på en server där pingtiden är längre så blir man dödad oftare än när pingtiden är kort.

Skrivet av Yoshman:

d.v.s Intels cache-design spelar i en helt annan liga?

Det verkar inte finnas någon hejd på överdrifterna... Ja Intel har något snabbare cache för de har valt en annan lösning där prio ligger på snabbhet, AMD har mer prioritet på jämnhet oavsett belastning på processorn. Fungerar inte lösningarna så som intels processorer gillar så tappar de snabbt i prestanda. Speciellt i5 är ju gjord för att prestera så bra som möjligt på syntetiska tester. Så bra är den inte vid normalt användande.

Dessutom blir det vanligare att man har igång flera program vid spel, man kommunicerar med andra medan man spelar. Man kanske vill streama för att visa hur man spelar eller automatuppdatera statistik om vad som händer i spelet. Då är det genast trevligt med lite extra kärnor och mer cache

Skrivet av Yoshman:

Att ha 64-set betyder att man offrar enormt med latens för en minimal ökning i hit-rate effektivitet över 16-set

"enormt"?
Om cachen har 64 ställen att lägga minne på jämfört med 16 så är det rätt många mer platser. Latens är självklart viktigt men det är hela cachelinjer som flyttas och ofta ligger det logik som gör att processorn chansar på linjer så den slipper vänta.

Och hur svårt är det att granska tester? Det finns gott om tester där en FX slår en i7, om det är som du säger att intel spelar i en helt annan liga, hur kan det komma sig att FX ibland slår detta "monster"

Permalänk
Medlem

Intel Core i5 3570K om du vill ha det optimala för spel idag, speciellt om du vill spela starcraft/Diablo/WoW

AMD FX-8350 är riktigt bra annars i många nyare shooters, de har generellt sett bättre stöd för flera kärnor

Permalänk
Medlem
Skrivet av Querth:

Intel Core i5 3570K om du vill ha det optimala för spel idag, speciellt om du vill spela starcraft/Diablo/WoW

Tror inte du kommer märka skillnad mellan en 3570k och en E8600 klockad till 4.5ghz i spelen du nämnde.

För spelen är optimerade för tvåkärniga system där EN enda kärna används mycket och andra lite halvt. WoW hade bra stöd för flera kärnor i Cataclysm men vet inte vad blizzard gjorde fel med pandaria.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem
Skrivet av Pimpim666:

Tror inte du kommer märka skillnad mellan en 3570k och en E8600 klockad till 4.5ghz i spelen du nämnde.

För spelen är optimerade för tvåkärniga system där EN enda kärna används mycket och andra lite halvt. WoW hade bra stöd för flera kärnor i Cataclysm men vet inte vad blizzard gjorde fel med pandaria.

Jag tror faktiskt du har fel ang att märka skillnad. Även om spelen i fråga bara använder en eller två kärnor så är i5 en nyare och bättre processor och klockar man en E6600 till 4.5GHz så kan man nog komma minst lika högt med en i5 3570K...

Visa signatur

System: Aerocool DS Cube|| i5 4690K @ Stock || Phanteks PH-TC12DX || MSI Z97M-G43 || G.Skill Ripjaws 8-9-9-24 1866 MHz 8 GB || Gigabyte GTX460 1GB OC || PNY Optima SSD 480GB || Crucial C300 128 GB || Samsung Spinpoint F3 1TB || Fractal Design Edison M 750W 80+ Gold

Permalänk
Medlem
Skrivet av sj6:

Jag tror faktiskt du har fel ang att märka skillnad. Även om spelen i fråga bara använder en eller två kärnor så är i5 en nyare och bättre processor och klockar man en E6600 till 4.5GHz så kan man nog komma minst lika högt med en i5 3570K...

En E6600 är lite föråldrad men en E8600 är ganska bra och kan med eftermarknadskylare lätt komma upp i 4.2ghz och i rätt många fall 4.5ghz OCH SC2 innan expansionen kunde man få stabila 60 fps med en Q6600 @ 3.0 ghz i 1080p. Diablo 3 fick inte ens mina fläktar i chassit att börja jobba så gissar på att den också har enormt låga krav.
I WoW finns det möjlighet att du kan tjäna lite med en 3570k nu i Pandaria.

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Medlem
Skrivet av Pimpim666:

En E6600 är lite föråldrad men en E8600 är ganska bra och kan med eftermarknadskylare lätt komma upp i 4.2ghz och i rätt många fall 4.5ghz OCH SC2 innan expansionen kunde man få stabila 60 fps med en Q6600 @ 3.0 ghz i 1080p. Diablo 3 fick inte ens mina fläktar i chassit att börja jobba så gissar på att den också har enormt låga krav.
I WoW finns det möjlighet att du kan tjäna lite med en 3570k nu i Pandaria.

Fan, läste fel. E8600 ser jag nu. MEN jag tror nog man märker skillnad i CPU-tunga spel. Men visst jag håller med dig samtidigt att även om man märker skillnaden så kanske inte kostnaden är motiverad för att spela endast dessa spel.

Kanske en generation till då Haswell väntar runt hörnet.

Visa signatur

System: Aerocool DS Cube|| i5 4690K @ Stock || Phanteks PH-TC12DX || MSI Z97M-G43 || G.Skill Ripjaws 8-9-9-24 1866 MHz 8 GB || Gigabyte GTX460 1GB OC || PNY Optima SSD 480GB || Crucial C300 128 GB || Samsung Spinpoint F3 1TB || Fractal Design Edison M 750W 80+ Gold

Permalänk
Medlem
Skrivet av Pimpim666:

Tror inte du kommer märka skillnad mellan en 3570k och en E8600 klockad till 4.5ghz i spelen du nämnde.

För spelen är optimerade för tvåkärniga system där EN enda kärna används mycket och andra lite halvt. WoW hade bra stöd för flera kärnor i Cataclysm men vet inte vad blizzard gjorde fel med pandaria.

Oj, du borde också uppgradera snarast, en E8600 går på knäna i många nya titlar! :).

Och anledningen till att Intel är så pass mycket bättre i dem spelen är ju att dem har mycket bättre prestanda per kärna än AMD, speciellt till starcraft 2 om man spelar mycket customs/3vs3/4vs4. 2500k i 4.6ghz räcker knappt där, tyvärr så verkar det inte vara optimeringar för fler kärnor på gång.

Permalänk
Medlem
Skrivet av Querth:

Oj, du borde också uppgradera snarast, en E8600 går på knäna i många nya titlar! :).

Och anledningen till att Intel är så pass mycket bättre i dem spelen är ju att dem har mycket bättre prestanda per kärna än AMD, speciellt till starcraft 2 om man spelar mycket customs/3vs3/4vs4. 2500k i 4.6ghz räcker knappt där, tyvärr så verkar det inte vara optimeringar för fler kärnor på gång.

Jag har en 3930k @ 4.7

Visa signatur

Sex kärnigt på modermodemet och ett gäng 680s i hårddisken

Permalänk
Datavetare
Skrivet av klk:

Det verkar inte finnas någon hejd på överdrifterna... Ja Intel har något snabbare cache för de har valt en annan lösning där prio ligger på snabbhet, AMD har mer prioritet på jämnhet oavsett belastning på processorn. Fungerar inte lösningarna så som intels processorer gillar så tappar de snabbt i prestanda. Speciellt i5 är ju gjord för att prestera så bra som möjligt på syntetiska tester. Så bra är den inte vid normalt användande.

Jämför du L3 i Piledriver mot IVB så är har den senare 3x längre latens och 2.5x högre bandbredd.
Jämför du L2 i Piledriver mot IVB så har den senare 2x lägre latens och 2x högre bandbredd.

Om inte det är på en annan nivå så vet jag inte. Hur stor skillnad tycker du att det ska vara innan man ska kunna använda det uttrycket?

Varför blir det då inte jättestor skillnad i spel?
Därför att spel är, för en CPU, en relativt enkel last sett ur cache-perspektiv och man har därför extremt hög L1-cache hit rate.
Jämför du L1 i Piledriver mot IVB så har den senare samma latens och 2x högre bandbredd, men latens är långt mycket viktigare. Men till en stor grad ser vi ändå effekten av Intels mycket bättre cache i betydligt högre IPC.

Så cachen spelar ingen roll? Nej, inte så länge spelen inte ska använda många CPU-kärnor. Och det var just därför jag kom in på CPU-cache, när man använder flera CPU-kärnor blir cachen extremt viktigt ur ett annat perspektiv: kommunikationsmedium mellan CPU-kärnor. I detta läge blir den cache som delas mellan kärnor/moduler (L3-cachen) väldigt viktig och L3-cachen på Piledriver suger, du såg ju själv att det inte var något skillnad mellan att FX-8350 (8MB L3) och A10-5800K (saknar L3) och att den senare faktiskt var snabbare i vissa lägen.

Skrivet av klk:

Om cachen har 64 ställen att lägga minne på jämfört med 16 så är det rätt många mer platser. Latens är självklart viktigt men det är hela cachelinjer som flyttas och ofta ligger det logik som gör att processorn chansar på linjer så den slipper vänta.

Och hur svårt är det att granska tester? Det finns gott om tester där en FX slår en i7, om det är som du säger att intel spelar i en helt annan liga, hur kan det komma sig att FX ibland slår detta "monster"

Det är inte så enkelt. För att börja med grunderna: varför ger en cache överhuvudtaget en prestandafördel?
Jo, data access mot data tenderar i väldigt stor utsträckning vara begränsat till ett relativt litet område (spatial locality) och man tenderar att använda data väldigt intensivt under kort tid (temporal locality). Spel har framförallt väldigt hög "spatial locality" i hanteringen av kollisionsdetektering, hantering av 3D-modeller etc.

Och hur "adresseras" data i en cache? Via cache-lines som både på AMD och Intel idag är 64-bytes.
Så om du har 8MB cache och 64-set så består varje sådant område av 8k linjer (128kB) medan för 16-set består varje område av 32k linjer (512kB).

För att du ska få en "set"-kollision så måste data vara separerat med minst 128kB på AMD men minst med 512kB på Intel. Med tanke på att spel har väldigt hög L1-cache hit rate som på AMD är 2-set 16kB och på Intel är 8-set 32kB så är det väldigt få accesser som man gör nära inpå varandra som är mer än 512kB i från varandra. Du får det första missen p.g.a. "set"-kollision först när du har 17 st accesser som råkar träffa samma cache-line som är en multipel av 512kB i från varandra.

Verkar troligt i ett spel? Verkar troligt i någon vanligt förekommande arbetslast där "working-set" inte är så stort att det överhuvudtaget inte får plats i cachen (och då kvittar det om du har 16 eller 64 "set"). I.e. att öka antalet "set" ger ganska snabbt "diminishing returns" eftersom fler "set" minskar storleken på området utan "aliasing" så sannolikheten för en "set"-kollision ökar när man har fler. AMD är rätt ensamma om att tycka 64 "set" är vettigt, då nackdelen med 64 "set" är att man får väldigt hög latens för både läsning och skrivning då varje logisk adressers kan mappa till 64-ställen som alla måste undersökas.

Men anta att 64-set ger 99% cache-hit rate och 16-set bara ger 75% (en helt orimligt skillnad, möjligen skiljer det en eller ett par %-enheter i praktiken), vad får du då för genomsnittlig minnesaccess om vi antar 100% miss i L1 och L2 (igen helt orimligt)?

IVB har 20-25 cykler latens, säg 25 cykler mot L3 medan Piledriver har 65 cykler. IVB har ~150 cykler mot RAM och Piledriver (med L3-cache) har ~200 cykler.

IVB -> .75 * 25 + .25 * 150 = 56 cykler i genomsnitt
Piledriver -> .99 * 65 + .01 * 200 = 66 cykler i genomsnitt

Men det enda jag egenligt påpekade som ledde till denna cache-diskussion är att Bulldozer/Piledriver (och antagligen Steamroller då AMD sagt att man inte kommer fokusera på att bättre på L3-cachen i denna då den inte är viktig för desktop-applikationer) är att dessa CPUer kommer aldrig bli riktigt bra i spel som använder många CPU-kärnor då spel inte är "embarrassing parallel" och problem som inte faller i den kategorin behöver en väldigt bra cache-design för att skala bra.

Att en instruktion med "release-barriär semantik" (xchg) tar dubbelt så lång tid och instruktioner med "full-barriär semanik" (mfence, cmpxch) tar 3x översätts direkt till att saker som lås, atomära instruktioner och andra primitiver som krävs för att skriva multitrådade program är rejält mycket dyrare på AMDs nuvarande CPUer än vad de är på Intel.

Som tur är så har Jaguar en betydligt bättre cache-design jämfört med Piledriver (arkitekturmässigt), så AMD är inte helt körda. Jaguar kan inte riktigt konkurrera i rå prestanda, men det är en CPU-design som använder sina tillgängliga transistorer på ett betydligt mycket bättre sätt än Piledriver och Jaguar är definitivt bättre än Atom (i alla fall fram till dess att Silvermont släpps, men den vet vi ännu väldigt lite om så går inte att säga om den blir en värdigt konkurrent).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hedersmedlem
Skrivet av Yoshman:

Jaguar kan inte riktigt konkurrera i rå prestanda, men det är en CPU-design som använder sina tillgängliga transistorer på ett betydligt mycket bättre sätt än Piledriver och Jaguar är definitivt bättre än Atom (i alla fall fram till dess att Silvermont släpps, men den vet vi ännu väldigt lite om så går inte att säga om den blir en värdigt konkurrent).

Många vet det säkert redan, men för en stund sedan kom i alla fall lite mer information: http://www.anandtech.com/show/6936/intels-silvermont-architec...

Permalänk
Medlem
Skrivet av Yoshman:

Spel har framförallt väldigt hög "spatial locality" i hanteringen av kollisionsdetektering, hantering av 3D-modeller etc.

Applikationer kodade i C/C++, där brukar programmerare tänka till så att processorn så långt som möjligt kan förutse var minnet skall finnas. Det är inget specifikt för spel, tvärtom är det nog så att spel hör till C++ applikationer som har svårare att optimera minnet. Mycket enklare att optimera minne för applikationer som databaser och annat

Men du pratar om situationer i spel där processorn inte spelar någon roll. Att bara rendera bilder och det är lite action, där är det inte viktigt med maximal prestanda. Ta istället BF3. Konsoler är begränsade i multiplayer till 24 spelare, processorn pallar inte mer och gissningsvis får de drops på den nivån. Hade de tillåtit fler spelare så blir irritationen för stor för det är irriterande när det blir strider och man blir skjuten för hårdvaran inte pallar.

För PC är det 64 som gäller. Många har vapen som klarar 750 skott i minuten eller mer. Handgranater mm kastas. Om då det samlas 10+ spelare på liten yta och alla skjuter blir det plötsligt väldigt tungt för processorn.
Lättast att testa detta är att strypa FPS talen till något lågt, kanske 40 FPS. Då jobbar inte processorn speciellt hårt men så plötsligt blir det strid det blir genast tungt. Även om jag är helt övertygad att de gjort vad de kan för att optimera så om spelet skall hålla reda på så många spelare, räkna ut skott mm. Då är det inte lika enkelt att optimera. Det blir mycket villkor. Instruktionstrådar kan hoppa fram och tillbaka samt hämta och kolla data lite överallt för att räkna ut allt.

Det var därför som jag gav dig kritik tidigare då du inte verkar veta vad som är verkligt viktigt prestandamässigt. För det är vid dessa riktigt stressade situationer det spelar roll, annars är det inte speciellt viktigt

Permalänk
Datavetare
Skrivet av klk:

För PC är det 64 som gäller. Många har vapen som klarar 750 skott i minuten eller mer. Handgranater mm kastas. Om då det samlas 10+ spelare på liten yta och alla skjuter blir det plötsligt väldigt tungt för processorn.
Lättast att testa detta är att strypa FPS talen till något lågt, kanske 40 FPS. Då jobbar inte processorn speciellt hårt men så plötsligt blir det strid det blir genast tungt. Även om jag är helt övertygad att de gjort vad de kan för att optimera så om spelet skall hålla reda på så många spelare, räkna ut skott mm. Då är det inte lika enkelt att optimera. Det blir mycket villkor. Instruktionstrådar kan hoppa fram och tillbaka samt hämta och kolla data lite överallt för att räkna ut allt.

Det var därför som jag gav dig kritik tidigare då du inte verkar veta vad som är verkligt viktigt prestandamässigt. För det är vid dessa riktigt stressade situationer det spelar roll, annars är det inte speciellt viktigt

Jag har som arbete att skriva extremt prestandakritiska applikationer optimerade för att köras på många CPU-kärnor. Det är en stor anledning varför jag råkade veta kostnaden för minnesbarriärer och liknande. Jag har också mätt cache-hit-rate (för kod, data och TLB) så det är långt ifrån gissningar i hit-rate och liknande.

Även om du har 64-spelar och vapen som klara "750 skott i minuten" så är det fortfarande inte alls jämförbart med den mängd data som vissa server-laster hanterar och i dessa är det inte ett problem med att Intel "bara" har 20-set (high-end Xeon har 20-set associativ 20MB L3 och det är den CPU jag jobbar mest med idag).

Man anta att saker är helt additiva (inte rimligt antagande), om single player "work-load" har väldigt hög L1 hit rate så är det enda som händer vid 64-spelare att man på AMD får motsvarande hit-rate i L2 och på Intel så spiller det över lite granna till L3.

Eftersom du angriper min "brist på spelerfarenhet" (spelar i princip bara på konsol idag, men spelade en gång i tiden väldigt mycket dator-spel) kan jag ju fråga: hur mycket erfarenhet har du av att skriva prestandakritiska program för moderna multicore CPUer? Har du överhuvudtaget mätt cache-hit-rate, IPC, branchmissar och sedan optimerat kod får sådant? Om du inte har sådan erfarenhet, vad får dig att tro att du är kapabel att bedöma hur en CPU uppfattar det du ser i ett spel?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

hur mycket erfarenhet har du av att skriva prestandakritiska program för moderna multicore CPUer?

har mycket stor erfarenhet

Permalänk
Medlem

virtual void: Fråga

När du testat prestanda, hur har du gjort för att får realistiska mätvärden? Exempelvis hur har du gjort för att simulera en likartad last som applikationer har och om du tänk på hur intells prefetchers påverkar?
Om man inte tänker på det och exempelvis testar en core 2 duo processor, då kommer den visa fantastiskt bra värden

Permalänk
Medlem
Skrivet av Deathdancer:

AMD är väldigt mycket med i leken. Med deras aggressiva prissättning skulle jag snarare säga att det är Intel som är på väg att tappa hela mellansegmentet eftersom att ingen med sitt huvud på skaft köper en i3a framför en FX-8320.

Det känns väldigt mycket som att du förminskar AMD och helst ser att alla köper Intel. Får man gissa att du har en Sandy/Ivy Bridge?

min gaming maskin Intel i5, alla andra maskiner jag har är AMD med anpassa CPU för uppgiften maskin är byggd.
för utom en APEX maskin som är Intel, men den CPUn fick jag så den köpte jag ej.

Visa signatur

|Workstation: AMD Ryzen 9 7900X 4.7GHz | ASRock X670E | AMD Radeon 7900 XT | 32GB DDR5 | NVMe 2.0TB | HDD 4.0TB |
|Fedora Srv VM Host: AMD Threadripper 2920x | ASUS PRIME X399-A | 24GB DDR4 | 10TB Storage |
|HTPC: AMD Ryzen 3 2200G 3.7 GHz | Gigabyte B450M DS3H | Radeon Vega 8 | 8GB RAM | SSD 120GB | *Test rig för div Linux distar, drivers m.m.