Permalänk
Avstängd

AdoredTV Strikes back

Del 2 vid 17 minuter är ett måste.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

Kollade precis igenom och bra videos faktiskt.

En liten fråga till dig _merc_ eftersom du startar en tråd om det här. Adored drar upp att Steve använder minnesöverklock och att det ger en stor fördel till Intel på SB och att det är där det diffar till viss del. Samtidigt har jag sett att du klagat på att Sweclockers inte överklockar minnet i sina tester där Ryzen är med eftersom Ryzen ser en stor fördel av det. Hur ställer du dig, var det rätt eller fel siffror Steve visade och hade det varit rätt eller fel siffror Sweclockers visade om dom hade överklockat minnet under sina prestandatester?

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Avstängd

@ClintBeastwood: Jag har tidigare sagt att när det kommer till överklockning så vill jag ha både Minne och CPU överklockade för att utesluta bottlenecks mellan den ena och den andra. Sen hade det även varit trevligt att se hur timings påverkar prestanda men det kanske är lite för mycket att testa.

Ett test utan någon överclockning och ett test med överclockning på både minne och CPU.

Verkar även som om Sandy bridge och äldre Intel Cpuer drar stor nytta av minnes överclockning.

Måste erkänna att min favorit del av Videon är testet av i5or i Assassins Creed Origins. Faller verkligen Ryzen efter Intel i spel Prestanda när en 7600k har problem i moderna spel? En 8600k kanske inte har några problem just nu, men den saknar Trådar vilket kommer ge den problem om några år kan jag tro om Ubisoft och andra fortsätter att pusha spelens AI.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

När jag kollar på klippen så gör jag det med händerna för ögonen för det är så skämmigt. Så mycket hyckleri och han vrider och vänder på det ena och andra för att försöka få Steve @HU framstå som att han skevar sina tester.

Entertainment iaf

Kort sagt, för att Jim ska acceptera testerna så skall följande efterföljas:

  • Du skall ej testa äldre ock icke Ryzen budget cpuer med snabba minnen, eller för snabb gpu eller för låg upplösning eftersom det återspeglar inte vad dessa system och användare förmodligen kör med.

  • Du skall ej ha med ett spel som är äldre i testet även om dessa fortfarande är mycket populära eller krävande.

  • Du skall ej ändra inställningar från test till test.

  • Du skall ej uppvisa annat fps-resultat i spel som testats tidigare, oavsett om det är spelet, win eller drivrutinerna som uppdaterats.

  • Du skall inte gnälla på hans analys trots att du själv har dina egna testade siffror.

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Digital fyndjägare

AdoredTV kan man inte ta på allvar... han har haft så mycket fel förr o så håller han på nu igen... please.

Visa signatur

• In My Defens God Me Defend •

Permalänk
Avstängd
Skrivet av Bl4ckIce:

AdoredTV kan man inte ta på allvar... han har haft så mycket fel förr o så håller han på nu igen... please.

Ingen har alltid rätt, men han har många bra poänger.

döden av quad cores till förmån för hexa och octa cores.

Golden Samples och produkter som inte lever upp till prestandan i OEM produkter.

Att Vega 64 inte är något att hänga i granen.

inkonsekventa Tester med olika standarder för produkter. Sweclockers har faktiskt bland dem bästa testerna det enda som jag hade ändrat på att när det kommer till OC vs standard, vid OC hade jag hittat den högsta stabila punkten för systemet vid GPU och CPU testande och alltid överklockat Ram Minnet med CPU för att undvika en möjlig bottleneck För om du är en person som överklockar CPU så kommer du med största sannolikhet att överklocka Ram minnet.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk

@Bl4ckIce: kan du visa typ var han hade fel?

jag säger inte att jag står på hans sida men men jag har följt detta nu ett tag och jag ser inga fel i det han sagt. Det kanske är något jag missat, har ingen aning.

Biten om OEMs och tdp tyckte jag var klockren. Jag har sett detta många gånger med egna ögon så jag tror ju på det han sagt. Men det är ju med mina erfarenheter.

sen vet jag dock inte vad jag skall säga om varken Steve på HWUnboxed eller adored och debaclet dom har.

du får gärna peka ut vad du anser vara fel och gärna biten av videoklippet så jag kan kika på det

Permalänk
Digital fyndjägare
Skrivet av _Merc_:

Ingen har alltid rätt, men han har många bra poänger.

döden av quad cores till förmån för hexa och octa cores.

Golden Samples och produkter som inte lever upp till prestandan i OEM produkter.

Att Vega 64 inte är något att hänga i granen.

inkonsekventa Tester med olika standarder för produkter. Sweclockers har faktiskt bland dem bästa testerna det enda som jag hade ändrat på att när det kommer till OC vs standard, vid OC hade jag hittat den högsta stabila punkten för systemet vid GPU och CPU testande och alltid överklockat Ram Minnet med CPU för att undvika en möjlig bottleneck För om du är en person som överklockar CPU så kommer du med största sannolikhet att överklocka Ram minnet.

Vänta lite, var det inte HU (HardwareUnboxed) som var bland de första som uppmärksammade stuttering med dual core CPUer, för att inte tala om att flera användare här på swec påpekade att de själva upplevt stuttering med sina quads. Inte nog med detta fick de mothugg av andra välkända swecare på forumet som sade att det var inbillning.

Att pressen fått "bättre" cpuer för bättre PR har varit känt/ryktats rätt länge.

Att Vega64 inte var en höjdare var känt från allra första dagen när Vega FE släpptes trots sina tidiga drivrutiner.

Så jag skulle aldrig på fullaste allvar säga att vi ska tacka Jim (AdoredTV) för att han upplyste oss om dessa punkter... med andra ord "han ska inte ta åt sej äran om saker som vi redan visste".

Visa signatur

• In My Defens God Me Defend •

Permalänk
Digital fyndjägare

@SwedenVirre: Om du bläddrar runt bland hans upplägg på tuben själv så ser du lite här o var där mycket han sagt varit rena rama 50-50 gissningar till AMD's fördel vare sej det gällt Intel vs AMD eller Nvidia vs AMD.

Visa signatur

• In My Defens God Me Defend •

Permalänk
CS-mästare
Skrivet av Bl4ckIce:

Vänta lite, var det inte HU (HardwareUnboxed) som var bland de första som uppmärksammade stuttering med dual core CPUer, för att inte tala om att flera användare här på swec påpekade att de själva upplevt stuttering med sina quads. Inte nog med detta fick de mothugg av andra välkända swecare på forumet som sade att det var inbillning.

Att pressen fått "bättre" cpuer för bättre PR har varit känt/ryktats rätt länge.

Att Vega64 inte var en höjdare var känt från allra första dagen när Vega FE släpptes trots sina tidiga drivrutiner.

Så jag skulle aldrig på fullaste allvar säga att vi ska tacka Jim (AdoredTV) för att han upplyste oss om dessa punkter... med andra ord "han ska inte ta åt sej äran om saker som vi redan visste".

Så du vill inte ge honom någon ära som undersöker saken så gott det går sett till förutsättningarna då "alla redan visste", du är då inte speciellt vetenskapligt lagd må jag säga.

Permalänk
Medlem
Skrivet av _Merc_:

@ClintBeastwood: Jag har tidigare sagt att när det kommer till överklockning så vill jag ha både Minne och CPU överklockade för att utesluta bottlenecks mellan den ena och den andra. Sen hade det även varit trevligt att se hur timings påverkar prestanda men det kanske är lite för mycket att testa.

Ett test utan någon överclockning och ett test med överclockning på både minne och CPU.

Verkar även som om Sandy bridge och äldre Intel Cpuer drar stor nytta av minnes överclockning.

Måste erkänna att min favorit del av Videon är testet av i5or i Assassins Creed Origins. Faller verkligen Ryzen efter Intel i spel Prestanda när en 7600k har problem i moderna spel? En 8600k kanske inte har några problem just nu, men den saknar Trådar vilket kommer ge den problem om några år kan jag tro om Ubisoft och andra fortsätter att pusha spelens AI.

Utan att veta mer skulle jag gissa draw distance drar CPU prestanda så det sjunger om det... WoW är ett ypperligt exempel på det (iaf då jag spelade för x antal år sedan)

ps varför är 17 ett måste? kul att han dissar dig eller?

Permalänk
Medlem
Skrivet av DST:

När jag kollar på klippen så gör jag det med händerna för ögonen för det är så skämmigt. Så mycket hyckleri och han vrider och vänder på det ena och andra för att försöka få Steve @HU framstå som att han skevar sina tester.

Entertainment iaf

Kort sagt, för att Jim ska acceptera testerna så skall följande efterföljas:

  • Du skall ej testa äldre ock icke Ryzen budget cpuer med snabba minnen, eller för snabb gpu eller för låg upplösning eftersom det återspeglar inte vad dessa system och användare förmodligen kör med.

  • Du skall ej ha med ett spel som är äldre i testet även om dessa fortfarande är mycket populära eller krävande.

  • Du skall ej ändra inställningar från test till test.

  • Du skall ej uppvisa annat fps-resultat i spel som testats tidigare, oavsett om det är spelet, win eller drivrutinerna som uppdaterats.

  • Du skall inte gnälla på hans analys trots att du själv har dina egna testade siffror.

Ok, jag hugger på denna. Du listar 5 punkter och börjar med den som står säkrast. Den har jag just nu inga invändningar mot, men efter det blir det värre.
2. Om du testar om den ena eller andra designen är bättre i det ena eller det andra fallet, är det rimligt att hålla testfallen åtskillda. Annars testar du inte det du påstår att du testar.
3. Att ändra på testmetoden mellan två test med en väl grundad motivering till varför är både rimligt och nyttigt. Att utan motivering göra det mitt under brinnande test får det att se ut som om resultaten är handplockade.
4. Att utan motivering frångå en inarbetad testmetodik till förmån för en annan som så ensidigt och uppenbart gynnar en av antagonisterna, vilket blir extra tydligt givet de tidigare publicerade resultaten, gör att testresultaten går att ifrågasätta då de verkar handplockade.
5. Gnäll gärna på analysen, men så länge inte data eller metodik som backar upp kritiken presenteras på ett sakligt sätt utan att ge sken av förutfattade uppfattningar så riskerar kritiken att fall platt.

Vilket för oss tillbaka till argument 1. Givet 2, 3 och 4 i det här specifika fallet, så ger logiken att de siffror som ställer den ena tillverkaren i bättre dager har använts här också. Guilt by association.

Det som diskuteras i första videon är metodik och hur felaktig metodik kan ge svar som skenbart är väl underbyggda, men som inte håller för en närmare inspektion. Huruvida Adored faktiskt har rätt gällande vilken arkitektur som ger bäst resultat i dagens spel, är en fråga som inte är klargjord helt än, men det som påtalas är att metoden i videon han opponerar sig mot inte räcker för att säga varken bu eller bä i frågan.

Den slutsatsen har jag svårt att argumentera mot, ur ett rent metodiskt perspektiv.

Permalänk
Datavetare
Skrivet av _Merc_:

Ingen har alltid rätt, men han har många bra poänger.

döden av quad cores till förmån för hexa och octa cores.

Golden Samples och produkter som inte lever upp till prestandan i OEM produkter.

Att Vega 64 inte är något att hänga i granen.

inkonsekventa Tester med olika standarder för produkter. Sweclockers har faktiskt bland dem bästa testerna det enda som jag hade ändrat på att när det kommer till OC vs standard, vid OC hade jag hittat den högsta stabila punkten för systemet vid GPU och CPU testande och alltid överklockat Ram Minnet med CPU för att undvika en möjlig bottleneck För om du är en person som överklockar CPU så kommer du med största sannolikhet att överklocka Ram minnet.

Låt oss skrapa lite på yta kring dessa uttalanden...

Golden Samples

I den videon hävdes bl.a. att "delid" ger ~200 MHz högre överklockningstak, men för att vara konservativ förutsattes bara att effekten var ~100 MHz. Well, givet de resultat Hardware Unboxed (HU) fick egentligen ska kompenseras med 100 MHz då alla testade CPUer körde med tandkrämen.

I det fallet pekar ju resultaten absolut inte mot att det skulle handla om några "golden samples", snarare tvärt om.

Fast personligen tar jag detta som ännu ett i raden av resultat som visar hur mycket storm i ett vattenglas TIM-debatten är. Rätt säker att även 100 MHz högre överklockningspotential från delid är i överkant.

Även HU gör misstag i deras test. Dels kör Silicon Lottery med AVX offset på -200 MHz, det gjorde inte HU (något som än mer försvagar "golden sample" tesen, så inte förvånande att den detaljen "missades"). Dels svamlas det om att ~90C inte kan användas för dagligt bruk. Kretsen är specificerad, validerad och testad att fungera helt som tänkt upp till 100C (har två superkompakta maskiner som kör 24/7 regelmässigt ligger mellan 90-100 C under last, det är ett icke-problem).

i5-8400

Här var den ursprungliga utsagan att de i5-8400 som testades var "golden samples", den genomsnittlige i5-8400 kretsen skulle knappast hålla 3,8 GHz med alla kärnor aktiv. Vidare skulle det heller inte gå att köra någon krets i den hastigheten på "billiga" moderkort.

Vad såg vi? Alla i5-8400 verkar kunna köra 3,8 GHz på "lösa" Z370 moderkort , så den utsagan var falsk.

Börjar komma ut lite tester på H370, H310, Q370 och B360, d.v.s. de enklare varianterna. Vad ser vi? i5-8400 klarar även här att hålla sina 3,8 GHz. Och vem är förvånad, alla "lösa" moderkort måste även fixa i7-8700K, d.v.s. en 95 W TDP CPU, så även om i5-8400 kliver förbi 65 W (TDP != maximal effekt) finns hyfsat med marginal kvar ändå.

Men OEM då??? OEM-system är helhetslösningar, här behöver man överhuvudtaget inte ta hänsyn till någon annat än det specifika systemet. Alla dagens Intel CPU har specifika inställningar för OEM, någon man kan läsa i Intels officiella dokumentation (sök efter PL1, PL2, PL3 och PL4).

OEM system, speciellt laptops, tweakar PL-parameters för att ge den ljudnivå, prestandaprofil och temperaturprofil tillverkaren väljer för sitt system. I "lösa" moderkort står PL-värdena på maximalt tillåtna värden, en effekt av detta är att turboläget hålls för evigt bara kylaren är kapabel nog (medan många OEM ofta specifikt ändrar maximal turbo till 10-60 sekunder, speciellt viktigt för bärbara när de kör på batteri).

Så i detta är det som skulle bevisas bevisligen totalt fel, att någon fortfarande tror på detta visar på total noll källkritik (som sagt, det som beskriver effekten han ser i OEM-system står i den officiella dokumentationen...).

FX-8350/i7-2600K

Denna går inte att bevisa åt något håll, detta då man alltid kan välja resultat. Dock görs ett par rejäla misstag rent formellt, både matematisk/statiskt och i urvalet av källor, dessa är värda att peka ut.

Både AnandTech och TomsHardware hade länge helt värdelösa speltester, de var kvar på GTX980 när i princip alla andra sedan länge använde GTX1080. Numera har även dessa webbplatser bytt GPU, men i de senare tester finns inte FX-8350 med. Självklart blir skillnaden mindre när GPU är flaskhals!

Sedan använder allt för många geometrisk medelvärde vid jämförelse av relativa resultat, d.v.s. hur mycket snabbare är A jämfört med B. Det är olämpligt av flera skäl. Aritmetiskt medelvärde väldigt känsligt för enstaka avvikande värden (så blir extremt känsligt vilka titlar som testas). Geometriskt medelvärde rekommenderas när man gör medelvärden av kvoter + geometrisk medelvärde är relativt okänsligt mot enstaka avvikande värden.

Men här har man ju hittat roten till "problemet", eller hur? Tja, vi är på SweClockers och SweClockers är en av de få webbplatser som faktiskt väljer att köra systemen med den minnesfrekvens som officiellt stöds. Så även för FX-8350 och i7-2600K.

Vad ser vi i senaste stora CPU-testet, d.v.s i7-8700K Där i7-2600K använder DDR3 1333 MT/s minnen?

Över de speltitlar som testas har i7-2600K 20 % högre genomsnittlig FPS och 35 % högre lägsta FPS jämfört med FX-8350. Det är väsentligt mer jämfört med SweClockers ursprungliga test av FX-8350.

Döden för quad-core

Till att börja med kan man konstatera att även i7-2600K och i7-7700K är rent tekniskt quad-cores, de uppvisar överhuvudtaget inte problem som man försöker fästa på CPUer med "endast" fyra kärnor. Men är nog 4C/4T som avses här.

Då till nästa punkt, hur var det med att ha en statistiskt relevant urval av testpunkter innan man drar slutsatser, var det inte herr Jim som så hårt trycker på det? Vad har han nu att luta sig på? Ett enda enda spel... Egentligen borde inte så mycket mer behövas skrivas om denna punkt, men några saker måste ändå belysas.

Till att börja med kan man konstatera att i3-7350K, en 2C/4T modell, faktiskt klarar sig bättre än i7-2600K i SweClockers 1280x720 testing. Den har något högre genomsnittlig FPS (i.o.f.s. bara 4 %) och identiskt genomsnittligt lägsta FPS jämfört med i7-2600K (4C/8T).

Men det är självklart en isolerad händelse!!! Techpowerup testar rätt många titlar, undantaget CivVI så klarar sig i3-7100 riktigt bra både sett till genomsnittlig FPS i 1280x720 och framförallt sett till lägsta FPS i 1920x1080. i7-7600K klarar sig självklart bättre, jämfört med R7-1800X har den förra i (geometriskt medel) 5 % högre lägsta FPS.

Med väldigt nära 100 % sannolikhet kommer denna utsaga i något läge blir sann, men än så länge sträcker sig "beviset" för att den är sann idag till en enda speltitel medan även sett till lägsta FPS (som ofta slår hårdare när CPU-kraften tryter) klarar sig quad-cores alldeles utmärkt även med GTX1080 i 1920x1080.

Skulle säga att träffsäkerheten här ligger i nivå eller strax under var totalt vilda gissningar skulle ge. Givet tillräckligt många vilda gissningar så kommer vissa uppfyllas, det är ren sannolikhetslära

Förstår inte varför ingen ser elefanten i rummet kring spelprestanda. Jämför SKL-X och SKL-S, KBL-S samt CFL-S. Alla dessa har identisk mikroarkitektur men olika cache-design. X-serien är optimerad för typiska serverlaster (vilket inte matchar spel) medan S-serien är optimerad för typiska desktop-laster (vilket passar spel som hand i handsken).

Så varför ligger då Zen efter S-serien i spel? Därför att Zen, precis som SKL-X, är primärt designad för serverlaster med en cache-design optimerad för detta. Spel är inte optimerade för Intel, S-serien är optimera för spel (och andra desktop-laster)!!!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd

Adored kan dra ett lakan över sig. Han har absolut ingen kredibilitet och kommer få jobba extremt jäkla hårt i flera år framöver för att få tillbaka det.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Avstängd
Skrivet av Viochee:

Utan att veta mer skulle jag gissa draw distance drar CPU prestanda så det sjunger om det... WoW är ett ypperligt exempel på det (iaf då jag spelade för x antal år sedan)

ps varför är 17 ett måste? kul att han dissar dig eller?

varför skulle han dissa mig?

Skickades från m.sweclockers.com

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Gruarn:

Ok, jag hugger på denna. Du listar 5 punkter och börjar med den som står säkrast. Den har jag just nu inga invändningar mot, men efter det blir det värre.
2. Om du testar om den ena eller andra designen är bättre i det ena eller det andra fallet, är det rimligt att hålla testfallen åtskillda. Annars testar du inte det du påstår att du testar.
3. Att ändra på testmetoden mellan två test med en väl grundad motivering till varför är både rimligt och nyttigt. Att utan motivering göra det mitt under brinnande test får det att se ut som om resultaten är handplockade.
4. Att utan motivering frångå en inarbetad testmetodik till förmån för en annan som så ensidigt och uppenbart gynnar en av antagonisterna, vilket blir extra tydligt givet de tidigare publicerade resultaten, gör att testresultaten går att ifrågasätta då de verkar handplockade.
5. Gnäll gärna på analysen, men så länge inte data eller metodik som backar upp kritiken presenteras på ett sakligt sätt utan att ge sken av förutfattade uppfattningar så riskerar kritiken att fall platt.

Vilket för oss tillbaka till argument 1. Givet 2, 3 och 4 i det här specifika fallet, så ger logiken att de siffror som ställer den ena tillverkaren i bättre dager har använts här också. Guilt by association.

Det som diskuteras i första videon är metodik och hur felaktig metodik kan ge svar som skenbart är väl underbyggda, men som inte håller för en närmare inspektion. Huruvida Adored faktiskt har rätt gällande vilken arkitektur som ger bäst resultat i dagens spel, är en fråga som inte är klargjord helt än, men det som påtalas är att metoden i videon han opponerar sig mot inte räcker för att säga varken bu eller bä i frågan.

Den slutsatsen har jag svårt att argumentera mot, ur ett rent metodiskt perspektiv.

Ingen "testare" är tvingad att hålla sig till samma inställningar eller samma testmetod, så länge du upplyser varför och det gjorde Steve, testet var ju till för att visa hur stora skillnaderna är/var mellan fx å sandy när tyglarna är fria. Knappast Steves fel om fx inte hänger med i hans test som är ihopsnickrat för att ge vardera cpu så bra förutsättningar som möjligt, ska du gnälla att riktiga cpu test i spel körs i 720P oxå?

Det finns åtskilliga test som kör @ stock minnen med säg ett rx480/gtx1060 som du kan vända dig till om du vill se hur dessa cpuer presterar om du inte är nöjd med att se vad som händer när cpun inte blir "flaskad" av andra komponenter.

Med ditt tänk så borde man ju inte ens köra med ett nytt grafikkort som nyttjar pci-e3 eftersom tillverkarna inte har officiellt stöd för det. Både minnen och gpu är komponent som är utbytbara/uppgraderingsbara så förstår inte din kritik och Steve smyger inte med något.

Man anser ju att entusiaster borde vilja se test där fokusen är på cpuerna, men jag antar att så fort något inte gynnar AMD så är det felaktigt utförande

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem
Skrivet av DST:

Ingen "testare" är tvingad att hålla sig till samma inställningar eller samma testmetod, så länge du upplyser varför och det gjorde Steve, testet var ju till för att visa hur stora skillnaderna är/var mellan fx å sandy när tyglarna är fria. Knappast Steves fel om fx inte hänger med i hans test som är ihopsnickrat för att ge vardera cpu så bra förutsättningar som möjligt, ska du gnälla att riktiga cpu test i spel körs i 720P oxå?

Det finns åtskilliga test som kör @ stock minnen med säg ett rx480/gtx1060 som du kan vända dig till om du vill se hur dessa cpuer presterar om du inte är nöjd med att se vad som händer när cpun inte blir "flaskad" av andra komponenter.

Med ditt tänk så borde man ju inte ens köra med ett nytt grafikkort som nyttjar pci-e3 eftersom tillverkarna inte har officiellt stöd för det. Både minnen och gpu är komponent som är utbytbara/uppgraderingsbara så förstår inte din kritik och Steve smyger inte med något.

Man anser ju att entusiaster borde vilja se test där fokusen är på cpuerna, men jag antar att så fort något inte gynnar AMD så är det felaktigt utförande

"Med mitt tänk"? Var någonstans diskuterade jag över huvud taget sakfrågan i mitt inlägg? Det var en ren och skär metoddiskussion, men det är inte för alla.

Nåväl, för att sammanföra diskussionen om sakfrågan med diskussionen om metodiken: om man genom att ändra några få inställningar får så vitt skilda resultat, så är det dags att ifrågasätta användningen av spel som en del testsviten över huvud taget! Det blir ju helt godtyckligt!

Permalänk
Medlem
Skrivet av Yoshman:

FX-8350/i7-2600K

Denna går inte att bevisa åt något håll, detta då man alltid kan välja resultat. Dock görs ett par rejäla misstag rent formellt, både matematisk/statiskt och i urvalet av källor, dessa är värda att peka ut.

Både AnandTech och TomsHardware hade länge helt värdelösa speltester, de var kvar på GTX980 när i princip alla andra sedan länge använde GTX1080. Numera har även dessa webbplatser bytt GPU, men i de senare tester finns inte FX-8350 med. Självklart blir skillnaden mindre när GPU är flaskhals!

Sedan använder allt för många geometrisk medelvärde vid jämförelse av relativa resultat, d.v.s. hur mycket snabbare är A jämfört med B. Det är olämpligt av flera skäl. Aritmetiskt medelvärde väldigt känsligt för enstaka avvikande värden (så blir extremt känsligt vilka titlar som testas). Geometriskt medelvärde rekommenderas när man gör medelvärden av kvoter + geometrisk medelvärde är relativt okänsligt mot enstaka avvikande värden.

Men här har man ju hittat roten till "problemet", eller hur? Tja, vi är på SweClockers och SweClockers är en av de få webbplatser som faktiskt väljer att köra systemen med den minnesfrekvens som officiellt stöds. Så även för FX-8350 och i7-2600K.

Vad ser vi i senaste stora CPU-testet, d.v.s i7-8700K Där i7-2600K använder DDR3 1333 MT/s minnen?

Över de speltitlar som testas har i7-2600K 20 % högre genomsnittlig FPS och 35 % högre lägsta FPS jämfört med FX-8350. Det är väsentligt mer jämfört med SweClockers ursprungliga test av FX-8350.

Döden för quad-core

Till att börja med kan man konstatera att även i7-2600K och i7-7700K är rent tekniskt quad-cores, de uppvisar överhuvudtaget inte problem som man försöker fästa på CPUer med "endast" fyra kärnor. Men är nog 4C/4T som avses här.

Då till nästa punkt, hur var det med att ha en statistiskt relevant urval av testpunkter innan man drar slutsatser, var det inte herr Jim som så hårt trycker på det? Vad har han nu att luta sig på? Ett enda enda spel... Egentligen borde inte så mycket mer behövas skrivas om denna punkt, men några saker måste ändå belysas.

Till att börja med kan man konstatera att i3-7350K, en 2C/4T modell, faktiskt klarar sig bättre än i7-2600K i SweClockers 1280x720 testing. Den har något högre genomsnittlig FPS (i.o.f.s. bara 4 %) och identiskt genomsnittligt lägsta FPS jämfört med i7-2600K (4C/8T).

Men det är självklart en isolerad händelse!!! Techpowerup testar rätt många titlar, undantaget CivVI så klarar sig i3-7100 riktigt bra både sett till genomsnittlig FPS i 1280x720 och framförallt sett till lägsta FPS i 1920x1080. i7-7600K klarar sig självklart bättre, jämfört med R7-1800X har den förra i (geometriskt medel) 5 % högre lägsta FPS.

Med väldigt nära 100 % sannolikhet kommer denna utsaga i något läge blir sann, men än så länge sträcker sig "beviset" för att den är sann idag till en enda speltitel medan även sett till lägsta FPS (som ofta slår hårdare när CPU-kraften tryter) klarar sig quad-cores alldeles utmärkt även med GTX1080 i 1920x1080.

Skulle säga att träffsäkerheten här ligger i nivå eller strax under var totalt vilda gissningar skulle ge. Givet tillräckligt många vilda gissningar så kommer vissa uppfyllas, det är ren sannolikhetslära

Förstår inte varför ingen ser elefanten i rummet kring spelprestanda. Jämför SKL-X och SKL-S, KBL-S samt CFL-S. Alla dessa har identisk mikroarkitektur men olika cache-design. X-serien är optimerad för typiska serverlaster (vilket inte matchar spel) medan S-serien är optimerad för typiska desktop-laster (vilket passar spel som hand i handsken).

Så varför ligger då Zen efter S-serien i spel? Därför att Zen, precis som SKL-X, är primärt designad för serverlaster med en cache-design optimerad för detta. Spel är inte optimerade för Intel, S-serien är optimera för spel (och andra desktop-laster)!!!

8350 vs 2500K
Påståendet från första början var INTE att 8350 > 2600k. Påståendet var:
”I nyare spel kommer skillnaden mellan 2500k och 8350 att sjunka generellt om man jämför med spel typiska för den tiden”
Då kan man inte ändra det till 2600K, som då har 2x trådar och verkar tillsynes vara bättre än 2500k. Hela Adoreds resonemang faller på att data inte finns tillgänglig förutom i ett fall, dvs computerbase, där CPU:erna (och RAM hastigheten) är konstanta och GPU:erna (samt spelen) ändras över tid tills vi kommer till 2017 där titanXP är grafikkortet. Vari ligger felet i dessa siffror ? T.ex om man ser på gamersnexus siffror (där 8350 ej är tillgänglig utan 8370, så jag tycker hela den här jämförelsen är onödig, men påvisar att computerbase kanske inte är helt fel ute med sina siffror. Vad jag kunde se så var 8370 någon procent snabbare än 8350) så ges följande resultat:
BF1: 2500k 20% snabbare än 8370. 2600k 2,6% snabbare än 2500k
TwW: 8370 7% snabbare än 2500k. 2600k 22,8% snabbare än 2500k.
WD2: 8370 5% snabbare än 2500k. 2600k 26% snabbare än 2500k.
MetroLL: 8370 3% snabbare än 2500k. 2600k 23,7% snabbare än 2500k.
AoTS: 0% skillnad mellan 2500k och 8370 .2600k 36,6% snabbare än 2500k.

Jag tror att 2600k kanske presterar aningen bättre än 2500k, men jag är inte helt säker, då minnet kanske varierar? Svårt att veta… och är inget direkt som jag har tid att kolla igenom.
Jag tror dock att HWunboxed kommer att bencha gamla spel som nya nu och då får man faktiskt se om det ändrats. Båda kan ju ha rätt där HWunboxed använder snabba minnen som utgångspunkt, och Adored med långsamma minnen som utgångspunkt.

Nu till sweclockers tester . Den ursprungliga 8350 recensionen hade 3 spel (känns inte tillräckligt för att dra så stora slutsatser) varav i BF3 verkar den vara till större delen GPU bunden?
BF3: 2600k 2% snabbare.
Civ5: 2600k 32,6% snabbare.
Shogun 2: 25% snabbare

Det här är otillräckligt för att dra slutsatser, vi hoppar fram 2 år när urvalet av spel är större och grafikkortet är snabbare.
BF4: 2600k 6,5% snabbare
BioI: 2600k 28,1% snabbare
Skyrim: 2600k 29,8 % snabbare
MetroLL: 2600k 16,8 % snabbare
Thief: 2600k 36,5 % snabbare
Den verkar till och med aningen snabbare då än idag och vid den första recensionen? Idag kan man dock inte säga att det finns så mycket att skylla på när det kommer till GPU:n , och sannolikt skulle en snabbare GPU år 2014 ha gett t.o.m större skillnader då 290X möjligtvis fortfarande begränsade i 720p tester. Men detta är som sagt endast en spekulation.

Techpowerup:
När jag gick igenom 720p resultaten individuellt hittade jag några udda saker:
Den första rörde RoTR i 720p . https://tpucdn.com/reviews/Intel/Core_i7_8700K/images/rottr_1...
1800X har 128,9 FPS och 7600k 204? Jag tycker att siffrorna överensstämmer för 7600K som jag sett förut, men inte direkt för 1800X , som även nämndes i videon som du såg hade ryzen från början urusla resultat i RoTR. Jag begav mig ut, som jag alltid gör när jag letar efter benchmarks, på youtube.
175 med GTX 1070 och 1800X OC
223 med 1080ti och 1700 OC 3.9Ghz
190,165,157,144 med 1080ti , 1700x, 1080p test
Så ska jag på allvar tro att 1800X har fått medelvärdet 128,9? Vi undersöker deras senaste recension för 2400G
Så den 4 kärniga 2400G, får 183 FPS, 42% snabbare än 1800X i RoTR???? Detta resultat är mycket närmre R7 i de testerna som jag fann på youtube. De verkar inte ens ha uppdaterat resultaten? Då de fick 110 när de körde med 2666 minne vid launch och 112 med 3200 minne senare .

Låt oss se om 2400G faktiskt är snabbare än 1800X:
Totalt: 0,3% fördel 2400G OC enligt techpowerup
BF1: 17% fördel 1800x
Civ5: 3,9% fördel 1800x
DeMD: 4,9% fördel 1800x
Dis2: 1% fördel 1800X
Doom: 3% fördel 1800x
FCPrimal: 7,7% fördel 2400G
Hitman: 13,3% fördel 1800X
RE7: 7,4% fördel 1800x
RoTR: 42% fördel 2400G
SE5: 2,9% fördel 1800x
WD2: 27,2% fördel 2400G (1600 och 1600X? Hmmm….)
Witcher3: 11,1% fördel 1800X

Till att börja med: Far cry primal är jag inte förvånad över (det har alltid vad jag minns varit dåligt på ryzen och även skylake-X). AVG verkar endast ändras för ryzen då man ändrar på graphics quality settings (1440p och 1080p ger samma resultat) . Pop-in ändras avsevärt då, och förmodligen har det att göra med varför FPS ökar. Det här kanske har att göra med cacheskillnader som du nämner?

Rotr: Redan förklarat… 42% skillnad…

Watch dogs 2: Alla siffror verkar huller om buller här? Ta en titt på 1600 som får 101,7 FPS och 1600X som får 77,2 FPS. R5 1400 får 61 FPS medan 2400G får 88,4? Jag vet inte vad jag ska säga. Vi går över till 1080p.
Nu är 1800X 11,1% snabbare än 2400G, från att ha legat under med 27,2%. Inte nog med det, de ökade sin FPS från 78,1 i 720p till 81,9 i 1080p. Måhända X i 1800X står för Xtra pixel power? Eller så har de helt enkelt testat med andra uppdateringar på den nya hårdvaran och behållit de gamla resultaten? (81,9 -> 81,9 i 1080p och 58,5 -> 59,2 i 1440p).

I alla fall, jag tycker att de har

Skrivet av Yoshman:

helt värdelösa speltester

Permalänk
Datavetare

@Radolov: Om nu TechPower är uselt, så låt oss bara kolla på den serie av speltester du länkar hos SweClockers.

Normalt sett är lägsta FPS mer CPU-beroende jämfört med genomsnittlig FPS, vidare använde jag konsekvent geometrisk medelvärde då vi jämför kvoter (FPS för i7-2600K vs FPS för FX-8350). Geometriskt medelvärde är alltid mindre eller lika med aritmetiskt ("vanligt" medelvärde), enda gången de är lika är om alla värden är lika. Geometriskt medelvärde är väsentligt mindre känsligt för enstaka avvikande värden jämfört med aritmetiskt medelvärde. Vill man göra det lite enklare är även medianen långt bättre än aritmetiskt medelvärde, tar man även med 25 och 75 percentilerna får man en väldigt bra jämförelse.

För den SweClockers serie du länkar är i7-2600K 30 % snabbare, mot 35 % idag.

Men du missar huvudpunkten kring vad jag skrev om just detta: "Denna går inte att bevisa åt något håll, detta då man alltid kan välja resultat."

D.v.s. jag hävdar inte att han har fel, resultaten var mest för att visa just att man kan få vilka resultat man vill här.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

@Radolov: Om nu TechPower är uselt, så låt oss bara kolla på den serie av speltester du länkar hos SweClockers.

Skrivet av Yoshman:

Men här har man ju hittat roten till "problemet", eller hur? Tja, vi är på SweClockers och SweClockers är en av de få webbplatser som faktiskt väljer att köra systemen med den minnesfrekvens som officiellt stöds. Så även för FX-8350 och i7-2600K.

Vad ser vi i senaste stora CPU-testet, d.v.s i7-8700K Där i7-2600K använder DDR3 1333 MT/s minnen?

Över de speltitlar som testas har i7-2600K 20 % högre genomsnittlig FPS och 35 % högre lägsta FPS jämfört med FX-8350. Det är väsentligt mer jämfört med SweClockers ursprungliga test av FX-8350.

Jag tog dessa värden för att du nämnde dem? Jag förstår inte, meningsbyggnaden tyder på att SweClockers speltester inte ska vara bättre utförda än de som gjordes av TechPowerUp? Eller är det en "Aha, så 1800X må vara testad på olika mjukvaror på TechPowerUp, men titta på hur 2600k testas på Swec"? Hjälp mig att förstå ditt resonemanget.

Skrivet av Yoshman:

Normalt sett är lägsta FPS mer CPU-beroende jämfört med genomsnittlig FPS, vidare använde jag konsekvent geometrisk medelvärde då vi jämför kvoter (FPS för i7-2600K vs FPS för FX-8350). Geometriskt medelvärde är alltid mindre eller lika med aritmetiskt ("vanligt" medelvärde), enda gången de är lika är om alla värden är lika. Geometriskt medelvärde är väsentligt mindre känsligt för enstaka avvikande värden jämfört med aritmetiskt medelvärde. Vill man göra det lite enklare är även medianen långt bättre än aritmetiskt medelvärde, tar man även med 25 och 75 percentilerna får man en väldigt bra jämförelse.

Så om TechPowerUp är uselt så geometriska medelvärden bättre än aritmetiska då det är mindre känsligt. Got it! Jag hoppas jag inte gör fel med de geometriska värdena.
Aritmetiska: 20%-->23,5%--->21,7%
Geometriska: 19,3%-->23%-->21,6%
StdAvvikelse: 0.15-->0.12-->0.04

Detta är förstås om AVG som jag alltid konsekvent talat om, som tar med alla värden, inte de 1% lägsta, eller de 1% största. Jag gör inte detta av en ondskefull anledning, utan för att jag helst inte vill utesluta några värden (såsom Millikan 1910). Jag skulle argumentera för att 1% max påverkas i lika mån som minimum av CPU:n, t.ex crysis 3 så har 7600k både höga toppar och dalar. Från vad jag har sett så påverkas 1% low generellt mer av RAM frekvens än processor.

Skrivet av Yoshman:

För den SweClockers serie du länkar är i7-2600K 30 % snabbare, mot 35 % idag.

Du glömde nämna att du kör minimum nu, eller är det underförstått från "Normalt sett är lägsta FPS mer CPU-beroende jämfört med genomsnittlig FPS" .

Skrivet av Yoshman:

Men du missar huvudpunkten kring vad jag skrev om just detta: "Denna går inte att bevisa åt något håll, detta då man alltid kan välja resultat."

Missade som inte förstod eller glömde läsa? Jag läste meningen, och har aldrig trott att 2600k är långsammare eller ens har närmat sig 8350 någonsin. Ingen av siffrorna som jag presenterat tyder ens på det (om man inte drar något vinklat narrativ som Adored gör med Anandtech, Tech report, PCGH siffrorna). Så jag står fast vid det tills jag fått data som falsifierar detta.

Huvudpunkten med det som jag sa var ju att förhållandet mellan 8350 och 2500k var mest intressant, då ena har 8 trådar och den andra har 4 trådar. Man kan inte ändra på frågeställningen och sedan besvara den själv med "Det går inte att bevisa". Samtidigt så kan man se på computerbase siffror eller gamersnexus siffror att skillnaden i AVG har gått från att ha ett någorlunda stort övertag (som vad jag vet inte kan bero på att grafikkortet flaskhalsar) till att i princip gå till 0 (8350 har 99,2% av 2500ks prestanda med geometrisk, eller 99,7% med aritmetisk, eller 4 fall där det presterade bättre och 1 där den presterade sämre). Jag har svårt att ignorera just den punkten. Detta är förstås för "långsamma" minnen.

HWunboxed ändrade på premisserna genom att höja minnesfrekvensen markant och fick resultatet att 2500k var mycket snabbare än 8350. Och jag tror honom med, men han måste ändå påvisa att övertaget är fortfarande lika stort eller mindre i gamla spel som med nya spel. Inte ens det är tillräckligt för att bevisa dem (GN,CB) fel. Utan då krävs att han kör med samma frekvens på minnet som de andra, och gör om testen och får att 2500k är tillräckligt mycket snabbare än 8350. Det är iallafall vad som krävs för att övertyga mig.

Skrivet av Yoshman:

D.v.s. jag hävdar inte att han har fel, resultaten var mest för att visa just att man kan få vilka resultat man vill här.

Jag kan iallafall inte få det till att 8350>2600k. Det, om något, har jag inte lyckats hitta ett enda fall av.

Permalänk
Medlem

Konstigt att han har bra gilla omdöme utav videos...?

trodde mer på dislike.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Datavetare
Skrivet av Radolov:

Jag tog dessa värden för att du nämnde dem? Jag förstår inte, meningsbyggnaden tyder på att SweClockers speltester inte ska vara bättre utförda än de som gjordes av TechPowerUp? Eller är det en "Aha, så 1800X må vara testad på olika mjukvaror på TechPowerUp, men titta på hur 2600k testas på Swec"? Hjälp mig att förstå ditt resonemanget.

Så om TechPowerUp är uselt så geometriska medelvärden bättre än aritmetiska då det är mindre känsligt. Got it! Jag hoppas jag inte gör fel med de geometriska värdena.
Aritmetiska: 20%-->23,5%--->21,7%
Geometriska: 19,3%-->23%-->21,6%
StdAvvikelse: 0.15-->0.12-->0.04

Detta är förstås om AVG som jag alltid konsekvent talat om, som tar med alla värden, inte de 1% lägsta, eller de 1% största. Jag gör inte detta av en ondskefull anledning, utan för att jag helst inte vill utesluta några värden (såsom Millikan 1910). Jag skulle argumentera för att 1% max påverkas i lika mån som minimum av CPU:n, t.ex crysis 3 så har 7600k både höga toppar och dalar. Från vad jag har sett så påverkas 1% low generellt mer av RAM frekvens än processor.

Du glömde nämna att du kör minimum nu, eller är det underförstått från "Normalt sett är lägsta FPS mer CPU-beroende jämfört med genomsnittlig FPS" .

Missade som inte förstod eller glömde läsa? Jag läste meningen, och har aldrig trott att 2600k är långsammare eller ens har närmat sig 8350 någonsin. Ingen av siffrorna som jag presenterat tyder ens på det (om man inte drar något vinklat narrativ som Adored gör med Anandtech, Tech report, PCGH siffrorna). Så jag står fast vid det tills jag fått data som falsifierar detta.

Huvudpunkten med det som jag sa var ju att förhållandet mellan 8350 och 2500k var mest intressant, då ena har 8 trådar och den andra har 4 trådar. Man kan inte ändra på frågeställningen och sedan besvara den själv med "Det går inte att bevisa". Samtidigt så kan man se på computerbase siffror eller gamersnexus siffror att skillnaden i AVG har gått från att ha ett någorlunda stort övertag (som vad jag vet inte kan bero på att grafikkortet flaskhalsar) till att i princip gå till 0 (8350 har 99,2% av 2500ks prestanda med geometrisk, eller 99,7% med aritmetisk, eller 4 fall där det presterade bättre och 1 där den presterade sämre). Jag har svårt att ignorera just den punkten. Detta är förstås för "långsamma" minnen.

HWunboxed ändrade på premisserna genom att höja minnesfrekvensen markant och fick resultatet att 2500k var mycket snabbare än 8350. Och jag tror honom med, men han måste ändå påvisa att övertaget är fortfarande lika stort eller mindre i gamla spel som med nya spel. Inte ens det är tillräckligt för att bevisa dem (GN,CB) fel. Utan då krävs att han kör med samma frekvens på minnet som de andra, och gör om testen och får att 2500k är tillräckligt mycket snabbare än 8350. Det är iallafall vad som krävs för att övertyga mig.

Jag kan iallafall inte få det till att 8350>2600k. Det, om något, har jag inte lyckats hitta ett enda fall av.

Tror det är läge att helt klarlägga vad i alla fall jag försökte säga där.

Hävdar alltså inte att man ska visa att FX-8350 > 2600K. Vad som avsågs både av mig och de videos vi diskuterar är om relativa skillnaden i spelprestanda förändrats med tiden. Här menar jag att man utan större problem kan visa att den relativa skillnaden inte ändrats, ökat eller minskat bara genom att välja referenser som ger det resultat man önskar.

Men inser själv att det som egentligen är frågan var om 1280x720 testning är en bra prediktion av framtida relativ prestandaskillnad i "normal" upplösning. Den frågan har två svar, ja och nej

Nej: man kommer inte få absolutbeloppet rätt i hur stor skillnaden kommer bli, det då spelmotorer förändras, GPU-design förändras, m.m. så varje CPUs styrkor och svagheter kommer påverka olika. Å andra sidan är det ju rätt stor varians mellan olika spel så att svara på denna fråga är egentligen rätt irrelevant.

Ja: om den relativa skillnaden är signifikant (kan man diskutera vad det är, men ska i alla fall handla om >10-20 %) så kan man med väldigt hög träffsäkerhet säga att den relativa skillnaden i "normala" upplösningar kommer öka med tiden då GPU blir en mindre flaskhals. Det förutsätter i.o.f.s att spelmotorer blir mer CPU-tunga med tiden, inte alls garanterat så länge vi har dagens konsoler som aktuella (deras CPUer är ju rejält omsprungna även av mobiltelefoner idag!).

1280x720 är i medium. Grejen är att även i 1280x720 blir GTX1080 en flaskhals för de absolut snabbaste CPUerna. Men tycker egentligen inte medium är ett problem, skulle mer klaga på att i princip alla tester körs på 1920x1080 och än mer 2560x1440 "ultra". Vet att många med mig hellre kör medium i 2560x1440 än 1920x1080 ultra, ofta ger det ungefär samma FPS men vi som väljer att köra så tycker det förra ger en bättre upplevelse.

Så att testa i medium är långt i från irrelevant, ultra innehåller väldigt ofta saker som kostar idiotiskt mycket CPU-kraft utan att egentligen ge någon visuell skillnad (framförallt när 60-144 scener renderas per sekund).

Det sagt, tycker ändå du har en väldigt bra poäng. Låt oss titta på SweC 1920x1080 ultra tester, tänkte också på att även om inte i5-2500K finns med idag så finns i5-3570K med. Hade tyvärr inte resultat för i5-3570K i min data (gör alla beräkningar i R), men är som du genuint intresserad av resultatet så fixade till det.

Då (FX-8370E testet)
i5-3570K vs FX-8350 (procent fördel för i5-3570K)
Genomsnittlig FPS: 17 %
Lägsta FPS: 26 %

i7-2600K vs FX-8350 (procent fördel för i7-2600K)
Genomsnittlig FPS: 14 %
Lägsta FPS: 31 %

Nu (8700K testet)
i5-3570K vs FX-8350 (procent fördel för i5-3570K)
Genomsnittlig FPS: 26 %
Lägsta FPS: 27 %

i7-2600K vs FX-8350 (procent fördel för i7-2600K)
Genomsnittlig FPS: 22 %
Lägsta FPS: 30 %

Man ska inte extrapolera allt för mycket ur så få datapunkter, är fem spel som testats i varje fall. Men dessa resultat säger i alla fall rätt tydligt att ju mer CPU blir primär flaskhals p.g.a. starkare GPU ju mer kommer vi nära 1280x720 resultaten i relativ skillnad (det trots att det är ultra vs medium).

Vidare antyder dessa data precis det jag hävdade tidigare (detta då jag sett det i väldigt många andra spelresultat + att jag väger in magkänslan av all programmering av högpresterade system jag gjort genom åren, har en gång i tiden skrivit spel och har nu >10 års erfarenhet av OS-utveckling med multicore optimering som en av de saker jag är specialiserad på).

D.v.s. när GPU blir en mindre flaskhals påverkas genomsnittlig FPS mer än lägsta FPS sett till relativ skillnad. Min erfarenhet är att lägsta FPS tidigare blir begränsat av CPU än vad genomsnittlig FPS blir det. Har ser vi en viss antydan till att om GPU inte alls var en faktor blev nog i7-2600K ~30 % snabbare medan i5-3570K ligger strax under (vilket också visar att spel numera drar viss nytta av fler än fyra trådar då Ivy Bridge har något bättre IPC jämför med Sandy Bridge).

https://www.techpowerup.com/reviews/AMD/Ryzen_5_2400G_Vega_11/20.html

Tittade igenom TechPowerUps speltester igen. Helt klart ser det ut som vissa testfall inte uppdaterats med senaste spelpatchar. Dock testar man så pass många spel att genomsnittet över alla spel, vilket är resultatet jag lutat mig mot, visar ändå att Ryzen 5 2400G hamnar rätt exakt där man förväntar att den ska ligga, d.v.s. i nivå med R5 1500X (den förra är marginellt högre klockad, har en CCX, vilket är positivt för spelprestanda, men mindre cache som är negativt). Är också vad din jämförelse mellan aritmetiskt och geometriskt medelvärde visar, de avvikande fallen är inte tillräckligt avvikande och tillräckligt många för att det ens ska visa sig i aritmetiskt medelvärde

Så varför diskuteras gamla CPUer? Jo, detta då 1280x720 (samt även 1920x1080 med GTX1080Ti i stället för GTX1080 som de flesta använder) pekar på att i 1920x1080 "ultra" är GTX1080 en rätt rejält flaskhals idag när man tittar på de CPU-modeller som oftast diskuteras på SweC.

Slutsatsen är då att om/när snabbare GPUer dyker upp (är faktiskt inte alls lika självklart att GPUer kommer bli så väldigt mycket snabbare, även de börjar känna av att Moores lag stannar av) kommer med stor sannolikhet första generationen Ryzen tappa i spelprestanda jämfört med åttonde generationens Core. Exakt hur mycket är svårt att säga.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Det sagt, tycker ändå du har en väldigt bra poäng. Låt oss titta på SweC 1920x1080 ultra tester, tänkte också på att även om inte i5-2500K finns med idag så finns i5-3570K med. Hade tyvärr inte resultat för i5-3570K i min data (gör alla beräkningar i R), men är som du genuint intresserad av resultatet så fixade till det.

Då (FX-8370E testet)
i5-3570K vs FX-8350 (procent fördel för i5-3570K)
Genomsnittlig FPS: 17 %
Lägsta FPS: 26 %

i7-2600K vs FX-8350 (procent fördel för i7-2600K)
Genomsnittlig FPS: 14 %
Lägsta FPS: 31 %

Nu (8700K testet)
i5-3570K vs FX-8350 (procent fördel för i5-3570K)
Genomsnittlig FPS: 26 %
Lägsta FPS: 27 %

i7-2600K vs FX-8350 (procent fördel för i7-2600K)
Genomsnittlig FPS: 22 %
Lägsta FPS: 30 %

Vill fortfarande ha 2500k och inte 3570k.
Sedan får jag lite annorlunda värden (vet ej om excel spelar ett spratt på mig , men jag kör geomedel på vardera processor och delar sedan med varandra. Du får gärna rätta om du ser något fel, för jag skulle gärna vilja vara på samma sida när det kommer till vilka värden som används).

Skrivet av Yoshman:

Man ska inte extrapolera allt för mycket ur så få datapunkter, är fem spel som testats i varje fall. Men dessa resultat säger i alla fall rätt tydligt att ju mer CPU blir primär flaskhals p.g.a. starkare GPU ju mer kommer vi nära 1280x720 resultaten i relativ skillnad (det trots att det är ultra vs medium).

Och jag håller med. Skillnaderna blev även mer konsekventa senare (iallafall när det kom till standarddavikelse på AVG).

Skrivet av Yoshman:

Vidare antyder dessa data precis det jag hävdade tidigare (detta då jag sett det i väldigt många andra spelresultat + att jag väger in magkänslan av all programmering av högpresterade system jag gjort genom åren, har en gång i tiden skrivit spel och har nu >10 års erfarenhet av OS-utveckling med multicore optimering som en av de saker jag är specialiserad på).

D.v.s. när GPU blir en mindre flaskhals påverkas genomsnittlig FPS mer än lägsta FPS sett till relativ skillnad. Min erfarenhet är att lägsta FPS tidigare blir begränsat av CPU än vad genomsnittlig FPS blir det. Har ser vi en viss antydan till att om GPU inte alls var en faktor blev nog i7-2600K ~30 % snabbare medan i5-3570K ligger strax under (vilket också visar att spel numera drar viss nytta av fler än fyra trådar då Ivy Bridge har något bättre IPC jämför med Sandy Bridge).

Hur ställer du dig till påståendet att 3570k kan även den ha varit, till viss mån , GPU begränsad i det första testet? Då konvergerar värdena närmare 0 ju större denna GPU flaskhals är. Av den anledningen så gillar jag inte att 3570k agerar som ett substitut, då kan man omedvetet göra samma fel som Adored. För vad skulle hända om 3570k skulle vara 30% snabbare då och rört sig till 26% idag? Nej, samma CPU:er gäller (men jag tror som du säger att skillnaden inte är så stor som Adored vill få den till).

Skrivet av Yoshman:
Tittade igenom TechPowerUps speltester igen. Helt klart ser det ut som vissa testfall inte uppdaterats med senaste spelpatchar. Dock testar man så pass många spel att genomsnittet över alla spel, vilket är resultatet jag lutat mig mot, visar ändå att Ryzen 5 2400G hamnar rätt exakt där man förväntar att den ska ligga, d.v.s. i nivå med R5 1500X (den förra är marginellt högre klockad, har en CCX, vilket är positivt för spelprestanda, men mindre cache som är negativt). Är också vad din jämförelse mellan aritmetiskt och geometriskt medelvärde visar, de avvikande fallen är inte tillräckligt avvikande och tillräckligt många för att det ens ska visa sig i aritmetiskt medelvärde

Det som jag mest reagerade på var att slutresultaten för 2400G OC hoppade från ~0,4% snabbare i 720p, till 1800X att vara 4,7% snabbare i 1080p, 6% snabbare i 1440p och slutligen kommer den stora GPU flaskhalsen vid 4k där den är 3% snabbare. Det sammanfaller inte med det som du säger om att CPU:ns påverkan ska visas mer i lägre upplösningar Detta tycker jag att de skulle ha noterat och korrigerat.

Skrivet av Yoshman:

Så varför diskuteras gamla CPUer? Jo, detta då 1280x720 (samt även 1920x1080 med GTX1080Ti i stället för GTX1080 som de flesta använder) pekar på att i 1920x1080 "ultra" är GTX1080 en rätt rejält flaskhals idag när man tittar på de CPU-modeller som oftast diskuteras på SweC.

Slutsatsen är då att om/när snabbare GPUer dyker upp (är faktiskt inte alls lika självklart att GPUer kommer bli så väldigt mycket snabbare, även de börjar känna av att Moores lag stannar av) kommer med stor sannolikhet första generationen Ryzen tappa i spelprestanda jämfört med åttonde generationens Core. Exakt hur mycket är svårt att säga.

Jag håller med allt utom att Ryzen kommer tappa prestanda, för jag kan inte bevisa det. Det får tiden avgöra helt enkelt.

Permalänk
Datavetare
Skrivet av Radolov:

Vill fortfarande ha 2500k och inte 3570k.
Sedan får jag lite annorlunda värden (vet ej om excel spelar ett spratt på mig , men jag kör geomedel på vardera processor och delar sedan med varandra. Du får gärna rätta om du ser något fel, för jag skulle gärna vilja vara på samma sida när det kommer till vilka värden som används).

Visst hade det varit idealet, men nu har SweClockers sluta testat 3570K. Med 2600K får man samma mikroakritektur men HT vs inget HT, med 3570K får man 4C/4T.

Men spelar det egentligen så stor roll? Huvudfrågan är om speltester med dagens GPUer i lägre upplösning är en fingervisning om framtida relativ prestanda mellan CPUer om/när spel blir mer CPU-tunga och GPUer starkare (d.v.s. så dagens CPU-modeller börjar bli flaskhals).

Vad jag säger är att man ska absolut inte förvänta sig att man kan titta på absolutvärdet på 1280x720 testerna och slå fast att det är den skillnad vi kommer se (än mer efter det jag upptäckt och skriver om nedan).

Vad man kan säga är att det blir en klar prestandadifferens i 1280x720 idag kan med rätt stor sannolikhet säga att det kommer bli en större prestandadifferens i högre upplösningar när CPU-delen blir mer en flaskhals i framtiden

Skrivet av Radolov:

Hur ställer du dig till påståendet att 3570k kan även den ha varit, till viss mån , GPU begränsad i det första testet? Då konvergerar värdena närmare 0 ju större denna GPU flaskhals är. Av den anledningen så gillar jag inte att 3570k agerar som ett substitut, då kan man omedvetet göra samma fel som Adored. För vad skulle hända om 3570k skulle vara 30% snabbare då och rört sig till 26% idag? Nej, samma CPU:er gäller (men jag tror som du säger att skillnaden inte är så stor som Adored vill få den till).

Är helt med på att 3570K är klart begränsad av GPU i det första testet. Det är ju hela poängen med diskussionen, d.v.s. de högpresterade CPUer som är aktuella idag är kraftigt GPU-begränsade, för att då förstå hur dagens modeller står sig relativt varandra tester man i lägre upplösning för att få en vink om hur det kommer se ut i framtiden.

Använder väldigt vaga ord som "vink". Om skillnaden är 10-15 % eller mindre i 1280x720 med GTX1080 eller GTX1080Ti klassar jag det absolut som "går inte att säga något alls". Är mer variation än så mellan speltitlar.

Och vad jag upptäck, det förklarar nog varför vi inte riktigt får samma resultat. Brukar lägga in rådata från bl.a. SweClockers i en textfil som jag checkar in i mitt privata git-repo. Där har jag data från olika CPU-tester. Använde mig mig av 8700K resultatet, eller det trodde jag att de handlade om. Resultaten från "samma frekvens" och 720p var verkligen från 8700K testet, men hade nog lyckats gör copy-n-paste från 7900X testet.

Så vad är problemet, det är ju samma CPU-modeller och samma spel. Här kommer den stora anledningen varför man ska ignorera skillnader som inte är >20 % eller så. Var förvånansvärt stora variationer i resultat, både jämfört med samma CPU-modell men vissa CPU-modeller ändrade sin prestanda relativt andra mer än vad jag kunde ana.

i9-7900X testet

i7-8700K testet

kolla in skillnaden i Warhammer där i princip alla CPU-modeller får klart lägre FPS, även BF1 och CivVI har rejäla skillnader för vissa modeller

Extremfallet är i3-7350K, den presterar väsentligt bättre i det senare fallet. T.ex. mot FX-8350

Första: 19 % / 14 % bättre prestanda för i3-7350K (genomsnitt / lägsta)
Andra: 28 % / 36 %

Vad drar man för slutsats av det?

Rent generellt verkar FX-8350 tappat mellan dessa tester, framförallt i lägsta FPS. i9-7900X har också haft en bedrövlig utveckling, presterar sämre i flera tester.

FX-8350 vs i5-3570K i 8700K testet då: 17 % / 22 %

Alltså en minskning rent matematiskt från föregående test (FX-8370E), men givet variationerna skulle jag säga att enda slutsats man kan dra är: redan vid FX-8370E testet var skillnaden i 1280x720 så pass stor att det var uppenbart att den skulle öka i "normal" upplösning när flaskhalsen flyttade från GPU till CPU. Det är den enda slutsats jag skulle dra.

Är absolut så att spel blivit bättre på att nyttja flera kärnor, men kolla in t.ex. Sandy Bridge E (slutet 2011) så ser man när det kör allt vid samma frekvens att redan då hade spel som Battlefield viss boost från 6C/12T över 4C/8T och var en något större skillnad mellan 4C/8T och 4C/4T.

Vanliga misstaget som görs här: visst kommer det ske en förskjutning mot att spel använder fler kärnor, men den kommer hända långt, långt långsammare än vad majoriteten kan föreställa sig! (Vi ser ju t.ex. hur snabbt DX12 och Vulkan tagit över, trots att det skulle frälsa världen...)

Skrivet av Radolov:

Jag håller med allt utom att Ryzen kommer tappa prestanda, för jag kan inte bevisa det. Det får tiden avgöra helt enkelt.

Fast kolla på 1280x720 testerna hos t.ex. SweC och 1920x1080 hos ArsTechnical (som använder GTX1080Ti). Det är 20-40 % fördel för i7-8700K och i7-8600K (de presterar väldigt snarlikt då GPU redan här är flaskhals, 2 % / 3 % skillnad hos SweC) över R5-1600X och R7-1800X (här är det 2 % / 5 % skillnad).

Och då det bra är fem titlar och CivVI är extremt kraftigt avvikande (är väl enda titeln så här långt där Skylake presterar klart sämre än tidigare Intel modeller?).

R7-1800X vs i5-8600K, gånger snabbare i5-8600K är (1,0 är alltså samma prestanda, SweC 1280x720 tester)

Spel

Genomsnitt

Lägsta

BF1

1,32

1,31

Witcher 3

1,32

1,25

Fallout 4

1,32

1,28

Warhammer

1,29

1,37

Civ VI

0,76

0,83

Spel kommer säkert använda CPU-kärnor bättre i framtiden, men man måste också inse att det tar lång tid. Ovanpå det har Zen och SKL-X samma grundläggande nackdel jämfört med S-serien, de förra har en cache-hierarki optimerad för servers medan den senare har en cache-hierarki optimerad för typiska desktop-laster (som t.ex. spel).

Det sista betyder att så länge spel har rätt mycket "luft" kvar att extrahera från redan existerande kärnor så har S-serien en klar fördel över X-serien och Zen (se bara hur pass mycket bättre i5-8600K presterar över i9-7900X i spel, samma mikroarkitektur och väldigt snarlik all-core-turbo). Är ju långt ifrån någon linjär skalning ens från 2C/4T till 4C/8T idag.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Gillar slutet av del 2 Känns som en frisk fläkt.

Permalänk
Medlem

Tycker AdoredTV nästan är lite läskigt, man blir otroligt medryckt av hans retorik, men när man börjar granska hans argument så ser man ofta att hans data är väldigt ensidig och målar upp en oärlig bild. Han hade väldigt gärna fått vara lite mer djävulensadvokat till sina egna argument för att visa bägge sidor av myntet.

Ta bara hans video kring att AMD sålde sämre än nvidia även när de hade bättre produkter som han lyckades lura halva internet med. Han tittade i princip bara på den finansiella biten, där Nvidia tjänade mer pengar än AMD, men hur många lösa spelkort i ett visst prisspann som säljs rapporteras inte i de rapporterna och varför ekonomin ser ut på ett viss sätt kan ha mängder av andra förklaringar. Men tittar på man på statistiken så ser man att AMD ökade i marknadsandelar med 3000, 4000 och 5000-serien, tvärtom mot vad han försöker säga. Sen kan man iof tycka att med de serierna så borde AMD nästan gått om Nvidia totalt sett efter att de förlorat så mycket mot Nvidias 8000-serie, men det är inte riktigt samma sak som det han försöker förmedla.

Permalänk
Medlem
Skrivet av Radolov:

Vill fortfarande ha 2500k och inte 3570k.

Skrivet av Yoshman:

Visst hade det varit idealet, men nu har SweClockers sluta testat 3570K. Med 2600K får man samma mikroakritektur men HT vs inget HT, med 3570K får man 4C/4T.

Får man fråga varför 2500k är så intressant här? Vill man inte kolla på de modeller som Bulldozer-CPUrna faktiskt konkurrerade med när de släpptes? Dvs: FX-8150 > 2600k, FX-8350 > 3570k, FX-8370 > 4690K

Permalänk
Datavetare
Skrivet av sKRUVARN:

Får man fråga varför 2500k är så intressant här? Vill man inte kolla på de modeller som Bulldozer-CPUrna faktiskt konkurrerade med när de släpptes? Dvs: FX-8150 > 2600k, FX-8350 > 3570k, FX-8370 > 4690K

Egentligen är grundfrågan supertrivial: ger speltester i låg upplösning någon relevant information om hur relativ prestanda mellan CPU kan tänkas ändras i framtiden när flaskhalsen flyttas från GPU till dagens då lite ålderstigna CPU-modeller?

Där man ska undvika här är att försöka sig på att storleksbestämma den framtida skillnaden, är allt för många osäkerhetsfaktorer.

Vad jag ändå tycker man med fog kan hävda är att för de av dig ovan nämnda CPU-modeller där 1280x720 "medium/high" uppvisade ett prestandadelta på >20 % ser man idag en klart skillnaden även i 1920x1080 "ultra". Är övertygad att man kan göra samma analys med dagens CPUer, slutsatsen blir då att åttonde generationens Core kommer öka prestandagapet över första generationen Ryzen. Magnituden på det framtida prestandadelta ska man vara väldigt försiktig med att uttala sig om!

För mig är det egentligen lite dunkelt vad AdoreTV vänder sig emot här. Är det bara att man kan inte kan förutsäga exakta absolutbeloppet på skillnaden (vilket jag tror få egentligen menade) eller att man överhuvudtaget inte kan göra några förutsägelser om framtida relativ prestanda från att testa i låg upplösning. Jag får intrycket att det är det senare fallet som åsyftas, vilket är orsaken till att jag anser att det finns rejält med bevis för att det är fel.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av DST:

När jag kollar på klippen så gör jag det med händerna för ögonen för det är så skämmigt. Så mycket hyckleri och han vrider och vänder på det ena och andra för att försöka få Steve @HU framstå som att han skevar sina tester.

Entertainment iaf

Kort sagt, för att Jim ska acceptera testerna så skall följande efterföljas:

  • Du skall ej testa äldre ock icke Ryzen budget cpuer med snabba minnen, eller för snabb gpu eller för låg upplösning eftersom det återspeglar inte vad dessa system och användare förmodligen kör med.

  • Du skall ej ha med ett spel som är äldre i testet även om dessa fortfarande är mycket populära eller krävande.

  • Du skall ej ändra inställningar från test till test.

  • Du skall ej uppvisa annat fps-resultat i spel som testats tidigare, oavsett om det är spelet, win eller drivrutinerna som uppdaterats.

  • Du skall inte gnälla på hans analys trots att du själv har dina egna testade siffror.

Fast det är ju inte riktigt vad han säger. Om du följt hela historian så hade du sett VARFÖR han påpekar olika saker. Ofta har AdoredTV blivit emotsagd för någon av sina analyser med ett test som Steve gjort just för att visa AdoredTV fel och som sedan visat sig diffa på något fundamentalt sätt ifrån vad AdoredTV faktiskt talade om eller testade.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av inquam:

Fast det är ju inte riktigt vad han säger. Om du följt hela historian så hade du sett VARFÖR han påpekar olika saker. Ofta har AdoredTV blivit emotsagd för någon av sina analyser med ett test som Steve gjort just för att visa AdoredTV fel och som sedan visat sig diffa på något fundamentalt sätt ifrån vad AdoredTV faktiskt talade om eller testade.

Jag tror nog att jag har följt Steves å Jims "fejd" ganska väl, iaf när det gäller själva youtube delen. Å jag anser att detta som steve gjorde med fx vs sandy testet var helt rätt och påvisade att sandy e bra mycket bättre.

Klart skillnaden blir låg när man kör med inställningar och komponenter som döljer cpu prestandan. Konsoler är ju ett ypperligt exempel på det.
Cpun e kass så man drar upp 3d inställningar så högt att man hamnar långt under där cpun flaskar och försöker sikta på 30fps.
Det är typ det Jim vill att man ska göra när han drar fram sina argument...

Visa signatur

12700k@/7200c34@7800/msi z790 itx