Permalänk
Medlem
Skrivet av Gruarn:

Jag förstår att de har arbetat på det testet under lång tid, så för [H] är det lite surt att de publicerar det dagen innan 1.0.0.6 går live och invaliderar en del av deras tester genom att göra RAM-frekvenser över 3000MT betydligt vanligare. Visst går det att anmärka på att de använder 2933MT i testet, men om det skall vara ett "average Joe"-test, så tänker jag att man kan ha tur med det ena (klockfrekvensen) och lite mindre tur med det andra (minneshastigheten), men nu verkar ju just minneshastigheten ha gått upp mer generellt.

Jag försökte komma på någon rimlig anledning till att de skulle köra med endast 2933 på minnet, men det kan vara som du säger att de arbetat med artikeln under en längre tid och det härstammar från de tidigaste BIOS-versionerna från Mars-April. Det tar säkert jättemycket tid att göra så detaljerade tester som de ändå gjort och ändras något måste de köra om alla tester. Det hade kunnat vara värre då många tidiga recensioner körde i 2400 MHz.

Jag tror dock inte snabbare minnen skulle ha ändrat deras övergripande slutsatser. Hur man än vrider på det så ÄR Ryzen faktiskt långsammare i spel, åtminstone i dagsläget (framtida spel kanske blir mer optimerade för Ryzen). Räknar man dessutom in att Intel kan klockas till 5 GHz relativt lätt medan Ryzen tar stopp någonstans kring 4 - 4.1 GHz blir skillnaden ännu större.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem

@Pepsin:

Går vi tillbaka några månader i den här tråden så har @sAAb sammanställt hur Ryzen reagerar på högre minneshastighet och det är skillnad på prestanda mellan 2933 och 3600. Det är inte ett generellt fall, det slår inte in i alla sammanhang, men i vissa och det är 2 effekter: dels ökar prestanda med minnesbandbredd (ungefär lika viktigt för Kaby lake som för Ryzen) och dels så minskar latensen mellan Ryzens CCX och L3 chacharna i CCX-klustren, vilket hjälper vid spel som i högre utsträckning skickar trådar mellan CCX-klustren.
Märk väl, jag säger alltså inte att kaby inte påverkas av minnesbandbredd, det gör den, men i detta testet så jämför man en överklock som ~60% kan nå på luft med en hög minnesbandbredd (7700k) med en överklock som ~60% kan nå (1800x) med en medelmåttig klockning på minnet. För någon som kör på AGESA 1.0.0.4 är det ingen dålig minneshastighet, på 1.0.0.5 är den ungefär som förväntat om man har rätt minnen, på AGESA 1.0.0.6 så verkar det som att man kan förvänta sig en del mer än så. m.a.o. är inte testet riktigt så Äpplen till Äpplen som [H] avsåg att det skulle vara. Det är dock inte [H] fel, men det vore trevligt med en jämförande artikel från dem, de har ju redan hälften av datan:)

PS. i detta test ÄR 7700k klockad till 5GHz, det är precis den här skillnaden man kan förvänta sig om man har minne som snurrar i 2933:)

Permalänk
Medlem
Skrivet av sAAb:

Jag håller med dig på den punkten att det blir en ny AGESA snart. I det här testet spelar det marginell roll. Till skillnad från Toms Hardwares artikel har de också med en gammel-cpu.

Intel har på sju år lyckats förbättra sin cpu med ((80,5-80,0)/80,0=0,00625) 0,6 %. På sju år har Intels cpuer förbättrats med 0,6 % i spel. Det är mindre än en procent. De har förbättrat sin cpu med en tiondels procent per år. Här en analys med Nvidia GeForce GTX 1080 Ti.

https://images.hardocp.com/images/articles/14958035970qy2jlakgl_9_1_l.png

Okej. Vi kanske menar att GPUn flaskar. Men Kyle på HardOCP tweakar sina inställningar till han når 60 fps med cpu inne på sjunde året och använder dessa inställningar på de cpuer som kom i år, 2017.

Vi ser vidare på Nvidia GeForce GTX 1060.

https://images.hardocp.com/images/articles/14958035970qy2jlakgl_9_3_l.png

Ingen förbättring för Intel, alls... Dyra pengar för Kabylaken, som spöar allt i 720p... 7700K... Vi vet att 7700K är utmärkt om man skall ersätta samtliga fall av bokstaven "M" mot ett "K" i ett stort Word-dokument, på över 40 sidor. Men vill man rendera en 3D-bild så vinner Ryzen.

Seriöst?
Fullständigt idiotiskt test, lite som att testa GPUer med en 20 år gammal processor och påstå att en 10 år gammal GPU är lika bra som en 1080ti. Suck,...

Min 1080 total flaskar min överclockade 2500k i BF1.

Permalänk
Medlem

@Gruarn Jag håller med om att det är skillnad i prestanda, men den är inte i närheten så dramatisk att den skulle omkullkasta balansen och deras Ryzen @ 4 GHz plötsligt skulle slå en 7700K @ 5 GHz. Så slutsatsen skulle blivit densamma bara med lite, lite högre staplar för Ryzen.

Sedan är fortfarande 3600 väldigt svårt att få stabilt även med AGESA 1.0.0.6, så det skulle inte kännas helt rättvist att köra Ryzen med en minnesfrekvens som många aldrig kommer uppnå. 3200 MHz för både 7700K och Ryzen vore mest rättvist, då de flesta inte lägger de extra pengarna på 3600+ moduler som är rätt dyra idag.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk

Ramlade över denna och även om den har blivit länkad tidigare tål den att bli ompostad!

AMD om hur man överklockar RAM/CPU på Ryzen

Permalänk
Medlem
Skrivet av CyberVillain:

Jag har provat både med och utan AI, den har inget med saken att göra. Kör även med w10 game mode på

Slå av game mode omedelbart... Detta orsakar konstiga frametimes & fps dippar i en majoritet av spel. Sen spelar saker som asus aura en mycket stor roll i prestanda problem så man ska absolut inte vifta bort medföljande mjukvara som en felkälla, mer ofta än inte så är det dessa som orsakar problem. Sen finns andra saker som kan orsaka spikes i DPC latency som i sin tur kan strula till frametimes rätt ordentligt, en sak jag själv råkat ut för där är aida64 som gav upp till 1,5 sekunds extra dpc latency då och då, detta beroende på mitt moderkort i kombination med just aida64 och hur/när det läste av cpu frekvens.
Kontentan är att mjukvara kan ställa till en hel del och det defakto gör det också, kolla bara gamersnexus senaste video rant om MSI och deras bloatware på laptops, där gav den medföljande mjukvaran mycket stor prestandapåverkan. Tror även att dom har en artikel om game mode och dess underliga beteende.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Nu är det solklart att threadripper tvingat Intel att lägga till flera CPUer till X299.

Verkar vara att man bara planerat släppa 4-10 cores till x299 men AMD har tvingat dom är utöka antalet high end modeller.

Även om x299 lanseras väldigt snart ska inte 12-16core varianter dyka upp förrän sent i höst (antagligen december) och 18 core kommer först Q1 2018.

Tror threadripper kommer ha ett lysande halvår framför sig

http://wccftech.com/intels-skylake-x-core-i9-7980x-wont-be-av...

Visa signatur

| CPU: Intel i7 7700k | RAM: Crucial DDR4 OC @2400mhz 16GB (2x8GB) | GPU: EVGA GeForce RTX 2080 XC GAMING| Mobo: MSI H110I Pro | SSD: Crucial BX200 240GB 2.5" SSD | SSD2: Samsung 850 EVO 500GB 2.5" SSD | Nätagg: be quiet! SFX L Power 600W | Kylare: NZXT Kraken X62 | Chassi: Fractal Design Nano S | OS: Windows 10 Pro

Permalänk
Medlem
Skrivet av Implor:

Nu är det solklart att threadripper tvingat Intel att lägga till flera CPUer till X299.

Verkar vara att man bara planerat släppa 4-10 cores till x299 men AMD har tvingat dom är utöka antalet high end modeller.

Även om x299 lanseras väldigt snart ska inte 12-16core varianter dyka upp förrän sent i höst (antagligen december) och 18 core kommer först Q1 2018.

Tror threadripper kommer ha ett lysande halvår framför sig

http://wccftech.com/intels-skylake-x-core-i9-7980x-wont-be-av...

Skulle tro att de skulle släppa 12 kärnor då de faktiskt hade sånna på computex.*

Såg linus video igår och den såg ut att hålla med att Intel var oförberedda på Threadripper.

Det blir intressant att se vad som kommer hända framöver.

*edit: processorerna verkar bara va baserade på LCC enligt linus, han sade inget om det fanns 12 kärniga varianter på computex. Missminde mig från igår.

Skickades från m.sweclockers.com

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem
Skrivet av wowsers:

Skulle tro att de skulle släppa 12 kärnor då de faktiskt hade sånna på computex.

Såg linus video igår och den såg ut att hålla med att Intel var oförberedda på Threadripper.
https://www.youtube.com/watch?v=TWFzWRoVNnE

Det blir intressant att se vad som kommer hända framöver.

Skickades från m.sweclockers.com

Mhm exakt, först var det tänkt med 4-12 kärnor men när Intel fick nys om AMD så blev det plötsligt 18 kärnor... Titta på denna video så blir det lite klarare, börjar vid typ 8:10, när Intel presenterade nya X299 så var det bara 12 cores max, men Intel sade att det skulle finnas 18 cores också.

Permalänk
Inaktiv

Är det någon här som stött på problem med segfaults vid kompilering i Linux (eller andra OS?)
https://community.amd.com/message/2796982
http://phoronix.com/scan.php?page=news_item&px=Ryzen-Compiler...

Permalänk
Hjälpsam

Skall testa lite Opus, musikformat, har redan skapat ett MP3 bibliotek på likadant sätt.

Nästan fullt ös på alla 16 trådarna.

Fina temperaturer efter ett par minuters jobb, detta med originalkylaren.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Rise of the Tomb Raider Ryzen Update! Before and After Benchmark!

Skillnaden är brutal över 23% snabbare!!!!
CPUer med 4 kärnor är gårdagens teknik framtidens prestandard cpuer har +8kärnor

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Haha nä men det kan ju inte stämma med ryzens dåliga heltalsprestanda xD...
Men för att vara lite ontopic såg det väl jäkligt bra ut, hoppas resterande square enix lir får samma behandling, torde vara enklare nu då nästan alla deras nuvarande spel delar samma motor (Deus ex, hitman osv) och man hintade om att man skulle göra detta tidigare.
Fortsätter denna trend bland utvecklare så ligger Ryzen R7 och R5 1600/x bara bättre och bättre till.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av tellus82:

Haha nä men det kan ju inte stämma med ryzens dåliga heltalsprestanda xD...
Men för att vara lite ontopic såg det väl jäkligt bra ut, hoppas resterande square enix lir får samma behandling, torde vara enklare nu då nästan alla deras nuvarande spel delar samma motor (Deus ex, hitman osv) och man hintade om att man skulle göra detta tidigare.
Fortsätter denna trend bland utvecklare så ligger Ryzen R7 och R5 1600/x bara bättre och bättre till.

Hur var det nu igen? Spel får inte CPU-arkitektur-specifika optimeringar. Så detta kan helt enkelt inte vara sant. Fake news

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem

Frågan är hur lång tid tar det innan det sitter en AMD CPU (Exempel RYZEN Threadripper 1976X) i testriggen när Sweclockers testar grafikkort

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Ratatosk:

Skall testa lite Opus, musikformat, har redan skapat ett MP3 bibliotek på likadant sätt.
http://forumbilder.se/G8KHT/2017-06-04.png
Nästan fullt ös på alla 16 trådarna.
http://forumbilder.se/G8KHT/2017-06-04-2.png
Fina temperaturer efter ett par minuters jobb, detta med originalkylaren.
http://forumbilder.se/G8KHT/2017-06-04-3.png

3.15GHz är tomgång på denna cpun. Ska du belasta CPUn så måste du OC (jag har samma CPU oavsett belastning så är den fortfarande sval när man ej oc CPUn. Du kan se på din bild så väljer Cpun endast 1,1V när alla kärnor jobbar på 100% )

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av sesese:

Frågan är hur lång tid tar det innan det sitter en AMD CPU (Exempel RYZEN Threadripper 1976X) i testriggen när Sweclockers testar grafikkort

Så länge dom kör tester där GPUn flaskar så spelar det inte så stor roll.

Permalänk
Medlem

http://wccftech.com/intels-skylake-x-core-i9-7980x-wont-be-av...

Citat:

Intel’s High Core Count Parts To See Delayed Availability, 18 Core i9 7980XE CPU Said To Be MIA Until Next Year

Hoppas det inte betyder högre priser på Threadripper.

Visa signatur

| Fractal Design Define R5| Asrock X399 Fatal1ty| Threadripper 1950X| Noctua NH-U14S TR4-SP3| Corsair Vengeance LPX 8x16GB 3200 C16| be quiet! Straight Power 11 Platinum 1000W| ASUS RTX 3080 10GB Strix| LG OLED 4k 42" C2| Debian Sid| KDE 5.x|

Permalänk
Medlem
Skrivet av Legacy_wow_jon:

Så länge dom kör tester där GPUn flaskar så spelar det inte så stor roll.

missad du samma grafikkort

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Datavetare
Skrivet av tellus82:

Haha nä men det kan ju inte stämma med ryzens dåliga heltalsprestanda xD...
Men för att vara lite ontopic såg det väl jäkligt bra ut, hoppas resterande square enix lir får samma behandling, torde vara enklare nu då nästan alla deras nuvarande spel delar samma motor (Deus ex, hitman osv) och man hintade om att man skulle göra detta tidigare.
Fortsätter denna trend bland utvecklare så ligger Ryzen R7 och R5 1600/x bara bättre och bättre till.

Vet inte hur gammal du är, men fem myror är fortfarande fler än fyra elefanter. D.v.s. att Ryzen har sämre heltals IPC än både Broadwell och Skylake borde inte ens den mest hängivna strutsimitatör kunna ignorera idag.

Däremot har Ryzen fler CPU-kärnor (fler myror), aggregerad heltalsprestanda över alla kärnor är i alla för 1700X/1800X högre än för i7-7700K (det trots elefantkärnor). Fast det betyder bara högre total prestanda i lägen som skalar perfekt. Just i denna titel presterade Ryzen exceptionellt dåligt, det trots att bl.a. Digital Foundry visade att spelet skalar riktigt väl med CPU-kärnor hos t.ex. i7-6900K.

48-tusenkronorsfrågan i detta fall borde vara: hur kan en patch fixa DX12 prestanda i RoTR med ett spelpatch när det man t.ex. i denna tråd med största övertygelse hävdat att det pågår en konspiration mot AMD där bl.a. Nvidia designat sin GPU HW och driver så att det ska fungera dåligt på Ryzen. D.v.s. Nvidias DX12 stöd "trådar dåligt" (detta trots att det är en teknisk omöjlighet, drivers kan överhuvudtaget inte lägga sig i hur trådar används när man kör DX12, det till skillnad mot DX11).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Någon som vet mer ingående vilka ändringar de gjort i den nya uppdateringen för Rise of the tomb raider? Gäller den även för fyrkärniga Ryzen? Tänkte att det var oberoende av arkitektur så provade själv, men såg snarare en försämring*. Min processor saknar SMT, kanske krävs det för att uppdateringen ska komma till rätta.

* Dx12 och alla inställningar på lägsta, fick ändå inte 100% belastning på alla kärnor utom i den andra sekvensen. Vet inte hur man backar uppdateringen så valde en äldre betaversion i steamklienten.

Edit: https://www.pcper.com/reviews/Graphics-Cards/Rise-Tomb-Raider...

Citat:

UPDATE (5/31/2017): Crystal Dynamics was able to get back to us with a couple of points on the changes that were made with this patch to affect the performance of AMD Ryzen processors.

Rise of the Tomb Raider splits rendering tasks to run on different threads. By tuning the size of those tasks – breaking some up, allowing multicore CPUs to contribute in more cases, and combining some others, to reduce overheads in the scheduler – the game can more efficiently exploit extra threads on the host CPU.

An optimization was identified in texture management that improves the combination of AMD CPU and NVIDIA GPU. Overhead was reduced by packing texture descriptor uploads into larger chunks.
There you have it, a bit more detail on the software changes made to help adapt the game engine to AMD's Ryzen architecture. Not only that, but it does confirm our information that there was slightly MORE to address in the Ryzen+GeForce combinations.

Visa signatur

🖥️ IQUNIX ZX-1 - i5-10600K - Z490I Unify - RTX 3070 - 16 GB 3600 MHz - SF750 - ASUS PG279QZ
🚗 Fanatec CSL DD - CSL Pedals LC - HP Reverb G2
📺 LG B1 55 - Dali Concept 6 - Pioneer VSX-923
🎮 AYN Odin Lite
📞 Asus Zenfone 10

Permalänk
Medlem
Skrivet av Yoshman:

Vet inte hur gammal du är, men fem myror är fortfarande fler än fyra elefanter. D.v.s. att Ryzen har sämre heltals IPC än både Broadwell och Skylake borde inte ens den mest hängivna strutsimitatör kunna ignorera idag.

Däremot har Ryzen fler CPU-kärnor (fler myror), aggregerad heltalsprestanda över alla kärnor är i alla för 1700X/1800X högre än för i7-7700K (det trots elefantkärnor). Fast det betyder bara högre total prestanda i lägen som skalar perfekt. Just i denna titel presterade Ryzen exceptionellt dåligt, det trots att bl.a. Digital Foundry visade att spelet skalar riktigt väl med CPU-kärnor hos t.ex. i7-6900K.

48-tusenkronorsfrågan i detta fall borde vara: hur kan en patch fixa DX12 prestanda i RoTR med ett spelpatch när det man t.ex. i denna tråd med största övertygelse hävdat att det pågår en konspiration mot AMD där bl.a. Nvidia designat sin GPU HW och driver så att det ska fungera dåligt på Ryzen. D.v.s. Nvidias DX12 stöd "trådar dåligt" (detta trots att det är en teknisk omöjlighet, drivers kan överhuvudtaget inte lägga sig i hur trådar används när man kör DX12, det till skillnad mot DX11).

Jag tror bestämt att någon känner sig träffad alternativt en öm tå, det är en sak att påpeka sämre prestanda rent tekniskt, det är en väldigt annan sak att slentrianmässigt göra breda påståenden om till exempel spelprestanda som du har gjort tidigare. En sak man ska akta sig mycket noga för är att göra just breda påståenden.

Sen att du kallar en del rykten och underliga spelresultat för "konspirationsteorier" gör dig själv bara till än mer åtlöje, det är inte en människa som påstått att nvidia skulle varit ute i ondskefulla ärenden men den mest inbitne Intel apologisten torde ha sett att saker inte uppförde sig som dom skulle, hur i själva glödheta skulle annars en 7600k i stock presterat avsevärt mycket bättre än en 7700k i stock i RotTR eller varför inte en 7350k i stock som lyckades få högre medel fps än en 7700k, bägge stock... Se NH's Ryzen tester.

Skrivet av Stoff3th3m4n:

Hur var det nu igen? Spel får inte CPU-arkitektur-specifika optimeringar. Så detta kan helt enkelt inte vara sant. Fake news

Den gamla godingen ja, hade nästan glömt av den... xD

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem
Skrivet av anon228747:

Är det någon här som stött på problem med segfaults vid kompilering i Linux (eller andra OS?)
https://community.amd.com/message/2796982
http://phoronix.com/scan.php?page=news_item&px=Ryzen-Compiler...

Har ingen Ryzen maskin själv pga fattig student, men det verkar som att problemen försvinner om man disablar uOP cache i BIOS/enablar "low level LLC"/disablar SMT i någon kombination.

Skrivet av amdmatt:
Skrivet av alfonsor:

I finally found a way to make parallel compilation works (here): enabling LLC (Load Line Calibration) in BIOS. But it makes me very worried...

Enabling low levels of LLC (Levels 1-2) is not dangerous, it just ensures less voltage droop when the processor is under heavy load.

Det låter som att extrem hårdkörning (av specifikt kompileringar) kan skapa för stora vdroops och detta i sin tur skapar segerrors mellan varven, låter som att detta är något som kommer gå att patcha i BIOS alternativt AGESA.

Gissningsvis lär kompileringarna vara det extremfall som händer när man fullt ut belastar heltal, det kan också vara ett problem på moderkortsnivå med billigare klasser som inte kan mata lika mycket ström, och då måste kompensera lite mot vdroop.

EDIT: Verkar som att detta inte helt relaterat till hårdvara

Skrivet av sat:
Skrivet av alfonsor:

As suggested on phoronix forum, I tried /proc/sys/kernel/randomize_va_space set to 0 and it seems to do the trick for me, please, try it.

(Of course it should be considered just as starting point to investigate the iusse)

In my case, this workaround seems to work. Before trying this, I could reproduce this problem at least once per ten linux kernel build (make -j16).

However, after trying this, that build worked fine 100 times without SEGV.

Kan ärligt talat inte säga varför detta skulle göra någon skillnad, men skulle gärna höra om någon annan har någon ide

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Datavetare
Skrivet av tellus82:

Jag tror bestämt att någon känner sig träffad alternativt en öm tå, det är en sak att påpeka sämre prestanda rent tekniskt, det är en väldigt annan sak att slentrianmässigt göra breda påståenden om till exempel spelprestanda som du har gjort tidigare. En sak man ska akta sig mycket noga för är att göra just breda påståenden.

Sen att du kallar en del rykten och underliga spelresultat för "konspirationsteorier" gör dig själv bara till än mer åtlöje, det är inte en människa som påstått att nvidia skulle varit ute i ondskefulla ärenden men den mest inbitne Intel apologisten torde ha sett att saker inte uppförde sig som dom skulle, hur i själva glödheta skulle annars en 7600k i stock presterat avsevärt mycket bättre än en 7700k i stock i RotTR eller varför inte en 7350k i stock som lyckades få högre medel fps än en 7700k, bägge stock... Se NH's Ryzen tester.

Den gamla godingen ja, hade nästan glömt av den... xD

Fast vad av mina påstående är fel?

Vad jag sagt väldigt tvärsäkert är: Ryzen har sämre IPC för heltal, det är bevisat sant. Spel skalar inte perfekt med CPU-kärnor, så länge det är fallet kan inte 8-kärnors Ryzen ens teoretisk passera i7-7700K i prestanda aggregerad heltalsprestanda för i7-7700K är någonstans mellan R7-1700 och R5-1600X (vilket betyder att heltalsprestanda per CPU-kärna måste vara ~40 % högre, det innefattar både frekvens och IPC).

Än idag finns inte ett enda fall som pekar på att mina "svepande" uttalanden om spelprestanda är fel. Låter man GPU-delen bli flaskhals går det absolut att hitta fall där Ryzen är lika snabb, går att hitta fall där det till och med är någon procent fördel för Ryzen. Fast går även att hitta väldigt GPU-begränsad fall där G4560 vinner över alla CPUer (kolla in Doom 2560x1440). Slutsatsen här ska inte vara att G4560 är bästa CPU för Doom, slutsatsen bör vara att mätosäkerheten är några procentenheter.

Men nog hade jag fel om att inga CPU-specifika optimeringar görs. Eller?

Hur fixade man AoS prestanda för Ryzen? Jo man tog bort en Intel-specifik "optimering". Resultat: högre prestanda både för Ryzen och Core. Så optimeringen här var att ta bort CPU-specifika optimeringar.

Hur fixade man TW:Warhammer? Man gjorde generella optimeringar så spelet drog bättre nytta av flera kärnor, det gynnade Ryzen ungefär lika mycket som E-serien.

Hur fixade man nu RoTR. Av allt att döma är det helt generella prestandaförbättringar, likt AoS verkar man gjort förändringar kring minnesoptimeringar. Kan mycket väl ha varit "optimeringar" även här då Intel-plattformen också ser en boost.

AoS och möjligen RoTR (som PC Perspective beskriver så här "a game that was actually one of the worst case scenarios for AMD with Ryzen") må ha sett stört vinst på Ryzen, men i fallet AoS och gissningsvis även i RoTR så är optimeringen egentligen att man tagit bort en misslyckad optimering som råkar fungera OK på Intel och katastrofalt på Ryzen.

Det visar precis vad mitt "svepande" uttalande gick ut på. 2017 gör kompilatorer i väldigt nära 100 % av fallen ett långt bättre jobb än "handoptimering" gjort av en människa. Så bästa CPU-specifika optimeringen är precis vad vi ser här: gör inga CPU-specifika optimeringar, gör det som är generellt bra och låt kompilatorn ta hand om detaljerna.

Så känner faktiskt inte den minsta ömhet i tårna. Däremot borde det svida lite för de som så tvärsäkert pekade på att felet med RoTR låg hos Nvidias DX12 drivare, det då allmänt tillgänglig information kring hur DX12 drivare fungera borde gjort det uppenbart för alla som har lite intresse kringproblemet att DX12 drivarna inte kan vara problemet.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Så känner faktiskt inte den minsta ömhet i tårna. Däremot borde det svida lite för de som så tvärsäkert pekade på att felet med RoTR låg hos Nvidias DX12 drivare, det då allmänt tillgänglig information kring hur DX12 drivare fungera borde gjort det uppenbart för alla som har lite intresse kringproblemet att DX12 drivarna inte kan vara problemet.

Av samma skäl var jag skeptisk mot att VR test grejen (som argumentet till stor del berodde på) var en bra måttstock för prestanda, speciellt då den också visade sämre resultat för alla större flerkärniga processorer (inkluderat Intels). Men jag slutade höra prat om det och borde kolla upp hur läget ser ut där nu.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem
Skrivet av Yoshman:

Fast vad av mina påstående är fel?

Så känner faktiskt inte den minsta ömhet i tårna. Däremot borde det svida lite för de som så tvärsäkert pekade på att felet med RoTR låg hos Nvidias DX12 drivare, det då allmänt tillgänglig information kring hur DX12 drivare fungera borde gjort det uppenbart för alla som har lite intresse kringproblemet att DX12 drivarna inte kan vara problemet.

Fast vem är det nu som är ute och cyklar rätt duktigt? Har du redan glömt av hur nVidia hanterar det som både AMD och nvidia och utvecklare kallar async shaders i spel?

Sen har vi detta

Citat:

1: Rise of the Tomb Raider splits rendering tasks to run on different threads. By tuning the size of those tasks – breaking some up, allowing multicore CPUs to contribute in more cases, and combining some others, to reduce overheads in the scheduler – the game can more efficiently exploit extra threads on the host CPU.
2: An optimization was identified in texture management that improves the combination of AMD CPU and NVIDIA GPU. Overhead was reduced by packing texture descriptor uploads into larger chunks.
There you have it, a bit more detail on the software changes made to help adapt the game engine to AMD's Ryzen architecture. Not only that, but it does confirm our information that there was slightly MORE to address in the Ryzen+GeForce combinations.

Det finns även en del andra produkt specifika optimeringar som gjorts i RotTR som man inte går in i detalj på, taget från pcper

Hur faen kan man ens försöka påstå att inga cpu specifika optimeringar görs, det är inte sunkiga mobilspel vi pratar om där man struntar fullkomligt i optimeringar och nej det är inte bättre att alltid låta optimeringar skötas av kompilator, det är snudd på fullständigt skitsnack.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv

@wowsers: Stänger rman av ASLR så kanske man undviker vissa problematiska minnesareor där data annars hamnat p.ga "randomness" när man kompilerar mycket? Detta är lååååångt över min kunskapsnivå. Hoppas att det är något som kan lösas med mjukvara

Permalänk
Datavetare
Skrivet av tellus82:

Fast vem är det nu som är ute och cyklar rätt duktigt? Har du redan glömt av hur nVidia hanterar det som både AMD och nvidia och utvecklare kallar async shaders i spel?

Sen har vi detta
Det finns även en del andra produkt specifika optimeringar som gjorts i RotTR som man inte går in i detalj på, taget från pcper

Hur faen kan man ens försöka påstå att inga cpu specifika optimeringar görs, det är inte sunkiga mobilspel vi pratar om där man struntar fullkomligt i optimeringar och nej det är inte bättre att alltid låta optimeringar skötas av kompilator, det är snudd på fullständigt skitsnack.

Tror du skäller under fel träd här. Utsagan om att optimeringar idag bäst hanteras via generellt bra design och kompilatorer var endast för CPU, tråden handlar trots allt om en viss CPU-familj. Har inte pratat om huruvida det görs GPU-specifika optimeringar (är fullt medveten om att sådana tyvärr måste göras).

En (av många) anledningar varför GPGPU aldrig riktigt tagit fart är att det i praktiken inte går att skriva generellt bra GPGPU-program, man måste hantera AMDs och Nvidias GPUer olika (och till råga på allt är CUDA så mycket bättre än OpenCL på Nvidia så man måste också jobba med två olika miljöer).

Det har pekats på att en komplicerade faktor för DX12/Vulkan är att i flera fall är det optimala för AMD GPUer en dålig idé för Nvidia och vice versa.

Den optimering man gör kring texturer är ur CPU hänseende helt generell, även om det specifikt är en optimering för Nvidias GPU. Man ser ju en förbättring även för i7-6900K, men frågan är hur GPU-bunden den är redan med gamla patchen. Testet TechPowerUp gjorde pekar ju på att RoTR är helt GPU-bundet med GTX1080 i 1920x1080 från i3-7100 och uppåt.

Jobbar själv mest med ARM. Precis som speltillverkarna nu hittar "handoptimeringar" som är riktigt usla, men som fungerar OK på Core-serien är absolut inget nytt. Core-arkitekturen är extremt förlåtande mot dålig kod, år av mikroarkitekturmanglande har gjort att man löser rätt korkade konstruktioner rätt bra. Men på ARM ser man också det vissas spel visar för Ryzen, mindre bra val kan slå riktigt hårt på andra CPUer. När man fixat problemet är det i princip alltid även bättre före Core, men i många fall är förbättringen långt mindre än på vissa andra CPU-modeller.

Precis det är vad vi sett för spel. Förbättringarna handlar om att fixa dåliga val som bara råka fungera OK på Core, det är dock inte alls "CPU-specifika" optimeringar utan en generellt bättre design. Det är ju något alla borde vara glada över, inte träta om

För ett par år sedan rensades hela Linux-kärnan på "handoptimeringar". Kan vara så att dessa i något läge var en bra idé, kompilatorer har inte alltid varit så här bra och vi har inte alltid haft avancerade out-of-order CPU-designer. Men när man rensade bort dessa "handoptimeringar" fick man bättre prestanda på de flesta plattformar, handoptimeringar är nu bannlysta om man inte har hårda bevis på deras fördelar.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Efter flera veckors "ska jag, behöver jag, jag vill, nej jag väntar"-pillande med bokningsknappen på Inet slog jag nu till! Ska bli riktigt nice att äntligen få byta bort Bulldozer till något som verkar så mycket bättre. Så imorgon blir att att mecka dator, var ett tag sedan nu! Följande blev vad som uppgraderades, vilket jag tror mitt 980Ti kommer gilla skarpt:

AMD Ryzen 5 1600X
MSI X370 SLI PLUS
Corsair 16GB (2x8GB) DDR4 3200MHz
be quiet! Pure Rock

Bäst att gå och lägga sig så man kan hänga på dörren när de vaknar i morgon :3

Visa signatur

AP201 | B650M | 7800X3D | 32GB | RTX 3090
G613 | G502 X | PRO X | G3223Q | PG279Q
OLED55C9 | PS5 | Switch

SvenskaDiablo Discord

Permalänk
Medlem

@Yoshman: Påminner lite om någon patch som tog bort 1600 rader kod genom att ta bort mutex specifik kod, må ha gett en smula sämre optimering än att ha specifik kod för alla olika arkitekturer, men desto bättre att sedan hålla koll på koden.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"