Även denna tråd spinner på samma tema.
Tror väldigt få säger "spel kommer aldrig behöva / kunna använda fler kärnor".
Vad däremot alla utom de som dagligen jobbar med parallellprogrammering rätt konsekvent gör är att grovt överskatta hur fort denna övergång kommer att gå.
Vidare missar nog väldigt många hur svårigheten med att nyttja flera kärnor är relaterad till hur många kärnor man startar från. Det är inte motsvarande arbetsinsats att gå från att lyfta ett program till att nyttja två kärnor effektivt till att nyttja fyra kärnor som att lyfta programmet från att nyttja fyra kärnor effektivt till att nyttja åtta kärnor.
Svårigheten ökar exponentiellt!
Jämför man i7-7700K mot 1800X så drunknar eventuella framsteg som gjort på att använda flera kärnor rätt mycket i den varians man kommer av urvalet av speltitlar. D.v.s. på två år har egentligen inget hänt mellan att ha 4C/8T och 8C/16T. Men om tio år kommer det garanterat vara så att man kan klart mäta en relativ skillnad mellan dessa två konfiguration.
DX12/Vulkan är inte på något sätt en silverkula. Tittar man på utvecklingen för spel de senare 7-8 åren kan det rätt mycket beskrivas m.h.a. Gustafsons lag. D.v.s. hur väl man utnyttjar många kärnor i spel är primärt en funktion av hur snabbt komplexiteten i spelvärldarna växer.
HardwareInfo har relativt nyligen testat hur 18 st spel fungerar ihop med ett GTX 1080 Ti från 2C/4T till 10C/20T. En intressant observation är att "medium" uppvisar något bättre skalning med CPU-kärnor jämfört med "ultra" (vilket egentligen inte är så förvånande, ultra medför med kommunikation med GPU och GPUn är en stark serialiserade moment, se Amdahls lag)
I 2560x1440 ultra är det rätt liten skillnad redan från 2C/4T!
Huvudpunkten man ska ta med sig är: väldigt sällan det är ett bra val att "försöka vara framtidssäker" i sitt val. Välj det som är bäst idag, lägg på lite marginal om ekonomin tillåter.
Andra man ska ta med sig: det kommer inte att dyka upp några magiska optimeringar för en viss CPU, sådant var relevant när CPUer inte utförde spekulativ körning och innan de dynamiskt kunde anpassa sig för aktuella omständigheter. Självklart kan det finnas rena buggar som påverkar en viss CPU-modell, var ju två-tre spel som hade just sådana problem och man upptäckte efter lansering av Ryzen.
Men rent generellt: nej, det är inte så man bedriver programutveckling 2019. Finns definitivt optimeringar som man kan göra, framförallt kring parallellprogrammering. Men dessa är långt mer bundna till saker som minneskonsistensmodell än CPU-modell, d.v.s. ett metod fungerar väl för x86 (då alla x86 har samma minneskonsistensmodell) medan man tar en annan väg för t.ex. ARM (som på flera sätt skiljer sig från x86, men alla ARM:ar har samma minneskonsistensmodell). Senast idag jag satt med just den typen av optimering, jobbar med ARM, PowerPC och x86.