World of Warcraft är traditionellt ett väldigt CPU-intensivt spel som presterat väl med hög frekvens, och som inte kunnat nyttja flera trådar. Därför har Intel sett en viss prestandafördel i WoW, men jag har inte sett några benchmarks för Ryzen 3000-serien tyvärr, så jag vet inte hur det ser ut idag, sannolikt fortfarande en viss fördel Intel här. Det är sannolikt din CPU som kommer vara flaskhalsen här. En i7-9700K med dess flera fysiska kärnor skulle kanske kunna ha en viss fördel för multibox, men om du säger att du kört 3 karaktärer på din gamla rigg (nu vet jag iofs inte vad du kört på innan, men jag gissar någon quadcore) så lär ju båda systemen jag listade klara detta i någon bemärkelse.
Tänk hur som helst på att en speldator alltid kommer begränsas antingen av CPU eller av GPU, beroende på spel och scenario. Tricket är att välja komponenter som inte håller tillbaka varandra för mycket, vilket kompliceras av att olika spel fungerar olika. En WoW-burk faktiskt kanske det hade varit värt att köra Intel ändå, även om man behöver en svagare GPU, men nu gissar jag bara.
Angående skillnaden på 1080p och 1440p, det är helt enkelt korta namn på upplösnigarna 1920x1080, och 2560x1440.
En bildskärm består av ett par miljoner små små bildpunkter. En bildskärms inbyggda upplösning (eng. native resolution) får man genom att man helt enkelt räknar hur många av dessa små bildpunkter en bildskärm kan visa horisontellt och vertikalt. En bildskärm kan drivas med lägre upplösningar, alternativt så kan vissa spel renderas i en lägre upplösning och sedan skalas upp genom att pilla på reglaget render scale, men ett spel ser skarpast ut om man kör spelet på bildskärmens inbyggda upplösning.
Ju högre upplösning, desto skarpare upplevs bilden, men grafikkortet får mer att göra, vilket gör att ett grafikkort inte presterar lika bra i en högre upplösning som en lägre. Därför behöver ett kraftigare grafikkort för en högre upplösning, och på samma sätt är ett för kraftigt grafikkort bortkastat med en låg upplösning, det är att "elda för kråkorna" liksom.
1440p ses idag som en "sweet spot", d.v.s. det är mer krävande och snyggare än 1080p, och samtidigt så går det att driva i höga framerates med rimlig hårdvara, vilket inte går med den högre upplösningen 2160p (även kallad 4K).
Fast upplösningen är bara halva historian när det gäller bildskärmar, den andra halvan är uppdateringsfrekvens. Ju högre uppdateringsfrekvens en bildskärm har, desto flera bilder kan en bildskärm visa per sekund. En typisk kontorsskärm klarar bara 60 eller ibland 75 Hz. En spelskärm klarar idag typiskt runt 144 Hz även om det finns högre. En hög uppdateringsfrekvens innebär att spelet upplevs mjukare (även enkla saker som musrörelser i Windows kan man se skillnad på), och du får även bild till skärmen några millisekunder snabbare, vilket är eftertraktat av de som spelar snabba FPS-spel.
En bildskärm med låg uppdateringsfrekvens kan helt enkelt inte visa alla bildrutor som ett kraftfullt grafikkort klarar av att rendera, så det blir i praktiken som att du hade bara 60 fps. Igen, lite att elda för kråkorna.
Kortfattat:
Hög upplösning -> mer ögongodis men lägre FPS
Hög uppdateringsfrekvens -> Innebär att bildskärmen faktiskt kan visa de här höga FPS-värdena.
Angående vilken bildskärm du ska välja, ja, det är en djungel. Kan rekommendera att du börjar här: https://www.sweclockers.com/artikel/24890-sweclockers-guide-t... - för att få en idé om vad du ska tänka på.
En viktig sak att tänka på i sammanhanget är frågan om adaptiv synkroniseringsteknik d.v.s. antingen G-sync eller FreeSync. Adaptiv synkroniseringsteknik innebär att bildskärmen kan samarbeta med grafikkortet för att uppdatera bildskärmen i samma takt som bildrutor kommer från grafikkortet. Då får man bättre flyt, och man slipper en artefakt som kallas "tearing". Här finns lite att läsa om det: https://www.sweclockers.com/artikel/22594-sweclockers-guide-t... - En sak som är värd att tänka på är att adaptiv synk på FreeSync-skärmar idag fungerar med både AMD och Nvidia, medan G-sync funkar bara på Nvidia. Väljer man en G-sync-skärm låser man alltså in sig till att välja Nvidia nästa uppgradering. Däremot så är Nvidias validering av G-sync mycket bättre, vilket bäddar för mindre strul. FreeSync tenderar också att vara billigare. Jag själv hade försökt välja en FreeSync-skärm som är testav av Nvidia under programmet "G-sync Compatible", vilket innebär att den också funkar med AMD-kort, samtidigt som bildskärmen är testad. Du kan också göra din egen research på FreeSync-skärmar.
Ursäkta det långa inlägget, men jag hade inte tid att skriva ett kortare. Lycka till med ditt köp.