Inlägg

Inlägg som meanh har skrivit i forumet
Av meanh
Av meanh
Skrivet av Karazhan:

Sitter på en Asus PG279 skärm med gsync och ett Nvidia kort. Har dock funderingar på att köra AMD men jag undrar om jag skjuter mig själv i foten om jag gör så? Som jag förstår det har dessa äldre Gsync skärmarna inte stöd för AMDs lösning. Hur stor skillnad blir det att köra helt utan någon sync?

Körde själv ett tag med en PG279QZ och 6800XT och skulle inte rekommendera det om du spelar mer "tunga" AAA-spel som inte går lätt att låsa i t ex 120Hz. Märkte problemet mest i titlar som AC: Valhalla där fps:en är lite "överallt" beroende på vilket håll du tittar, så fort jag panorerade kameran över lite större landskap märktes det direkt att flytet i bilden inte var så jämnt som jag var van vid. Andra enklare spel som kunde låsas i stort sett utan tappad fps kunde i princip köras utan problem.
Skulle personligen inte köra ett AMD-kort med en skärm som har "riktig" gsync, tror du kommer ångra dig om du inte antingen köper Nvidia igen eller skaffar en freesync skärm till AMD-kortet. Själv köpte jag en freesync monitor och körde min PG279QZ som sekundär monitor istället för en gammal 1080p panel som jag hade tidigare.

Av meanh

Prestandaökning 80-klass till nästa generation 70-klass:
580->670 +14%
680->770 +5%
780->970 +21%
980->1070 +29%
1080->2070 +16%
2080->3070 +26%
3080->4070 +1%

Så sämsta förbättringen i prestanda mellan 2 generationer 80-klass till 70-klass utan konkurrens sedan åtminstone GTX 770, jag är inte speciellt imponerad. 4070ti är dock med sina +17% jämfört med 3080 det "riktiga" 4070 om man ska gå på prestandaökning.

Av meanh

Bara jag som önskar att de lägger till en ficklampa i spelet då många ställen ser ut att kunna bli rejält mycket mörkare?

Av meanh
Skrivet av Yoshman:

Det finns skillnader i settings. Men kring RT/non-rt så körde Eurogamer likt HUB med RT (tror alla andra körde utan RT), de fick ändå resultat mer i linje med övriga
<Uppladdad bildlänk>

Likt övriga får 7800X3D här lysade genomsnittlig FPS, men ligger efter i 1%-low.

En fullt möjlig förklaring är tyvärr att osäkerhet i mätningarna är långt högre än man kanske tror. Men om det är förklaringen blir i stort sätt alla tester rätt poänglösa då det inte (med statistisk säkerhet) går allt går att säga vilken CPU-modell som är snabbast... Det som talar emot detta är att de flesta benchmark-resultat brukar har väldigt låg run-to-run varians!

Edit: Vad som är ställt utom allt tvivel är att 1%-low värdena har större osäkerhet jämfört med genomsnittlig FPS.
0,1 %-low har väldigt stor osäkerhet.

Cyberpunk är ökänt för att vara "buggigt" med AMD-proppar, speciellt när de har 6-8 kärnor. SMT användningen är helt enkelt "trasig" och används inte i många fall.
Här är exempel på hur det kan se ut:

https://pbs.twimg.com/media/FtCKP3pWwAEKtHM?format=jpg&name=larg...

Av meanh
Av meanh
Skrivet av SuperSverker:

Crysis var väl bara en massa ögongodis, CP2077 är ju bara oerhört dåligt optimerat (och lite ögongodis ovanpå)

Skulle säga att CP2077 i dagsläget är ett under av optimering jämfört med de flesta nyare AAA-titlar senaste 6-12 månaderna. Fullt spelbart även med integrerad grafik på en Steam Deck (även om detta innebär potatisgrafik och 720p30 med FSR2) och skalar hyffsat bra upp till 4k på ett 4090 med bland det bästa i ögongodisväg som skådats hittills.

Av meanh
Skrivet av SuperSverker:

Det jag menade var att om något händer i Kina, så kommer det att få en större effekt på hur det ser ut i "världen" idag jämfört med tidigare.

Om nu undersökningen är en undersökning av alla som använder steam, och resultatet är ett stort hopp mellan månader pågrund av något fundamentalt som skett hos den största marknaden bland alla som använder Steam så blir ju resultatet det samma (Dvs, exempelvis en plötslig ökning av antalet RTX3060s pga avlastning av kryptofarmer i Kina)

Jag kan ha missuppfattat lite och dragit lite hög växel, men jag förstår inte riktigt problemet (även om jag såklart förstår att undersökningen ska tas med en hink med salt då vi inte riktigt vet metodiken bakom hur de samlar in information).

Om 25 personer av hundra helt plötsligt byter färg på sina tröjor så kommer det ha en signifikant effekt på snittet av färgerna på alla de 100 personer som utgör hela marknaden. Det i sig innebär inte att undersökningen enbart fokuserar på de 25 personerna, utan att förändringar av de 25 personerna har en större effekt på den resterande massan än om de bara var 10st

Problemet är att i kina finns ett stort antal "guldfarmare" som kör samma spel på flera olika konton samtidigt på en maskin, lägg också till att internetkaféer är mycket vanligare där än i väst och du har ett antal faktorer som gör att statistiken inte längre kan påvisa något gällande antal enheter av viss hårdvara. Vi kan faktiskt inte ens vara säkra på hur många "verkliga" användare som använder en viss hårdvara, då ett okänt antal konton endast existerar för exempelvis automatiserat guldfarmande. Dvs, datan från Steam hardware survey kan i nuvarande form förmodligen klassas som i stort sett irrelevant utan väldigt många förtydliganden från Valve.
Om undersökningen mot förmodan är närmare sanningen nu än för någon månad sedan så gör det inte saken mycket bättre, det betyder att den tidigare var väldigt missvisande och detta förmodligen sedan flera år tillbaka i tiden.

Av meanh

Och folk undrar varför jag tar Steams data med en stor nypa salt... Man måste ha ändrat något fundamentalt i hur man beräknar dessa siffror (eller vilken data man använder) för att sådana här stora förändringar ska vara möjliga.

Av meanh

Efter allt man hört om hur dåligt spelet flyter på även de mest kraftfulla maskiner så kände jag mig tvungen att testa själv.
Efter nedladdning, kompilering av shaders och strax över en halvtimme spelad så är intrycket följande:
-Kompileringen tog inte så mycket tid som jag befarade, ca 25 minuter med en 5800X3D.
-CPU användningen är inte i närheten av vad jag sett från vissa på nätet, i stort sett endast en tråd används fullt ut hittills, resterande trådar tycks nästan sova stor del av tiden (vilket i sig kan vara ett problem). Undrar om en patch fixat problem med hög användning som vissa tycks ha haft eller om folk helt enkelt inte väntat på att kompileringen ska bli färdig.
-Stutters, har haft en del sådana, men långt ifrån lika illa som de var för mig i Hogwarts Legacy. Inte så bra jag helst vill att spelet ska vara, men inte i den klass som jag fick intryck av från kommentarer på diverse forum.
-Kräver sin GPU, allt maxat, 4k med DLSS Quality ger för det mesta 90 till 115+ fps (kör cap vid 115 fps). Ett 4090 är något flaskad av en 5800X3D ibland, men har ändå oftast haft 80+ fps hittills dessa gånger.

Kommer återkomma med fler observationer om några dagar då jag spelat lite mer, men det verkar lovande för tillfället.

Av meanh
Av meanh

Sätter detta spel i kategoring "spel som ger RT ett dåligt rykte". Väldigt liten visuell skillnad till ett stort tapp i prestanda.

Av meanh

Endast kärringar och pensionärer lägger saker om Apple på minnet.

Av meanh
Av meanh
Av meanh
Skrivet av Cobritti:

Den marknadsförs som en ren gaming CPU av självaste AMD eftersom deras 3D versioner ger noll fördelar för produktivitet!

Noll fördelar stämmer inte, Phoronix testar ett gäng laster där den extra cachen ger prestandavinster.
Saxat från artikeln:

"When taking the geometric mean for this set of Linux workloads that are able to effectively make use of the large 3D V-Cache, the 7950X3D was 18.5% faster than the 7950X! And then making it incredibly compelling is the above metric that it was so much faster while consuming just 61% the power! The Ryzen 9 7950X3D pricing is fair at around 16% higher than the 7950X. The Ryzen 9 7900X3D came out equally well with 14% better performance than the 7900X (or 8% faster than the 7950X in these workloads) while again doing so at much less power.

For those spending significant portions of your time working with OpenFOAM CFD, ClickHouse databases, hydryodynamics software packages, some AI software and models, and other workloads covered in this article, these 7900X3D and 7950X3D processors can be very compelling both for the better raw performance and power efficiency. Of course, for running heavy CFD simulations and the like there is obviously the AMD EPYC server processors, but for those on a budget or working on these open-source projects just as a hobbyist, the AMD Ryzen Zen 4 3D V-Cache processors are excellent options. These Ryzen 9 7900X3D/7950X3D results make me all the more excited for the upcoming AMD EPYC Genoa-X processors as well as the lower-end Ryzen 7 7800X3D processor. AMD 3D V-Cache paired with AVX-512 on Zen 4 is a great combination for many areas outside of gaming."

Av meanh
Skrivet av landahl:

Helt sant. 4090 är ju det enda kortet typ som presterar som man vill i 4k.

Under mina 25+ år som PC-spelare så är faktiskt 4090 den första GPU som jag verkligen är toknöjd med gällande prestanda. Exempel på vad jag haft från de senaste 10 åren:
970, kämpade ganska snart i 1080p i vissa titlar, mestadels bara att dra ner på några texturer så löstes det, men efter 2 år så kändes kortet ganska trött i det mesta om man ville ha lite ögongodis.
2070s, blev ganska snabbt övermannat i 1440p, speciellt om man ville ha lite RT blev det oftast en kamp att hitta inställningar som uppfyllde 60 fps och ögongodis.
3080 10GB, problem till och från med drivrutiner under de första 18 månaderna har faktiskt gjort detta till det kort jag varit minst nöjd med under hela mitt liv. Dessutom så gjorde jag misstaget att övergå till 4k 2021 och där räcker inte kortet riktigt till i de nyaste titlarna om man som jag gillar ögongodis och gärna 90-120fps.
6800xt, bättre upplevelse än mitt 3080 rent generellt, men avsaknad av främst DLSS i 4k gjorde det helt klart lite mer begränsat då FSR2 är lite sämre men främst saknas i många titlar.

4090 har endast två nackdelar, priset och i liten grad strömförbrukning. Trodde verkligen att jag skulle ångra mig lite grann när jag spenderat nästan 22k på en GPU, men aldrig tidigare har jag känt att de flesta spel bara "flyter", dessutom maxade, med dubbel fps mot mitt 3080 (som många ggr kördes med sämre inställningar) och som även i 9 fall av 10 förbrukade mer ström!
Faktiskt första kortet jag kan se mig själv sitta helt 100% nöjd med även efter nästa generation släppts.

Av meanh

Installationen av den senaste drivrutinen lyckades "hårdkrascha" min huvudburk, känns inte direkt bra när en drivrutinsinstallation lyckas med det. Tycks dock fungera hyffsat efter datorn startat igen, dock så har mitt klassiska problem med flimrande skärmar fyrtioelva gånger när jag trycker igång min LG C1 vara tillbaka med råge de senaste två drivrutinerna, så Nvidia har definitivt en del att jobba på.

Av meanh
Skrivet av Gilgamesh:

är det bara jag som aldrig kört en runda benchmark med 4090? stoppat i det och bara plöjer igenom alla spel.

Kunde inte låta bli en runda benchmarks för att jämföra mot mitt 3080 samt kolla så att det presterar "normalt", men sedan dess har det endast blivit spel.

Av meanh