Frågelådan med Jonas och Emil

Permalänk
Medlem

Borde göra en FPS-recorder som automatiskt inte räknar med frames som har för lång fördröjning i förhållande till den "normala" fps:n average.
Säg att man har 10FPS average som man räknar FPS nu, alltså allt som händer under en sekund sammanslaget, denna räknare skulle diskvalificera säg 2 frames som kom 0.2s efter sina föregångare.
Bara ett exempel, borde inte vara så svårt?

Permalänk
Medlem
Skrivet av finnejanson:

Såg inte att någon påpekat/frågat detta, so here I go.

Ni nämner att 6870 är ett billigare grafikkort som är vanligt för CF-lösningar (hade själv det i tankarna när jag skaffade min 6870). Sedan nämner ni att billigare grafikkort inte stödjer CF med flera kort än två. Men då tänker jag, det finns ju ett dubbelt 6870, går det inte att köra ett 'dubbelt' 6870 med ett single 6870 som 'trifire'? Inbilliar mig att jag läst om folk som har det..

Nej de gör du inte men grejen är att det är inte chipen i sig begränsar. Problemet är med mer än 2 vanliga 6870 finns det ej "cf port" till ett 3dje kort då de bara finns en cf port och inte 2 som på de dyrare. Medans 6870x2 fortfarande har en port trots dubbel därför funkar det alltså med ett till kort.

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Crucial 4TB Pcie5 m.2 / Corsiar Pcie4 4TB, Samsung 57" G9

Permalänk
Medlem

Nu när frågelådan är i gång så undrar jag när Boktipset kommer.

Permalänk
Medlem

Mysigt initiativ!

Permalänk
Medlem

Trevligt! Jag har en fråga bara: Om man har en 60hz skärm, kan man då märka någon skillnad på 60 eller 100 fps?

Permalänk
Skrivet av jacozz:

Det anings komiska med AFR är att ju snabbare processor du har desto högre risk för microstuttering får du.
.

Stämmer detta? Varför ?

Menar du Cpu eller Gpu?

Visa signatur

5800X, Asus dual 4070, 32GB, Fractal newton R2 650 watt, Asus Prime B350-plus , Phanteks 400s vit, Asus TUF VG27AQ1A, Dell U2515H.
https://www.flickr.com/photos/albinivik/

Permalänk
Medlem
Skrivet av zebra3:

Trevligt! Jag har en fråga bara: Om man har en 60hz skärm, kan man då märka någon skillnad på 60 eller 100 fps?

Om frame time i ditt spel vid 60 fps alltid är 1/60-dels sekund så nej. Men så är aldrig fallet så du kommer behöva mer än 60 fps för att eliminera all ryckighet. Dvs det kommer ta ner frame time i de svåraste bildrutorna till under 1/60-del.

Däremot är 60Hz redan lite över gränsen till vad ögat kan uppfatta så jag skulle tro att man behöver en kombination av ett spel som är benäget att ha stora frame time variationer samt att man ligger nära eller strax under 60 fps för att det ska märkas.

/s

Visa signatur

2500k H2O, HD6950@6970

Permalänk
Medlem
Skrivet av shaglord:

Om frame time i ditt spel vid 60 fps alltid är 1/60-dels sekund så nej. Men så är aldrig fallet så du kommer behöva mer än 60 fps för att eliminera all ryckighet. Dvs det kommer ta ner frame time i de svåraste bildrutorna till under 1/60-del.

Däremot är 60Hz redan lite över gränsen till vad ögat kan uppfatta så jag skulle tro att man behöver en kombination av ett spel som är benäget att ha stora frame time variationer samt att man ligger nära eller strax under 60 fps för att det ska märkas.

/s

Tack för det!

Permalänk
Medlem

Att tre kort gav mindre micro stuttering än två hade jag ingen aning om, så där lärde man sig något nytt Bra initiativ att ha frågelådan, den tar som sagt lite tid från fredagspanelen, men på det här sättet så kan man få lite kvalitetssvar på frågorna som ställs

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Suveränt! Bra jobbat som alltid, keep it up!

Visa signatur

Fips!

Permalänk

Måste säga att jag är nöjd med min crossfirelösning MEN jag skulle inte köpa två grafikkort till ett nybygge. Köp ett snabbt singelkort primärt, uppgradera med ett till senare när det kommer ett monsterspel som Crysis, BF3. Eller bygg nytt.

Skönt att man kan har stabil el här vid serverhallarna också

Visa signatur

Ryzen 5600X | 16 gb DDR4 | B550 ASUS-bräda | Inno3D RTX 3070 | Samsung 840 250 gb | Corsair RM750 | Fractal Design Arc | Win 10 Pro

Permalänk
Medlem

Sjukt bra ide!! Jag känner mig redan klokare
Funtade själv på att köpa ett till GTX 460, men nu efter denna frågelåda tror jag att ja ska hålla i pengarna ett tag framöver.

Visa signatur

i5-5675C @ 4,3 GHz | GTX 970 @ 1290/1953| HyperX Beast 2x4 GB @ 2666MHz| Asus ROG MAXIMUS VII HERO | Corsair HX 750W | Fractal Design Define R4 |

Permalänk

har använt mig av mycket sli byggen de sista åren kan märka en aning irritationsmoment men i min nvidia 3d så blir det ganska bra alltid emot att köra på bara ett och tappa ett antal bilder. får la testa att rocka tillbaka till bara ett på 6xx series nvidia. det vill säga om dom har något bättre en 580 som jag alltid upplevt som för svagt.

Permalänk
Medlem

Jonas och Emil, jag älskar er! Nuff said.

Visa signatur

Nikken: Dont waste ze brain cellzzzzz
Tigimon: But I need to lower myself to walkers level.

Permalänk
Skrivet av Laggboxx:

BTW jag är nog kungen på microstuttering.

Har du provat stänga av HyperThreading?

Vilket jag fortfarande undrar över hur det kan komma sig att mitt MS eller "lagg" försvann då jag stängde av det.
Eller är Alternate frame rendering och HT lagg olika?
Kör jag ingame mätaren så ser min graf mycket bättre ut än detta http://www.qbasix.com/BF3%20perf%20graph.JPG
Efter att jag stängde av HT.

Visa signatur

An application program (sometimes shortened to application) is any program designed to perform a specific function directly for the user or, in some cases, for another application program.
https://www.userbenchmark.com/ Talar om vad du har!

Permalänk
Medlem

skit bra tråd, fick mig att välja bort Cf helt och hållet, jag e dock väldigt känslig mot lagg, och för en gångs skull vill jag spela på en dator som är HELT fri från nåra som helst hack när man spelar har alltid trott att Cf eller sli va det optimala valet för spelfantaster men once agian sweclockers set me straight

Permalänk
Medlem
Skrivet av Albinfiskare:

Jag har faktiskt inte märkt av microstuttering med mina 5770s..

LjugarN

Visa signatur

AMD Ryzen R9 3900X | Gigabyte Aorus Ultra X570 | Corsair 64GB | RTX 3080 Ti

Permalänk
Medlem

Det här var väldigt intressant. Har ett 5970 som gav artefakter i Windows varpå jag skickade det på retur till Komplett. Stoppade i ett 6850 under tiden och spelade Skyrim. Fick tillbaka mitt kort lite senare och bytte tillbaka. Fann inga artefakter i Windows, men dock artefakter och lagg i Skyrim som inte funnits innan. Blev irriterad på att Komplett inte fixat problemet, men börjar nu undra om det inte är 5970:s tvåkärniga natur som ställer till det. Får även CTD numera, vilket jag inte hörde något om i videon. Kan det ha med CF att göra, det med?

Visa signatur

CPU: AMD Ryzen 7 7700X // MB: ASRock X670E PG Lightning (AM5) // Chassi: Fractal Design Define S // PSU: Antec Truepower 650W // CPU-kylning: Noctua NH-U12A // GPU: ASUS Radeon RX 6800 XT TUF OC // RAM: Kingston 32GB (2x16GB) DDR5 6000MHz CL40 FURY Be // SSD: Intel 660p 1TB, Samsung 840 Evo 120GB // HDD: Seagate Barracuda 3TB // Monitor: Svive Pyx 34C801

Permalänk
Medlem

Albinfiskare #156

Det verkar vara ett synkproblem mellan processor/gpu.

Det är i alla fall en teori i de fall grafiken och inte processorn är den långsammare av de två.
Processorn förbereder och skickar data till det första grafikkortet, när den är klar med det börjar den direkt med att förbereda nästa frame som den direkt skickar till nästa grafikkort. Då man i de flesta spel är gpu-bunden snarare än cpubunden, kommer frame 2 ritas upp betydligt snabbare efter frame1, än tiden det tog för att processa frame 1.

alltså typ nåt sånt här: 0----------1--2---------3--4 osv

Så. låt säga att du har en överclockad SandyBridge och ett par 5770 i CF. Här blir då skillnaden extremt stor mellan hur snabbt frame 2 ritas ritas upp förhållanden till tiden grafikkortet tar på sig rita upp frame 1. Så i detta fallet vore det kanske bättre att ha en gammal x4 Atlon, då processorn inte orkar skicka datan till frame 2 lika snabbt? (Åtminstone om målet är att minska MS). Fast jag vet ärligt talat inte om detta stämmer, det är bara en hypotes från min trötta hjärna.

Om ovanstående teori stämmer borde ett spel som i huvudsak är cpu-bunden ha mindre problem med MS?

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

Här har vi en snubbe som har koll på grejjerna.
Synd att han slutade på ATI, annars skulle detta kunna vara löst för länge sedan.

http://forum.beyond3d.com/showthread.php?t=49514

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk

Tänkte bara slinka in och säga att ni är extremt sköna människor och fortsätt med detta! Sjukt trevligt!

Visa signatur

Chassi: Cooler Master HAF X Advanced Big Tower | PSU: Corsair HX 750w
CPU: Intel Core i7 2600k @ Stock (3,4) | GPU: XFX Radeon 6950 'Dual Fan' 2GB
Moderkoret: MSI P67A-GD65 | RAM: Corsair Vengeance 8 GB CL9 1600 Mhz

VILL DU HAR SVAR FRÅN MIG SÅ CITERA!

Permalänk
Relik 📜
Skrivet av Albinfiskare:

Stämmer detta? Varför ?

Menar du Cpu eller Gpu?

Skrivet av jacozz:

Albinfiskare #156

Det verkar vara ett synkproblem mellan processor/gpu.

Det är i alla fall en teori i de fall grafiken och inte processorn är den långsammare av de två.
Processorn förbereder och skickar data till det första grafikkortet, när den är klar med det börjar den direkt med att förbereda nästa frame som den direkt skickar till nästa grafikkort. Då man i de flesta spel är gpu-bunden snarare än cpubunden, kommer frame 2 ritas upp betydligt snabbare efter frame1, än tiden det tog för att processa frame 1.

alltså typ nåt sånt här: 0----------1--2---------3--4 osv

Så. låt säga att du har en överclockad SandyBridge och ett par 5770 i CF. Här blir då skillnaden extremt stor mellan hur snabbt frame 2 ritas ritas upp förhållanden till tiden grafikkortet tar på sig rita upp frame 1. Så i detta fallet vore det kanske bättre att ha en gammal x4 Atlon, då processorn inte orkar skicka datan till frame 2 lika snabbt? (Åtminstone om målet är att minska MS). Fast jag vet ärligt talat inte om detta stämmer, det är bara en hypotes från min trötta hjärna.

Om ovanstående teori stämmer borde ett spel som i huvudsak är cpu-bunden ha mindre problem med MS?

Skrivet av jacozz:

Här har vi en snubbe som har koll på grejjerna.
Synd att han slutade på ATI, annars skulle detta kunna vara löst för länge sedan.

http://forum.beyond3d.com/showthread.php?t=49514

Det där stämmer alldeles utmärkt. I videon bakar vi ihop hela processen till "renderingstid", dels för att förenkla och dels för att inte ge oss in på områden där vi helt enkelt inte är 100% insatta. Grundproblemet är precis som beskrivs ovan, att processorn bearbetar varje bildruta snabbare än grafikprocessorerna, vilket gör att den upplevda renderingstiden för varje frame till slutanvändaren blir olika.
"Lösningen" är att bli CPU-bunden, alltså att processorn sätter begränsningen före grafikkorten. Detta kan uppnås genom att ställa ned grafikinställningarna, alternativt genom att höja processorintensiva parametrar. En annan lösning är att slå på v-sync, vilket enligt uppgift får processorn att vila på "jämna intervall" och därmed stoppa överflödet av bildrutor. Det sistnämnda ger dock som sagt upphov till andra problem, speciellt i kombination med tripple buffering.

Att AMD och Nvidia inte vet vad problemet beror på som vi sade i videon är också en förenkling. Sanningen är snarast att de är mycket medvetna om problemet och dess orsak, men att ingen lösning finns på bordet utan prestandaförluster. Det som "Humus" föreslår är bland annat ett val att slå på någon form av "smooth"-funktion i drivrutinerna som åtgärdar MS, på bekostnad av FPS. En annan lösning är att frångå AFR för en alternativ teknik, något som åter innebär prestandaförluster.

Det finns andra med oändligt bättre koll på de här frågorna än mig och Jonas, till exempel folk som aktivt jobbar med utveckling eller drivrutiner. Vi fick bland annat ett mail från en spelutvecklare (nämnda "Humus", ironiskt nog) under natten som förklarade mer i detalj hur MS uppstår, vilket alltid uppskattas enormt (och ligger till grund för mycket det jag skrev ovan)! Oavsett vilket är kärnfrågan dock den samma; microstuttering finns och är ett reellt problem, FPS är en begränsad mätmetod och frametimes visar i många fall defekter tydligare.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Så microstuttering är att, t.ex. att man har 60 fps, varje fps inte tar lika lång tid att rendera som den andra i samma sekund? t.ex. vid den 20 millisekunden kommer en frame sen kanske kommer den andra vid den 80 ms sedan nästa bild vid 81... alltså fps:n har inte jämna mellanrum? eller hur? eller?

Visa signatur

Intel Core i5 3570K @ 4.0GHz / Noctua NH-D14 | Gigabyte Geforce GTX 670 WindForce 3X| ASRock Z77 Pro4 | Cooler Master Silent Pro M 600W | Corsair Vengeance CL9 2x4GB LP | Seagate Barracuda 1TB 7200rpm| Fractal Design R4 | Acer 24'' G245HQbid |||| *Tillbehör* | Razer Megalodon 7.1 Headset | Razer Mamba | Citera gärna! Annars glömmer jag!! | Fri frakt för Swec!

Permalänk
Relik 📜
Skrivet av Buzz996:

Så microstuttering är att, t.ex. att man har 60 fps, varje fps inte tar lika lång tid att rendera som den andra i samma sekund? t.ex. vid den 20 millisekunden kommer en frame sen kanske kommer den andra vid den 80 ms sedan nästa bild vid 81... alltså fps:n har inte jämna mellanrum? eller hur? eller?

Väldigt förenklat, precis så. Din FPS-mätare visar stabilt 60, men under den sekunden uppstår det variationer som gör att upplevelsen blir "hackig".

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Hurru Emil B!

Citat:

Vi fick bland annat ett mail från en spelutvecklare (nämnda "Humus", ironiskt nog) under natten som förklarade mer i detalj hur MS uppstår, vilket alltid uppskattas enormt

Kan du inte "muta" Humus med något lämpligt och få honom att snickra ihop en "AntiMS- SweClockers Edition-app"

Visa signatur

🖥️ AMD Ryzen 3700x, MSI B350 Mortar Arctic, Corsair lpx 3200, Sapphire 6900XT Nitro, Mbpro 15, MacMini.

Permalänk
Medlem

har faktiskt inte märkt av microstuttering, men kommer alldeles säkert göra det nu efter jag sett det här

Visa signatur

ASUS ROG Z490-F | Intel i5 10600K | ASUS Strix RTX 3090 | Corsair Vengeance LPX 4x8 Gb | Corsair RM1000x

Permalänk
Medlem

Kan väl ge mitt tips för det hela, om ni kör Nvidia SLi och lider av microshuttering, gå in i Nvidia's kontrollpanel och in i avancerade grafikinställningar. Det finns en inställning där som tillåter processorn att "förbereda" rendering för kommande bildrutor som default ligger på siffran 3, ändra detta till 0 och jag kan nog garantera att microshuttering inte kommer verka så farligt längre förutom i enstaka fall =]

Visa signatur

LG OLED77CX • Intel i9 10900K @ 5.0GHz • Noctua NH-D15 • ASUS Strix Z490-H • Corsair 32GB DDR4 3200MHz • GIGABYTE RTX 4080 • Phanteks Evolv X • Corsair RM 850W V2

Permalänk
Medlem
Skrivet av emilakered:

Väldigt förenklat, precis så. Din FPS-mätare visar stabilt 60, men under den sekunden uppstår det variationer som gör att upplevelsen blir "hackig".

Jag rynkade på näsan direkt när jag hörde eran undermåliga tolkning av "fps" i videon faktiskt. Ni tolkar fps för bokstavligt; "frames per second" så det är antalet frames över en sekund, sedan får ni det att låta som att problemet är att man inte får någon information om vad som händer mer lokalt under den sekunden, dvs. att distributionen av frames inte på ett tillfredställande sätt kan beskrivas av ett mått som mäter över en hel sekund. Kort och gott vill ni kalla det för att det är för låg upplösning i tiden att köra på en sekund.
Det första ni säger är ju helt sant; Antalet bilder som visats över en sekund säger inte så mycket om man inte vet hur de har fördelats över den sekunden, så långt är jag med. Men att det i sin tur gör att fps är meningslöst är ju inte rätt.

Exempel: FPS är ett mått på bilder per tidsenhet och att man väljer just sekunder är bara en smakfråga och om inte annat ett bra val för att det ger siffror i storleksordningen 1-100 typiskt (Såvida det inte är en galen mismatch mellan applikationens krav och hårdvarans prestanda då) och mänsklig syn ligger ju även den någonstans i mitten av det spannet (Ingen källa, men varenda människa som spelar vet med sig att det brukar vara någonstans i 30-60 fps spannet som man kan känna av att spelet inte flyter och det finns ju en anledning till att TV-apparater ligger på 50 MHz (25 fps) och inte 200 MHz till exempel). Man hade precis lika gärna kunnat välja fph och lagt på en faktor 3 600 (60 sekunder per minut gånger 60 minuter per timme) och börjat snacka om "360 000 fph" istället för 100 fps. Men här lyser också problemet mer eran förkaring/tolkning igenom; Ni får det att låta som att om jag skulle mäta i fph så skulle det kräva att mitt system fick rita bilder i 1 timme för att sedan ge mig en siffra. Det går förvisso att göra också, men jag kan ju precis lika gärna låta systemet projicera min nuvarande prestanda på hur många bilder det skulle resultera i över en timme. Vidare så är det ju så av de fps-mätare som jag spanat på så är det ju väldigt få som faktiskt updaterar bara 1 gång per sekund.
Ni sa även att det är svårt att relatera till frametime kontra fps; det låter ju också knepigt. Det är ju inte svårare än att 1/fps = framtime <=> fps = 1/frametime, där frametime mäts i skunder, så storleksordningen på måttet frametime kommer för 1-100 fps ligger mellan 0.01 - 1 sekund, eller 10 - 1000 ms om man så vill.

Hur som helst; Jag är helt övertygad om att ni är införstådda med vad problemet är och jag blev helt klart upplyst av eran film, men jag tycker inte om eran tolkning av fps som mått.

Jag kommer även att tänka på eventuella lösningar för att ni skall kunna ge en bra representation av prestanda och spelupplevelse; fördelningsgrafer. Kort och gott skulle ni kunna slänga in en graf med en fördelning på fps/frametimes över en Benchmark. Nu vet jag inte hur det ser ut med möjligheterna att lagra och presentera denna data eller hur ofta olika benchmarks kastar ur sig en siffra för fps, men sådanna grafer skulle absolut kunna användas för att ge en bättre helhetsbild.

Notis om uppdateringsfrekvensen för fps-mätare: Om vi antar att hackighet upplevs om fps går under ett visst värde - säg 30 fps - så betyder det i sin tur att man bör ha en uppdateringsfrekvens på fps:en på just ~30 uppdateringar per sekund (ups) för att man faktiskt ska märka av de gånger då fps:en går "märkbart" lågt så att säga (Orkar inte tänka igenom det så galet noggrant nu, men tror att man med 30 fps som gräns bör ha 60 ups för att inte kunna missa dropsen, http://en.wikipedia.org/wiki/Aliasing ). Notera dock att denna uppdateringsfrekvens alltså skulle vara nyttig att ha för lagring av data, ej för att visa en siffra på en skärm, för om den uppdaterades så ofta skulle det bli mer eller mindre omöjligt att läsa av den.

Att övergå till frame time istället för fps torde för i övrigt vara ekvivalent med att updatera fps vid varje ny frame. Det i sin tur skulle ju innebära att den extra belastningen för att beräkna frame time / fps och eventuellt lagra denna information skulle bli proprtionell mot just din fps, vilket kanske inte är önskvärt alla gånger. Aja, hur som helst; Mycket intressant ämne och helt klart värt att diskutera. Hoppas verkligen att alla spelsidor, hårdvarutillverkare- och utvecklare samt benchmark- och speltillverkare lyfter fram detta problem snart och börjar jobba på sätt att ge oss konsumenter en bättre bild av just spelupplevelsen.

Fråga: Vet ni på Sweclockers vad uppdateringsfrekvensen är på "riktiga benchmarks"? Jag antar att den skiljer sig från den siffra som (kan) visas på skärmen under själva benchmarken. Men det vore ju intressant att veta om den är hög nog för verkligen se de värsta fallen med hög sannolikhet.

Permalänk
Relik 📜
Skrivet av Rah!:

Jag rynkade på näsan direkt när jag hörde eran undermåliga tolkning av "fps" i videon faktiskt. Ni tolkar fps för bokstavligt; "frames per second" så det är antalet frames över en sekund, sedan får ni det att låta som att problemet är att man inte får någon information om vad som händer mer lokalt under den sekunden, dvs. att distributionen av frames inte på ett tillfredställande sätt kan beskrivas av ett mått som mäter över en hel sekund. Kort och gott vill ni kalla det för att det är för låg upplösning i tiden att köra på en sekund.
Det första ni säger är ju helt sant; Antalet bilder som visats över en sekund säger inte så mycket om man inte vet hur de har fördelats över den sekunden, så långt är jag med. Men att det i sin tur gör att fps är meningslöst är ju inte rätt.

Det vi menar är att FPS i klassisk användning, alltså för prestandatester, är ett begränsat mått för att se små variationer. Det du får ut är ju just bilder per sekund, utan information hur dessa är fördelade. Sedan kan man ju givetvis som du säger plocka FPS från "delar av en sekund" för mer exakta reslutat, men i gängse mening handlar det om ett snittvärde över hela sekunden som dessutom klumpas ihop till medelvärde för en hel benchmark.

Det vi menar om svårigheter att relatera till frametimes handlar inte om värdena i sig eller mätproblem (FRAPS kan mäta frametimes), utan åter om vad som är allmänt vedertaget. FPS är på gott och ont måttet som används för prestandamätning, och att presentera andra värden gör att datan blir svårare att ta till sig för läsare. Någon gång kan vi förhoppningsvis hitta en gyllene medelväg, men det kräver tid att undersöka alternativen som finns lite djupare.

Jag vet faktiskt inte hur ofta till exempel FRAPS kör avläsningen "under huven" vid benchmark, det man får ut är "snittvärden" för varje sekund vid den traditionella mätningen. Mjukvaran har dock som sagt möjlighet att läsa av frametimes för varje enskild bildruta, så precisionen lär vara tillräcklig.

Visa signatur

För övrigt anser jag att Karthago bör förstöras.
▪ Nöje #1 -> i5-11400F - B560M-ITX/ac - RTX 3070 - 16 GB DDR4
▪ Nöje #2 -> R5 5600 - Prime B450-Plus - RX 6750 XT - 16 GB DDR4
▪ Mobilt -> HP Pavilion Aero - R5 5625U - 16 GB DDR4
▪ Konsol -> Steam Deck, Xbox Series S

Permalänk
Medlem

Om man kör med ett grafikkort dedikerat till varsin skärm vore det ju smart om grafikkorten "ritade" var för sig.

Skickades från m.sweclockers.com

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32 GB DDR5-6000 | 4,5 TB SSD | RTX 4070 12 GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16 GB DDR4-2933 | 1,5 TB SSD | RTX 3070 8 GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 16 GB DDR4-2400 | 756 GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8