60FPS kräver hur mycket mer än 30FPS?

Permalänk
Medlem

60FPS kräver hur mycket mer än 30FPS?

Hej!
Vet inte om jag placerat min tråd rätt så bara att skälla på mig om jag lagt den fel

Min fråga kanske är lite "luddig" men har gått runt o tänkt på en sak och hittar inget på Google.
Kan ju säga att jag inte är så super kunnig på allt det där med grafik och programmering, kan ju ffs inte skillnaden mellan olika typer av AA, Om allt som visas på min skärm lagras i VRAM osv. Mer av en hårdvarukille men kunskaper i el, lödning och kretskortsbyggande mm.
Lite C++ HTML och flash har man väl testat på i sina dar men då till min fråga.

Detta är bara ett exempel för att formulera min fråga och behöver inte vara sanning.
Konsolerna nu för tiden har ju bara "kraften" i dom flesta fall att leverera 1080@30 medans vi säger att PC versionen av samma spel klarar galant 1080@60.
Då undrar jag, krävs det dubbelt så mycket "kraft" i hårdvaran att leverera dubbelt så många bildrutor? Alltså om vi säger att alla har exakt samma grafiska inställningar och samma upplösning.

Eller är det en % ökning/minskning i "kraften" som behövs för att leverera samma grafik fast i mer bildrutor/sekund?

Tacksam för svar och ett någorlunda "oluddigt" svar uppskattas. Är inte det minsta dum bara inte så kunnig på hur grafik fungerar mer invecklat.

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Medlem

I grova drag, ja. Med det rent grafiska, generellt. Strategispel med CPU-krävande AI kanske inte funkar likadant, till exempel.

Permalänk

Kortfattat beror det mycket på om det är konsolport och hur optimerad den är.

Hur många här minns GTA 4?

Visa signatur

There's no place like 127.0.0.1

Permalänk
Moderator
Festpilot 2020, Antiallo
Skrivet av NuZ:

Hej!
Vet inte om jag placerat min tråd rätt så bara att skälla på mig om jag lagt den fel

Min fråga kanske är lite "luddig" men har gått runt o tänkt på en sak och hittar inget på Google.
Kan ju säga att jag inte är så super kunnig på allt det där med grafik och programmering, kan ju ffs inte skillnaden mellan olika typer av AA, Om allt som visas på min skärm lagras i VRAM osv.
Lite C++ HTML och flash har man väl testat på i sina dar men då till min fråga.

Detta är bara ett exempel för att formulera min fråga och behöver inte vara sanning.
Konsolerna nu för tiden har ju bara "kraften" i dom flesta fall att leverera 1080@30 medans vi säger att PC versionen av samma spel klarar galant 1080@60.
Då undrar jag, krävs det dubbelt så mycket "kraft" i hårdvaran att leverera dubbelt så många bildrutor? Alltså om vi säger att alla har exakt samma grafiska inställningar och samma upplösning.

Eller är det en % ökning/minskning i "kraften" som behövs för att leverera samma grafik fast i mer bildrutor/sekund?

Tacksam för svar och ett någorlunda "oluddigt" svar uppskattas. Är inte det minsta dum bara inte så kunnig på hur grafik fungerar mer invecklat.

Kort och gott, minst dubbla prestandan för dubbla frame-raten. Sedan halverar du även tiden för att spotta ut bilderna så du måste genomföra bilden på kortare tid samt även all overhead för denna.

Men kort och gott. Dubbla prestandan + extra. Extra är beräkningar CPU måste vara klar med, t ex fysik och AI beslut, alla Interrupts som skickas, all overhead för varje individuell bild etc.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av lorgix:

I grova drag, ja. Med det rent grafiska, generellt. Strategispel med CPU-krävande AI kanske inte funkar likadant, till exempel.

Ok ok tack så mycket för svar
Ok så i t.ex ett CPU intensivt spel krävs det annorlunda ökning av, vi säger GHz för att få dubbelt så många bildrutor? Kan jag förstå för cyklerna i en CPU ökar ju 100% från 1GHz till 2GHz. Men bara 50% från 2GHz till 3GHZ men den kan göra 3 dubbelt så många beräkningar.

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Medlem
Skrivet av SirLagsalot:

Kortfattat beror det mycket på om det är konsolport och hur optimerad den är.

Hur många här minns GTA 4?

Haha ja den minns jag :/

Skrivet av DavidtheDoom:

Kort och gott, minst dubbla prestandan för dubbla frame-raten. Sedan halverar du även tiden för att spotta ut bilderna så du måste genomföra bilden på kortare tid samt även all overhead för denna.

Men kort och gott. Dubbla prestandan + extra. Extra är beräkningar CPU måste vara klar med, t ex fysik och AI beslut, alla Interrupts som skickas, all overhead för varje individuell bild etc.

Precis ett sådant svar jag sökte. Tack!
Du får definitivt en guldstjärna i min bok

Tack alla för era svar

Edit:
F*n då är ju min högst personliga slutsats att dagen konsoler är redan gamla om PC ligger så mycket längre fram. Minns att PS3 inte var så mycket efter dåtidens burkar som dagens konsoler är dagens PC

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Testpilot

Kort och gott ja som beskrivits ovan, men det finns flera variabler så som optimering av portnings-koden och CPU beräkningshastighet i det hela med.

Man kan jämföra current gen konsolernas grafik som med ett nedklockat GTX 480 (på ett ungefär). Så länge man har en någorlunda okej CPU så som en IntelCore C2Q 9550/AMD PhenomII 1060t (eller bättre) och 6Gb RAM+, så kan du uppleva konsol-liknande grafik på ett GTX 480 eller bättre, i generella termer.

Dock spel som Total War: Shogun, Starcraft 2 eller battlefield-spelen är väldigt CPU tunga då det är antingen mycket fysik eller komplex AI (eller båda) som körs, vilket resulterar i att man behöver en kraftfullare CPU.

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | VGN K75 Pro | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av phoenixdisciple:

Kort och gott ja som beskrivits ovan, men det finns flera variabler så som optimering av portnings-koden och CPU beräkningshastighet i det hela med.

Man kan jämföra current gen konsolernas grafik som med ett nedklockat GTX 480 (på ett ungefär). Så länge man har en någorlunda okej CPU så som en IntelCore C2Q 9550/AMD PhenomII 1060t (eller bättre) och 6Gb RAM+, så kan du uppleva konsol-liknande grafik på ett GTX 480 eller bättre, i generella termer.

Dock spel som Total War: Shogun, Starcraft 2 eller battlefield-spelen är väldigt CPU tunga då det är antingen mycket fysik eller komplex AI (eller båda) som körs, vilket resulterar i att man behöver en kraftfullare CPU.

Ok tack för svaret Haha total war och komplex AI? (Kanske kräver mycket men gud så dumma dom är i spelet)

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Medlem
Skrivet av NuZ:

Ok ok tack så mycket för svar
Ok så i t.ex ett CPU intensivt spel krävs det annorlunda ökning av, vi säger GHz för att få dubbelt så många bildrutor? Kan jag förstå för cyklerna i en CPU ökar ju 100% från 1GHz till 2GHz. Men bara 50% från 2GHz till 3GHZ men den kan göra 3 dubbelt så många beräkningar.

Det kan gå åt båda håll, i teorin. I praktiken är det vanligast att fps skalar sub-optimalt med GHz.

Så: Grovt räknat, ja dubbel CPU+GPU-prestanda ger (nästan) dubbla fps. Det finns undantag åt båda håll, men det absolut vanligaste är att over-head sabbar skalningen mer eller mindre.

Permalänk
Avstängd
Skrivet av NuZ:

Hej!
Vet inte om jag placerat min tråd rätt så bara att skälla på mig om jag lagt den fel

Min fråga kanske är lite "luddig" men har gått runt o tänkt på en sak och hittar inget på Google.
Kan ju säga att jag inte är så super kunnig på allt det där med grafik och programmering, kan ju ffs inte skillnaden mellan olika typer av AA, Om allt som visas på min skärm lagras i VRAM osv.
Lite C++ HTML och flash har man väl testat på i sina dar men då till min fråga.

Detta är bara ett exempel för att formulera min fråga och behöver inte vara sanning.
Konsolerna nu för tiden har ju bara "kraften" i dom flesta fall att leverera 1080@30 medans vi säger att PC versionen av samma spel klarar galant 1080@60.
Då undrar jag, krävs det dubbelt så mycket "kraft" i hårdvaran att leverera dubbelt så många bildrutor? Alltså om vi säger att alla har exakt samma grafiska inställningar och samma upplösning.

Eller är det en % ökning/minskning i "kraften" som behövs för att leverera samma grafik fast i mer bildrutor/sekund?

Tacksam för svar och ett någorlunda "oluddigt" svar uppskattas. Är inte det minsta dum bara inte så kunnig på hur grafik fungerar mer invecklat.

Intressant fråga men har inget svar Skulle tippa på att det mer är en procentuell ökning. Dessutom vad är dubbelt så mycket "kraft", för att leverera höga fps har ju många delar som måste samverka, gpu, cpu, bandbredd, minne, osv vänta tills någon techwiz som kan förklara det svarar.

Permalänk
Medlem
Skrivet av lorgix:

Det kan gå åt båda håll, i teorin. I praktiken är det vanligast att fps skalar sub-optimalt med GHz.

Så: Grovt räknat, ja dubbel CPU+GPU-prestanda ger (nästan) dubbla fps. Det finns undantag åt båda håll, men det absolut vanligaste är att over-head sabbar skalningen mer eller mindre.

Precis och stort tack

Skrivet av retro123:

Intressant fråga men har inget svar Skulle tippa på att det mer är en procentuell ökning. Dessutom vad är dubbelt så mycket "kraft", för att leverera höga fps har ju många delar som måste samverka, gpu, cpu, bandbredd, minne, osv vänta tills någon techwiz som kan förklara det svarar.

Det var några teckninjor som la in några bra svar här ovan och jag kan ju säga att SweC har en ganska gedigen skock av kunniga människor. Även mina luddiga frågor får svar

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Medlem
Skrivet av retro123:

Intressant fråga men har inget svar Skulle tippa på att det mer är en procentuell ökning. Dessutom vad är dubbelt så mycket "kraft", för att leverera höga fps har ju många delar som måste samverka, gpu, cpu, bandbredd, minne, osv vänta tills någon techwiz som kan förklara det svarar.

Jag tror att de flesta antar att man menar den prestanda som teoretiskt skalar linjärt med CPU & GPU-frekvens.

Permalänk
Medlem
Skrivet av retro123:

Intressant fråga men har inget svar Skulle tippa på att det mer är en procentuell ökning. Dessutom vad är dubbelt så mycket "kraft", för att leverera höga fps har ju många delar som måste samverka, gpu, cpu, bandbredd, minne, osv vänta tills någon techwiz som kan förklara det svarar.

Det beror på hur balanserad datorn är och hur spelet/programmet är kodat.

Vissa spel har aiuppdateringen låst till exempelvis 30 ggr/sek så en dubblering i cpu ger nödvändigtvis inte dubbla fpsen. I detta fall kanske mer än dubbla beroende på andra komponenter, då resterande delar i spelet, os och drivrutiner får mer processortid tilldelat.

Vad betyder dubblering av hårdvara?
En processor på 3GHz och 15MB cache kanske presterar hälften så bra som en 6GHz 15MB i ett normalt spel. Dock kan en 6GHz 30MB prestera upp till kanske 500 gånger bättre när datan är rätt alignad och passar bra i cachen, dvs mindre cachemissar. Processorcachen är mycket snabbare än ramminnet så det kan betyda mycket.

Permalänk
Testpilot
Skrivet av NuZ:

Ok tack för svaret Haha total war och komplex AI? (Kanske kräver mycket men gud så dumma dom är i spelet)

Hehe, man ska inte förväxla bra och komplex

Men det är väldigt mycket enheter på skärmen, då varje gubbe i en armé räknas som en individuell AI-uträkning, vilket gör det spelet otroligt CPU tungt - Men fina fighter blir det med!

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | VGN K75 Pro | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av NuZ:

Ok ok tack så mycket för svar
Ok så i t.ex ett CPU intensivt spel krävs det annorlunda ökning av, vi säger GHz för att få dubbelt så många bildrutor? Kan jag förstå för cyklerna i en CPU ökar ju 100% från 1GHz till 2GHz. Men bara 50% från 2GHz till 3GHZ men den kan göra 3 dubbelt så många beräkningar.

Jo men en ökning från 1GHz till 3GHz är en ökning på 200%. Inte 100%+50% som jag antar att du menar?

Visa signatur

#1: Z370N ITX | i7 8700k | GTX 1080 | 32GiB
#2: P8Z77-M pro | i7 3770k | GTX 1050ti | 16GiB

Server: Z370-G | i5 8600T | 64GiB | UnRAID 6.9.2 | 130TB
Smartphone: Samsung Z Flip 5 | Android 13 | Shure SE535

Permalänk
Medlem

Det luriga med frågan är att det är svårt att säga hur snabbt processorer gör grejer även i de mest simplifierade fallen. Det är lätt att tro att en processor gör en instruktion per hz (eller en instruktion per cykel) och därför kan göra dubbelt så många instruktioner med dubbelt så mycket clock speed, men så är ju inte fallet, extra klurigt blir det när man jämför två olika processorer, en hög instruktioner som tar en processor 15 cykler kan ta en annan 10. När man sen skalar upp detta lite får man in annan overhead som gör det ännu svårare, kör du ett program i windows t ex är det ju inte precis som varenda cykel går åt till att köra det programmets instruktioner, programmet pausas konstant så andra delar av windows får köra lite också. Lägg sen på overhead när processer måste interagera med andra API som t ex directX och du har helt plötsligt en enormt komplex kedja av instruktioner som turas om att köras.

Generellt kan man nog säga att dubbelt så kraftfull hårdvara ger mer än dubbelt så mycket FPS (för mycket av overheaden är konstant och blir inte mer för att man ritar fler bilder), men det kommer alltid att bero på exakt hur programvaran och hårdvaran är designad.

Visa signatur

Fractal Design Define R5 | MSI Z97-GD65 Gaming | MSI Geforce GTX 970 Gaming 4G | Intel i5 4690k | Cooler Master Hyper 212 EVO | EVGA Supernova G2 750W | 2x8GB Corsair Vengeance Low Profile DDR3 1600Mhz | Samsung 850 EVO | Seagate 1TB SATA3.5

Permalänk
Medlem
Skrivet av LudvigLindell:

Jo men en ökning från 1GHz till 3GHz är en ökning på 200%. Inte 100%+50% som jag antar att du menar?

Från 1-3 är det 200% som du säger. Från 2-3 är det 50%. Så menade jag. Vi tänker nog lika fast annorlunda, kan vara jag som formulerar mig knasigt Tack för ditt svar iaf.

Skrivet av Tobberoth:

Det luriga med frågan är att det är svårt att säga hur snabbt processorer gör grejer även i de mest simplifierade fallen. Det är lätt att tro att en processor gör en instruktion per hz (eller en instruktion per cykel) och därför kan göra dubbelt så många instruktioner med dubbelt så mycket clock speed, men så är ju inte fallet, extra klurigt blir det när man jämför två olika processorer, en hög instruktioner som tar en processor 15 cykler kan ta en annan 10. När man sen skalar upp detta lite får man in annan overhead som gör det ännu svårare, kör du ett program i windows t ex är det ju inte precis som varenda cykel går åt till att köra det programmets instruktioner, programmet pausas konstant så andra delar av windows får köra lite också. Lägg sen på overhead när processer måste interagera med andra API som t ex directX och du har helt plötsligt en enormt komplex kedja av instruktioner som turas om att köras.

Generellt kan man nog säga att dubbelt så kraftfull hårdvara ger mer än dubbelt så mycket FPS (för mycket av overheaden är konstant och blir inte mer för att man ritar fler bilder), men det kommer alltid att bero på exakt hur programvaran och hårdvaran är designad.

Nu vart det tungt, Men tror jag förstår hur du menar det med CPU
Processorer kan klara av flera saker samtidigt olika fort beroende på modell eller anar jag ugglor i fårakläder?
Det där med overhead är invecklat som tusan för mig men kan man säga att overheaden är skiktet/en som processorn skall bearbeta i en av trådarna t.ex ip protocol? Blir inte det större om man ger den större saker i själva det skiktet? Är svårt att formulera frågan min när jag inte är så insatt

Edit: Men som sagt jag har fått riktigt bra svar på min fråga om hårdvaran och bilder/sekund

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Skrivet av NuZ:

Från 1-3 är det 200% som du säger. Från 2-3 är det 50%. Så menade jag. Vi tänker nog lika fast annorlunda, kan vara jag som formulerar mig knasigt Tack för ditt svar iaf.

Nu vart det tungt, Men tror jag förstår hur du menar det med CPU
Processorer kan klara av flera saker samtidigt olika fort beroende på modell eller anar jag ugglor i fårakläder?
Det där med overhead är invecklat som tusan för mig men kan man säga att overheaden är skiktet/en som processorn skall bearbeta i en av trådarna t.ex ip protocol? Blir inte det större om man ger den större saker i själva det skiktet? Är svårt att formulera frågan min när jag inte är så insatt

Edit: Men som sagt jag har fått riktigt bra svar på min fråga om hårdvaran och bilder/sekund

Det där med "overhead" kan du läsa som en extra stor paket med data som som agerar ungefär som en tolk mellan mjukvara och hårdvara. Hårdvara räknar enbart i ettor och nollor. Mjukvara skrivs i ett språk som är förståeligt för människor.
Tolkningen där emellan kan du se som "overhead" (som okunnig).

Det finns mycket mer djupgående förklaring, men tro mig. Nöj dig med detta

Visa signatur

There's no place like 127.0.0.1

Permalänk
Medlem
Skrivet av SirLagsalot:

Det där med "overhead" kan du läsa som en extra stor paket med data som som agerar ungefär som en tolk mellan mjukvara och hårdvara. Hårdvara räknar enbart i ettor och nollor. Mjukvara skrivs i ett språk som är förståeligt för människor.
Tolkningen där emellan kan du se som "overhead" (som okunnig).

Det finns mycket mer djupgående förklaring, men tro mig. Nöj dig med detta

Det var enkelt skrivet så en dödlig förstår
nu förstår jag,Tack!

Visa signatur

"Citera för svar!"

Speedrunner

Permalänk
Datavetare

Precis som många andra redan sagt så krävs det rent teoretiskt dubbelt så mycket beräkningskraft att rendera samma scener i 60FPS mot att göra det i 30FPS. Men det finns en detalj i dagens konsoler och till lite mindre del i dagens PC-maskiner som komplicerar denna frågeställning en del, nämligen multicore.

Så länge som en enhet har en CPU-kärna så stämmer det nära nog perfekt att säga att man måste ha dubbelt så hög beräkningskraft. Visst skalar inte beräkningskraft per kärna helt linjärt med CPU-frekvens men det är väldigt nära då det bara är minnesaccesser som missar CPU-cache (vilket typiskt är långt färre än 10%) som inte skalar perfekt, alla beräkningar och minnesaccesser som träffar cache skalar perfekt.

När man har flera CPU-kärnor tillkommer en dimension i problemet, varje scen måste koordineras mellan alla CPU-kärnor som används och kostnaden för denna koordinering är i stort sätt konstant oavsett FPS men den påverkas av hur många CPU-kärnor som deltar. Kostnaden kontra antal CPU-kärnor är något som man nog bara kan reda ut empiriskt, det kommer skilja sig (potentiellt rätt mycket) mellan olika CPU-designer. Generellt kan man ändå säga att denna kostnad är mindre mellan CPU-kärnor ju lägre latens kommunikationskanalen mellan dem har, tittar man i dagens konsoler så är det två grupper om 4-kärnor som delar L2-cache så dessa kan kommunicera mycket mer effektivt än två kärnor som använder olika L2-segment, Naughty Dog har gjort tester som visar att det skiljer ungefär en faktor 10(!).

Hur hänger allt detta ihop då? I stort sätt kan man säga att alla form av synkronisering mellan CPU-kärnor är jobb som är seriellt, d.v.s. bara kan köras på en CPU-kärna. Det betyder att tillgänglig beräkningskraft per tidsenhet ökar ju längre "frame-time" man har då synkroniseringen sker en gång per scen. Gissar därför att 30FPS till viss del har blivit så vanligt på denna generations konsoler därför att prestanda per CPU-kärna är väldigt låg (runt en fjärdedel/femtedel av en "normal" Intel baserad PC), vilket betyder att man i möjligaste mån måste utnyttja alla de 6 CPU-kärnor (2 är reserverade för systemet både i PS4 och XBO) som finns att tillgå.

Xbox360 hade också 6 CPU-trådar, men rent fysiskt är det 3 CPU-kärnor med SMT (det Intel kallar HyperThreading). Kostnaden att kommunicera mellan CPU-trådar som delar L1-cache (vilket alla dagens SMT implementationer gör) är i princip noll så ur ett kommunikationskostnadsperspektiv är det ungefär lika utmanande att programmera en N-kärnig CPU vare sig den har SMT eller ej.

Denna kommunikationskostnad beskrivs väldigt väl av Ahmdals lag där den seriella delen till stort sätt utgörs just av kostnad för kors-CPU kommunikation.

Edit: finns en till stor synkroniseringspunkt, CPU-kärnorna måste också kommunicera med GPU-kretsen på ett kontrollerat och korrekt sätt. Detta kommer bli ett allt mindre problem i framtiden då man numera designar prestandakritisk HW så att varje CPU får sin "egen" kommunikationskanal med externa kretsar. Saker som DX12, glNext, Mantle och Metal är alla APIer som erbjuder ett API för att komma åt denna typ av design. Server HW har sedan många år tillbaka använt motsvarande teknik för nätverkskort, kryptoacceleratorer och liknande.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Avstängd
Skrivet av DavidtheDoom:

.

Men kort och gott. Dubbla prestandan + extra. Extra är beräkningar CPU måste vara klar med, t ex fysik och AI beslut, alla Interrupts som skickas, all overhead för varje individuell bild etc.

...förutsatt att det är knutet till bildfrekvensen, ja. Det är det sällan.

Skickades från m.sweclockers.com